لوحة الموناليزا
عادت إلى الحياة مع الذكاء الاصطناعى
شهدت تجربة جديدة لمنظمة العفو الدولية ظهور حياة الموناليزا. العمل الفني الشهير هو مجرد مجموعة من الوجوه الرمزية التي ظهرت مؤخرًا في مقاطع الفيديو المزيفة.
استنادًا إلى صورة واحدة للوجه ، طور باحثون من Samsung AI Center في روسيا خوارزمية جديدة يمكنها إنشاء هذا النوع من الصور المزيفة.
تم إدخال أكثر من 7000 مقطع فيديو على YouTube في النظام لإنشاء الخوارزمية. هذا يعني أنه كان قادرًا على تعلم حركات "المعالم" في الوجه.
من خلال مراقبة أشكال الفم والعينين وأنف الوجه ، يمكن للخوارزمية عندئذٍ تطبيق نفس الحركات على صورة ثابتة في وقت لاحق.
قام الباحثون في موسكو أيضًا بتأثيرات مماثلة على صور ديفيد بيكهام ومارلين مونرو ، حيث رسموا ملامحهم بشكل أساسي.
جلبت الموناليزا في الحياة بالتأكيد الاهتمام ...
يمكن لمنظمة العفو الدولية الآن تحويل الموناليزا إلى شخص حقيقي. كل ذلك مع صورة واحدة فقط.
وقال الباحثون في دراستهم التي نشرت على ARXiv: "إنها تنفذ تعليمات طويلة حول مجموعة واسعة من مقاطع الفيديو".
"بعد ذلك ، تمكنوا من وضع إطار لعدد قليل - والتعلم مرة واحدة لنماذج من رؤساء الحديث العصبي عن أشخاص غير مرئي في السابق ...
لهذا السبب تم تغذية الخوارزمية بصور لأمثال الموناليزا وألبرت أينشتاين. على الرغم من أنها مزيفة بشكل واضح ، تبدو اللقطات النهائية واقعية بشكل مدهش.
Samsung's #deepfake #AI could fabricate a realistic video clip of you from a single photo. Like they've done here with the Mona Lisa![]()
Read/Sourcebit.ly/deepfakeAI#artificialintelligence #deepfake #digitalmedia #MachineLearning #DeepLearning
تقرير TechCrunch أن "جودة ووضوح رئيس الحديث وهمية تختلف على نطاق واسع" في اللقطات. "المسحات المعتادة والتحف الغريبة" هي أيضا في كل مكان ، كما يقول.
ومع ذلك ، يضيف تقريرها أنه "مع ذلك ، من الرائع أن تعمل كما تفعل". يشير تقرير TechCrunch ، مثله مثل الآخرين ، إلى أن هذا الذكاء الاصطناعي الجديد يعمل فقط على الوجه والجذع العلوي. يمكن Mona Lisa الرقص أو التصفيق بأيدي (ولكن ربما "بعد" هي كلمة المنطوق ...)
افكار اخيرة
ما رأيك؟ لقد قسمت منظمة العفو الدولية هذه الآراء منذ الكشف عنها. تقترح المرآة أن الخوارزمية الجديدة يمكن أن تحتوي على "عدد من التطبيقات المفيدة" ، خاصة في صناعة الأفلام.
ومع ذلك ، فهو يقر أيضًا بأنه يمكن إساءة استخدام الذكاء الاصطناعي (في الأيدي الخطأ) لإنشاء مقاطع فيديو "عميقة وهمية". في العام الماضي ، ظهرت العديد من مقاطع الفيديو من هذا النوع على الإنترنت ، والتي تظهر على ما يبدو المشاهير في مواقف واضحة.
كما أنه يزيد من فرص عرض مقاطع الفيديو للسياسيين ، أو حتى الأشخاص الذين ماتوا ، ويقولون ويفعلون أشياء لم يفعلوها قط.
لذلك ، بقدر ما هذا النوع من الذكاء الاصطناعي مثير وممتع ، في الأيدي الخطأ ، لا يمكن تصور العواقب. ما هو رأيك؟ دعنا نعرف!