تقنية

فشل Yepic: وعدت هذه الشركة الناشئة بعدم إجراء عمليات التزييف العميق دون موافقة، لكنها فعلت ذلك على أي حال


تدعي شركة Yepic AI الناشئة ومقرها المملكة المتحدة أنها تستخدم “التزييف العميق من أجل الخير” وتعد “بعدم إعادة تمثيل شخص ما دون موافقته”. لكن الشركة فعلت بالضبط ما زعمت أنها لن تفعله أبدًا.

في رسالة بريد إلكتروني غير مرغوب فيها لمراسل TechCrunch، شارك ممثل Yepic AI مقطعي فيديو “مزيفين للغاية” للمراسل، الذي لم يوافق على إعادة إنتاج صورهما. قالت شركة Yepic AI في رسالة البريد الإلكتروني إنها “استخدمت صورة متاحة للجمهور” للمراسل لإنتاج مقطعي فيديو مزيفين لهما يتحدثان بلغات مختلفة.

طلب المراسل من شركة Yepic AI حذف مقاطع الفيديو المزيفة التي أنشأتها دون إذن.

Deepfakes هي صور أو مقاطع فيديو أو مقاطع صوتية تم إنشاؤها بواسطة أنظمة ذكاء اصطناعي إبداعية مصممة لتبدو وكأنها فردية. على الرغم من أن انتشار أنظمة الذكاء الاصطناعي التوليدية ليس جديدًا، إلا أنه يسمح لأي شخص تقريبًا بإنشاء محتوى مزيف عميق مقنع لأي شخص آخر بسهولة نسبية، بما في ذلك دون علمه أو موافقته.

وقالت شركة Yepic AI على إحدى صفحات الويب التي تحمل عنوان “الأخلاقيات”: “التزييف العميق والانتحال الساخرة لأغراض سياسية وغيرها من الأغراض”. [sic] يحظر.” وقالت الشركة أيضًا في منشور على مدونتها في أغسطس: “نحن نرفض إنتاج صور رمزية مخصصة للأشخاص دون إذن صريح منهم”.

ومن غير المعروف ما إذا كانت الشركة قد أنشأت صورًا مزيفة لأي شخص آخر دون إذن، وقد رفضت الشركة الكشف عن ذلك.

عندما تم الاتصال بالرئيس التنفيذي لشركة Yepic AI، آرون جونز، لموقع TechCrunch، للتعليق، قال إن الشركة تعمل على تحديث سياسة الأخلاقيات الخاصة بها “لاستيعاب الاستثناءات للصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تم إنشاؤها لأغراض فنية ومعبرة”.

وفي شرحه لكيفية وقوع الحادث، قال جونز: “لم أشارك أنا ولا فريق Yepic بشكل مباشر في إنشاء مقاطع الفيديو المعنية. لقد أكد فريق العلاقات العامة لدينا أن الفيديو تم إنتاجه خصيصًا للصحفي لزيادة الوعي بالتكنولوجيا المذهلة التي ابتكرتها Yepic.

وقال جونز إن مقاطع الفيديو والصورة المستخدمة في إنشاء صورة المراسل تم حذفها.

كما هو متوقع، خدعت تقنية التزييف العميق الضحايا المطمئنين ودفعتهم إلى الوقوع في فخ عمليات الاحتيال والتخلي عن عملاتهم المشفرة أو معلوماتهم الشخصية دون قصد عن طريق التهرب من بعض أنظمة الإشراف. وفي إحدى الحالات، استخدم المحتالون الذكاء الاصطناعي لانتحال صوت الرئيس التنفيذي لشركة من أجل خداع الموظفين لإجراء معاملة احتيالية تبلغ قيمتها مئات الآلاف من اليورو. قبل أن تصبح تقنية التزييف العميق شائعة لدى المحتالين، من المهم ملاحظة أن الأشخاص استخدموا تقنية التزييف العميق لإنشاء صور إباحية أو صور جنسية بدون موافقة النساء، مما يعني أنهم أنشأوا مقاطع فيديو إباحية ذات مظهر واقعي باستخدام صور النساء اللاتي لم يوافقن على أن يكونن جزءًا من الفيديو.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى