تقنية

يقوم مجلس الرقابة التابع لشركة Meta بالتحقيق في الصور الصريحة التي تم إنشاؤها بواسطة الذكاء الاصطناعي والمنشورة على Instagram وFacebook


مجلس الرقابة، وهو مجلس السياسات شبه المستقل لشركة Meta، يحول انتباهه إلى كيفية تعامل المنصات الاجتماعية للشركة مع الصور الواضحة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. وأعلنت يوم الثلاثاء عن تحقيقات في قضيتين منفصلتين حول كيفية تعامل Instagram في الهند وFacebook في الولايات المتحدة مع الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي لشخصيات عامة بعد أن فشلت أنظمة Meta في اكتشاف المحتوى الصريح والاستجابة له.

وفي كلتا الحالتين، قامت المواقع الآن بحجب وسائل الإعلام. لا يقوم المجلس بتسمية الأفراد المستهدفين بصور الذكاء الاصطناعي “لتجنب التحرش القائم على النوع الاجتماعي”، وفقًا لرسالة بريد إلكتروني تم إرسالها إلى TechCrunch.

ينظر مجلس الإدارة في القضايا المتعلقة بقرارات الإشراف الخاصة بشركة Meta. يجب على المستخدمين مناشدة Meta أولاً بشأن خطوة الاعتدال قبل الاتصال بمجلس الرقابة. ومن المقرر أن ينشر المجلس نتائجه واستنتاجاته الكاملة في المستقبل.

الحالات

وفي وصف الحالة الأولى، قال المجلس إن أحد المستخدمين أبلغ عن صورة عارية تم إنشاؤها بواسطة الذكاء الاصطناعي لشخصية عامة من الهند على إنستغرام باعتبارها مواد إباحية. تم نشر الصورة بواسطة حساب ينشر حصريًا صورًا لنساء هنديات تم إنشاؤها بواسطة الذكاء الاصطناعي، وغالبية المستخدمين الذين يتفاعلون مع هذه الصور يقيمون في الهند.

فشلت Meta في إزالة الصورة بعد التقرير الأول، وتم إغلاق تذكرة التقرير تلقائيًا بعد 48 ساعة بعد عدم قيام الشركة بمراجعة التقرير بشكل أكبر. عندما استأنف صاحب الشكوى الأصلي القرار، تم إغلاق التقرير مرة أخرى تلقائيًا دون أي إشراف من Meta. بمعنى آخر، بعد تقريرين، ظلت الصورة الصريحة التي تم إنشاؤها بواسطة الذكاء الاصطناعي موجودة على Instagram.

ثم استأنف المستخدم أخيرًا المجلس. تصرفت الشركة في تلك المرحلة فقط لإزالة المحتوى المرفوض وإزالة الصورة لانتهاكها معايير مجتمعها بشأن التنمر والتحرش.

وتتعلق الحالة الثانية بفيسبوك، حيث نشر أحد المستخدمين صورة صريحة تم إنشاؤها بواسطة الذكاء الاصطناعي تشبه شخصية عامة أمريكية في مجموعة تركز على إبداعات الذكاء الاصطناعي. في هذه الحالة، قامت الشبكة الاجتماعية بإزالة الصورة كما نشرها مستخدم آخر في وقت سابق، وقد أضافتها Meta إلى بنك خدمة مطابقة الوسائط ضمن فئة “فوتوشوب أو رسومات جنسية مهينة”.

عندما سأل موقع TechCrunch عن سبب اختيار مجلس الإدارة لحالة نجحت فيها الشركة في إزالة صورة صريحة تم إنشاؤها بواسطة الذكاء الاصطناعي، قال مجلس الإدارة إنه يختار الحالات “التي ترمز إلى مشكلات أوسع عبر منصات Meta”. وأضافت أن هذه الحالات تساعد المجلس الاستشاري على النظر في الفعالية العالمية لسياسة وعمليات Meta في مختلف المواضيع.

“نحن نعلم أن Meta أسرع وأكثر فعالية في الإشراف على المحتوى في بعض الأسواق واللغات أكثر من غيرها. وقالت هيلي ثورنينج شميدت، الرئيسة المشاركة لمجلس الرقابة، في بيان: “من خلال أخذ حالة واحدة من الولايات المتحدة وواحدة من الهند، نريد أن ننظر في ما إذا كانت ميتا تحمي جميع النساء على مستوى العالم بطريقة عادلة”.

“يعتقد مجلس الإدارة أنه من المهم استكشاف ما إذا كانت سياسات Meta وممارسات التنفيذ فعالة في معالجة هذه المشكلة.”

مشكلة الإباحية المزيفة العميقة والعنف القائم على النوع الاجتماعي عبر الإنترنت

توسعت بعض أدوات الذكاء الاصطناعي التوليدية – وليس كلها – في السنوات الأخيرة لتسمح للمستخدمين بإنشاء مواد إباحية. كما ذكرت TechCrunch سابقًا، تحاول مجموعات مثل Unstable Diffusion تحقيق الدخل من المواد الإباحية التي تعتمد على الذكاء الاصطناعي باستخدام خطوط أخلاقية غامضة وتحيز في البيانات.

وفي مناطق مثل الهند، أصبحت التزييف العميق أيضًا مسألة مثيرة للقلق. في العام الماضي، أشار تقرير صادر عن هيئة الإذاعة البريطانية (BBC) إلى أن عدد مقاطع الفيديو المزيفة للممثلات الهنديات قد ارتفع في الآونة الأخيرة. تشير البيانات إلى أن النساء أكثر عرضة لمقاطع الفيديو المزيفة.

وفي وقت سابق من هذا العام، أعرب نائب وزير تكنولوجيا المعلومات راجيف شاندراسيخار عن عدم رضاه عن نهج شركات التكنولوجيا في مكافحة التزييف العميق.

وقال شاندراسيخار في مؤتمر صحفي في ذلك الوقت: “إذا اعتقدت إحدى المنصات أنها تستطيع الهروب دون إزالة مقاطع الفيديو المزيفة، أو مجرد الحفاظ على نهج غير رسمي تجاهها، فلدينا القدرة على حماية مواطنينا من خلال حظر مثل هذه المنصات”.

في حين أن الهند فكرت في إدخال قواعد محددة تتعلق بالتزييف العميق في القانون، إلا أنه لم يتم تحديد أي شيء بعد.

في حين أن هناك أحكامًا في البلاد للإبلاغ عن العنف القائم على النوع الاجتماعي عبر الإنترنت بموجب القانون، يشير الخبراء إلى أن العملية قد تكون مملة، وغالبًا ما يكون هناك القليل من الدعم. في دراسة نشرت العام الماضي، أشارت مجموعة المناصرة الهندية “تكنولوجيا المعلومات من أجل التغيير” إلى أن المحاكم في الهند بحاجة إلى عمليات قوية لمعالجة العنف القائم على النوع الاجتماعي عبر الإنترنت وعدم التقليل من شأن هذه القضايا.

لا يوجد حاليًا سوى عدد قليل من القوانين على مستوى العالم التي تتناول إنتاج وتوزيع المواد الإباحية التي يتم إنشاؤها باستخدام أدوات الذكاء الاصطناعي. لدى عدد قليل من الولايات الأمريكية قوانين ضد التزييف العميق. قدمت المملكة المتحدة قانونًا هذا الأسبوع لتجريم إنشاء صور جنسية صريحة مدعومة بالذكاء الاصطناعي.

استجابة ميتا والخطوات التالية

ردًا على قضايا مجلس الرقابة، قالت ميتا إنها قامت بإزالة كلا الجزأين من المحتوى. ومع ذلك، لم تتناول شركة التواصل الاجتماعي حقيقة أنها فشلت في إزالة المحتوى على Instagram بعد التقارير الأولية من قبل المستخدمين أو مدة بقاء المحتوى على النظام الأساسي.

قالت ميتا إنها تستخدم مزيجًا من الذكاء الاصطناعي والمراجعة البشرية لاكتشاف المحتوى الموحي جنسيًا. قال عملاق وسائل التواصل الاجتماعي إنه لا يوصي بهذا النوع من المحتوى في أماكن مثل توصيات Instagram Explore أو Reels.

سعى مجلس الرقابة إلى الحصول على تعليقات عامة – بموعد نهائي هو 30 أبريل – بشأن هذه المسألة التي تعالج الأضرار الناجمة عن الإباحية المزيفة العميقة، والمعلومات السياقية حول انتشار مثل هذا المحتوى في مناطق مثل الولايات المتحدة والهند، والمزالق المحتملة لنهج ميتا في الكشف صور واضحة تم إنشاؤها بواسطة الذكاء الاصطناعي.

سيقوم المجلس بالتحقيق في الحالات والتعليقات العامة ونشر القرار على الموقع في غضون أسابيع قليلة.

تشير هذه الحالات إلى أن المنصات الكبيرة لا تزال تتصارع مع عمليات الإشراف القديمة بينما مكنت الأدوات المدعومة بالذكاء الاصطناعي المستخدمين من إنشاء أنواع مختلفة من المحتوى وتوزيعها بسرعة وسهولة. تقوم شركات مثل Meta بتجربة الأدوات التي تستخدم الذكاء الاصطناعي لإنشاء المحتوى، مع بذل بعض الجهود لاكتشاف مثل هذه الصور. ومع ذلك، يبحث الجناة باستمرار عن طرق للهروب من أنظمة الكشف هذه ونشر محتوى مثير للمشاكل على منصات التواصل الاجتماعي.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى