تقنية

كان من الممكن منع كارثة تايلور سويفت العميقة بشكل محبط


أنت تعلم أنك أخطأت عندما أغضبت في نفس الوقت البيت الأبيض، وشخصية العام في مجلة TIME، وقاعدة المعجبين الأكثر عنفًا في الثقافة الشعبية. هذا ما حدث الأسبوع الماضي لـ X، المنصة المملوكة لـ Elon Musk والتي كانت تسمى سابقًا Twitter، عندما انتشرت الصور الإباحية العميقة المزيفة بواسطة الذكاء الاصطناعي لتايلور سويفت.

واحدة من أكثر منشورات التزييف العميق الصريحة وغير التوافقية انتشارًا تمت مشاهدتها أكثر من 45 مليون مرة، مع مئات الآلاف من الإعجابات. وهذا لا يأخذ في الاعتبار جميع الحسابات التي أعادت مشاركة الصور في منشورات منفصلة، ​​فبمجرد تداول الصورة على نطاق واسع، يكون من المستحيل إزالتها.

يفتقر X إلى البنية التحتية اللازمة لتحديد المحتوى المسيء بسرعة وعلى نطاق واسع. حتى في أيام تويتر، كان من الصعب علاج هذه المشكلة، لكنها أصبحت أسوأ بكثير منذ أن قام ماسك بتدمير الكثير من موظفي تويتر، بما في ذلك غالبية فرق الثقة والسلامة. لذلك، أخذت قاعدة المعجبين الضخمة والمتحمسة لتايلور سويفت الأمور على عاتقها، مما أدى إلى تدفق نتائج البحث لاستعلامات مثل “taylor Swift ai” و”taylor Swift Deepfake” لتجعل من الصعب على المستخدمين العثور على الصور المسيئة. وبينما كان السكرتير الصحفي للبيت الأبيض يدعو الكونجرس إلى القيام بشيء ما، قام X ببساطة بحظر مصطلح البحث “تايلور سويفت” لبضعة أيام. عندما يبحث المستخدمون عن اسم الموسيقي، سيرون إشعارًا بحدوث خطأ.

أصبح هذا الفشل في الإشراف على المحتوى قصة إخبارية وطنية، نظرًا لأن تايلور سويفت هي تايلور سويفت. لكن إذا لم تتمكن منصات التواصل الاجتماعي من حماية واحدة من أشهر النساء في العالم، فمن يمكنها حمايته؟

“إذا حدث لك ما حدث لتايلور سويفت، كما حدث للعديد من الأشخاص، فمن المحتمل ألا تحصل على نفس القدر من الدعم بناءً على النفوذ، مما يعني أنك لن تتمكن من الوصول إلى هذه الأشياء حقًا قالت الدكتورة كارولينا آري، زميلة مركز المواطنين الرقميين بجامعة نورثمبريا في المملكة المتحدة، لـ TechCrunch: “مجتمعات الرعاية مهمة”. “ومجتمعات الرعاية هذه هي ما يضطر معظم المستخدمين إلى اللجوء إليه في هذه المواقف، مما يوضح لك فشل الإشراف على المحتوى.”

إن حظر مصطلح البحث “تايلور سويفت” يشبه وضع قطعة من الشريط اللاصق على أنبوب منفجر. هناك العديد من الحلول الواضحة، مثل الطريقة التي يبحث بها مستخدمو TikTok عن “seggs” بدلاً من الجنس. كانت كتلة البحث شيئًا يمكن لـ X تنفيذه لجعل الأمر يبدو وكأنهم يفعلون شيئًا ما، ولكنه لا يمنع الأشخاص من مجرد البحث عن “t Swift” بدلاً من ذلك. ووصف مايك ماسنيك، مؤسس Copia Institute ومؤسس Techdirt، هذا الجهد بأنه “نسخة مطرقة ثقيلة من الثقة والأمان”.

قال آري: “المنصات سيئة عندما يتعلق الأمر بمنح النساء والأشخاص غير الثنائيين والأشخاص المثليين القدرة على السيطرة على أجسادهم، لذا فهم يكررون أنظمة سوء المعاملة والسلطة الأبوية غير المتصلة بالإنترنت”. “إذا كانت أنظمة الإشراف لديك غير قادرة على الاستجابة للأزمات، أو إذا كانت أنظمة الإشراف الخاصة بك غير قادرة على الاستجابة لاحتياجات المستخدمين عندما يبلغون عن وجود خطأ ما، فلدينا مشكلة.”

إذًا، ما الذي كان يجب على X فعله لمنع فشل تايلور سويفت على أي حال؟

تطرح آري هذه الأسئلة كجزء من بحثها، وتقترح أن المنصات الاجتماعية تحتاج إلى إصلاح شامل لكيفية تعاملها مع الإشراف على المحتوى. وقد أجرت مؤخرًا سلسلة من مناقشات المائدة المستديرة مع 45 من مستخدمي الإنترنت من جميع أنحاء العالم المتأثرين بالرقابة وإساءة الاستخدام لإصدار توصيات للمنصات حول كيفية تفعيل التغيير.

إحدى التوصيات هي أن تكون منصات التواصل الاجتماعي أكثر شفافية مع المستخدمين الفرديين بشأن القرارات المتعلقة بحساباتهم أو تقاريرهم حول الحسابات الأخرى.

وقال آري: “ليس لديك إمكانية الوصول إلى سجل الحالة، على الرغم من أن المنصات لديها إمكانية الوصول إلى تلك المواد – إلا أنها لا تريد نشرها للعامة”. “أعتقد أنه عندما يتعلق الأمر بالإساءة، يحتاج الأشخاص إلى استجابة أكثر تخصيصًا وسياقًا وسرعة تتضمن، إن لم تكن المساعدة وجهًا لوجه، على الأقل التواصل المباشر.”

أعلنت X هذا الأسبوع أنها ستقوم بتعيين 100 مشرف محتوى للعمل في مركز “الثقة والأمان” الجديد في أوستن، تكساس. ولكن ضمن نطاق ماسك، لم تشكل المنصة سابقة قوية لحماية المستخدمين المهمشين من سوء الاستخدام. قد يكون من الصعب أيضًا قبول ” ماسك ” على محمل الجد، نظرًا لأن هذا القطب يتمتع بسجل طويل من الفشل في الوفاء بوعوده. عندما اشترى موقع تويتر لأول مرة، أعلن ماسك أنه سيشكل مجلسًا للإشراف على المحتوى قبل اتخاذ قرارات رئيسية. هذا لم يحدث.

في حالة التزييف العميق الناتج عن الذكاء الاصطناعي، لا يقع العبء على منصات التواصل الاجتماعي فحسب. إنه أيضًا على عاتق الشركات التي تصنع منتجات الذكاء الاصطناعي التوليدية التي تواجه المستهلك.

وفقًا لتحقيق أجرته 404 Media، جاءت الصور المسيئة لـ Swift من مجموعة Telegram المخصصة لإنشاء صور مزيفة صريحة وغير موافقة. غالبًا ما يستخدم المستخدمون في المجموعة Microsoft Designer، الذي يستمد من DALL-E 3 الخاص بـ Open AI لإنشاء صور بناءً على المطالبات المدخلة. وفي ثغرة عالجتها مايكروسوفت منذ ذلك الحين، أصبح بإمكان المستخدمين إنشاء صور للمشاهير عن طريق كتابة مطالبات مثل “تايلور ‘مغني’ سويفت” أو “جينيفر ‘الممثل’ أنيستون”.

كتب شين جونز، وهو قائد رئيسي لهندسة البرمجيات في مايكروسوفت، خطابًا إلى المدعي العام لولاية واشنطن يفيد بأنه وجد ثغرات أمنية في DALL-E 3 في ديسمبر، مما جعل من الممكن “تجاوز بعض حواجز الحماية المصممة لمنع النموذج من إنشاء وتوزيع الصور الضارة.”

وقام جونز بتنبيه مايكروسوفت وOpenAI إلى نقاط الضعف، ولكن بعد أسبوعين، لم يتلق أي إشارة إلى أن المشكلات قيد المعالجة. لذلك، نشر خطابًا مفتوحًا على LinkedIn لحث OpenAI على تعليق إتاحة DALL-E 3. وقد نبه جونز شركة Microsoft إلى رسالته، ولكن طُلب منه بسرعة حذفها.

وكتب جونز في رسالته إلى المدعي العام للولاية: “نحن بحاجة إلى مساءلة الشركات عن سلامة منتجاتها ومسؤوليتها عن الكشف عن المخاطر المعروفة للجمهور”. “لا ينبغي تخويف الموظفين المعنيين، مثلي، لكي يظلوا صامتين”.

نظرًا لأن الشركات الأكثر نفوذاً في العالم تراهن بشكل كبير على الذكاء الاصطناعي، تحتاج المنصات إلى اتخاذ نهج استباقي لتنظيم المحتوى المسيء – ولكن حتى في عصر لم يكن فيه صنع التزييف العميق للمشاهير أمرًا سهلاً، كان السلوك المخالف يتهرب بسهولة من الاعتدال.

قال آري: “هذا يوضح لك حقًا أن المنصات غير موثوقة”. “يجب على المجتمعات المهمشة أن تثق بمتابعيها وزملائها المستخدمين أكثر من الأشخاص المسؤولين تقنيًا عن سلامتنا عبر الإنترنت.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى