تقنية

تعمل Meta على توسيع سياساتها لتشمل المزيد من التزييف العميق وإضافة سياق إلى الوسائط التي يتم التلاعب بها “عالية المخاطر”.


أعلنت شركة Meta عن تغييرات في قواعدها المتعلقة بالمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي والوسائط التي يتم التلاعب بها، وذلك بعد انتقادات من مجلس الرقابة التابع لها. وقالت إنها ابتداءً من الشهر المقبل، ستصنف نطاقًا أوسع من هذا المحتوى، بما في ذلك من خلال تطبيق شارة “Made with AI” على التزييف العميق (المعروف أيضًا باسم الوسائط الاصطناعية). قد يتم عرض معلومات سياقية إضافية عندما يتم التلاعب بالمحتوى بطرق أخرى تشكل خطرًا كبيرًا لخداع الجمهور بشأن قضية مهمة.

يمكن أن تؤدي هذه الخطوة إلى قيام عملاق الشبكات الاجتماعية بوضع علامات على المزيد من أجزاء المحتوى التي من المحتمل أن تكون مضللة – وهي خطوة قد تكون مهمة في عام يشهد العديد من الانتخابات التي تجري حول العالم. ومع ذلك، بالنسبة للتزييف العميق، ستقوم Meta بتطبيق التصنيفات فقط حيث يحتوي المحتوى المعني على “مؤشرات صور الذكاء الاصطناعي القياسية الصناعية”؛ أو حيث كشف القائم بالتحميل عن محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي.

من المفترض أن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي والذي يقع خارج تلك الحدود سوف يفلت من دون تسمية.

من المرجح أيضًا أن يؤدي تغيير السياسة إلى بقاء المزيد من المحتوى الناتج عن الذكاء الاصطناعي والوسائط التي يتم التلاعب بها على منصات ميتا – نظرًا لأنها تتحول لصالح نهج يركز على “توفير الشفافية والسياق الإضافي”، على حد تعبيرها، باعتباره “الطريقة الأفضل لتحقيق ذلك”. معالجة هذا المحتوى” (أي بدلاً من إزالة الوسائط التي تم التلاعب بها، نظراً للمخاطر المرتبطة بحرية التعبير). لذلك، بالنسبة للوسائط التي ينشئها الذكاء الاصطناعي أو التي يتم التلاعب بها على منصات Meta مثل Facebook وInstagram، يبدو أن المزيد من التصنيفات وعدد أقل من عمليات الإزالة ستكون بمثابة قواعد اللعبة المنقحة بحلول الصيف.

قالت Meta إنها ستتوقف عن إزالة المحتوى فقط على أساس سياسة الفيديو التي تم التلاعب بها حاليًا في يوليو، مضيفة في منشور مدونة نُشر يوم الجمعة أن: “هذا الجدول الزمني يمنح الأشخاص الوقت لفهم عملية الكشف عن الذات قبل أن نتوقف عن إزالة المجموعة الفرعية الأصغر من الإعلام المتلاعب به.”

قد يكون الهدف من تغيير النهج هو الاستجابة للمطالب القانونية المتزايدة على Meta حول الإشراف على المحتوى والمخاطر النظامية، مثل قانون الخدمات الرقمية التابع للاتحاد الأوروبي. منذ أغسطس الماضي، طبق قانون الاتحاد الأوروبي مجموعة من القواعد على شبكتي التواصل الاجتماعي الرئيسيتين، والتي تتطلب من ميتا السير على خط رفيع بين تطهير المحتوى غير القانوني، وتخفيف المخاطر النظامية، وحماية حرية التعبير. ويمارس الاتحاد أيضًا ضغوطًا إضافية على المنصات قبل انتخابات البرلمان الأوروبي في يونيو المقبل، بما في ذلك حث عمالقة التكنولوجيا على وضع علامة مائية على الصور المزيفة العميقة حيثما كان ذلك ممكنًا من الناحية الفنية.

من المحتمل أيضًا أن تكون الانتخابات الرئاسية الأمريكية المقبلة في نوفمبر في ذهن ميتا، حيث أن الحدث السياسي البارز يزيد من المخاطر فيما يتعلق بمخاطر المحتوى المضلل على الساحة المحلية.

انتقادات مجلس الرقابة

يقوم المجلس الاستشاري لشركة Meta، الذي يموله عملاق التكنولوجيا ولكنه يسمح له بالعمل على مسافة بعيدة، بمراجعة نسبة صغيرة من قرارات الإشراف على المحتوى، ولكن يمكنه أيضًا تقديم توصيات سياسية. شركة Meta ليست ملزمة بقبول اقتراحات مجلس الإدارة ولكنها في هذه الحالة وافقت على تعديل نهجها.

وفي منشور بالمدونة نُشر يوم الجمعة، المنسوب إلى مونيكا بيكرت، نائب الرئيس لسياسة المحتوى في Meta، قالت الشركة إنها تعدل سياساتها بشأن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي والوسائط التي يتم التلاعب بها بناءً على تعليقات مجلس الإدارة. وكتبت: “نحن نتفق مع حجة مجلس الرقابة بأن نهجنا الحالي ضيق للغاية لأنه يغطي فقط مقاطع الفيديو التي تم إنشاؤها أو تعديلها بواسطة الذكاء الاصطناعي لجعل الشخص يبدو وكأنه يقول شيئًا لم يقله”.

في شهر فبراير الماضي، حث مجلس الرقابة شركة ميتا على إعادة التفكير في نهجها تجاه المحتوى الناتج عن الذكاء الاصطناعي بعد ذلك إصدار قرار مراجعة للإشراف على المحتوى فيما يتعلق بمقطع فيديو تمت معالجته للرئيس بايدن والذي تم تحريره ليتضمن دافعًا جنسيًا للقبلة الأفلاطونية التي أعطاها لحفيدته.

بينما ال وافق مجلس الإدارة على قرار ميتا بترك المحتوى المحدد، وهاجموا سياستها بشأن الوسائط التي تم التلاعب بها باعتبارها “غير متماسكة” – مشيرين، على سبيل المثال، إلى أنها فقط ينطبق على الفيديو الذي تم إنشاؤه من خلال الذكاء الاصطناعي، مما يسمح للمحتوى المزيف الآخر (مثل الفيديو أو الصوت الذي تم التلاعب به بشكل أساسي) بالإفلات من العقاب.

يبدو أن ميتا قد أخذت التعليقات النقدية على عاتقها.

وكتب بيكرت: “في السنوات الأربع الماضية، وخاصة في العام الماضي، طور الناس أنواعًا أخرى من المحتوى الواقعي الذي تم إنشاؤه بواسطة الذكاء الاصطناعي مثل الصوت والصور، وهذه التكنولوجيا تتطور بسرعة”. “وكما أشار مجلس الإدارة، من المهم بنفس القدر معالجة التلاعب الذي يظهر شخصًا يفعل شيئًا لم يفعله.

“جادل مجلس الإدارة أيضًا بأننا نخاطر دون داعٍ بتقييد حرية التعبير عندما نزيل الوسائط التي تم التلاعب بها والتي لا تنتهك معايير مجتمعنا. وأوصت باتباع نهج “أقل تقييدًا” في التعامل مع الوسائط التي يتم التلاعب بها مثل التصنيفات ذات السياق.

في وقت سابق من هذا العام، أعلنت شركة ميتا أنها تعمل مع آخرين في الصناعة على تطوير معايير تقنية مشتركة لتحديد محتوى الذكاء الاصطناعي، بما في ذلك الفيديو والصوت. إنها تعتمد على هذا الجهد لتوسيع نطاق وضع العلامات على الوسائط الاصطناعية الآن.

قال بيكرت: “ستعتمد ملصقاتنا “المصنوعة باستخدام الذكاء الاصطناعي” على مقاطع الفيديو والصوت والصور التي يتم إنشاؤها بواسطة الذكاء الاصطناعي على اكتشافنا للإشارات المشتركة في الصناعة لصور الذكاء الاصطناعي أو الأشخاص الذين يكشفون ذاتيًا عن قيامهم بتحميل محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي”. مع الإشارة إلى أن الشركة تطبق بالفعل تصنيفات “Imagined with AI” على الصور الواقعية التي تم إنشاؤها باستخدام ميزة Meta AI الخاصة بها.

ستغطي السياسة الموسعة “نطاقًا أوسع من المحتوى بالإضافة إلى المحتوى الذي تم التلاعب به والذي أوصى مجلس الرقابة بوضع العلامات عليه”، وفقًا لبيكرت.

وكتبت: “إذا قررنا أن الصور أو مقاطع الفيديو أو الصوت التي تم إنشاؤها أو تعديلها رقميًا تشكل خطرًا كبيرًا بشكل خاص لخداع الجمهور ماديًا بشأن مسألة ذات أهمية، فقد نضيف علامة أكثر وضوحًا حتى يكون لدى الأشخاص مزيد من المعلومات والسياق”. “يمنح هذا النهج الشامل الأشخاص مزيدًا من المعلومات حول المحتوى حتى يتمكنوا من تقييمه بشكل أفضل وبالتالي سيكون لديهم سياق إذا رأوا نفس المحتوى في مكان آخر.”

قالت Meta إنها لن تزيل المحتوى الذي تم التلاعب به – سواء كان يعتمد على الذكاء الاصطناعي أو تم التلاعب به بطريقة أخرى – إلا إذا ينتهك سياسات أخرى (مثل التدخل في الناخبين، أو التنمر والمضايقة، أو العنف والتحريض، أو مشكلات معايير المجتمع الأخرى). وبدلاً من ذلك، كما هو مذكور أعلاه، قد تضيف “تسميات وسياقًا إعلاميًا” في سيناريوهات معينة ذات اهتمام عام كبير.

يسلط منشور مدونة Meta الضوء على شبكة تضم ما يقرب من 100 مدقق حقائق مستقل تقول إنها تعمل معها للمساعدة في تحديد المخاطر المتعلقة بالمحتوى الذي تم التلاعب به.

ستستمر هذه الكيانات الخارجية في مراجعة المحتوى الخاطئ والمضلل الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، وفقًا لـ Meta. عندما يصنفون المحتوى على أنه “خطأ أو تم تغييره”، قالت Meta إنها ستستجيب من خلال تطبيق تغييرات الخوارزمية التي تقلل من وصول المحتوى – مما يعني أن الأشياء ستظهر في مستوى أقل في الخلاصات بحيث يراها عدد أقل من الأشخاص، بالإضافة إلى وضع Meta علامة تراكب تحتوي على معلومات إضافية لـ تلك مقل العيون التي تهبط عليها.

يبدو أن مدققي الحقائق التابعين لجهات خارجية سيواجهون عبء عمل متزايدًا مع انتشار المحتوى الاصطناعي، مدفوعًا بالطفرة في أدوات الذكاء الاصطناعي التوليدية. ولأن المزيد من هذه الأشياء يبدو أنها ستبقى على منصات Meta نتيجة لهذا التحول في السياسة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى