تقنية

Meta لتوسيع تصنيف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي في عام مليء بالانتخابات


تعمل شركة Meta على توسيع تصنيف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي على منصات الوسائط الاجتماعية الخاصة بها، Facebook وInstagram وThreads، لتغطية بعض الصور الاصطناعية التي تم إنشاؤها باستخدام أدوات الذكاء الاصطناعي التوليدية الخاصة بالمنافسين – على الأقل حيث يستخدم المنافسون ما تصفه بأنه “معيار الصناعة” المؤشرات” التي تشير إلى أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي والذي يستطيع Meta اكتشافه.

ويعني هذا التطوير أن عملاق وسائل التواصل الاجتماعي يتوقع أن يقوم بتسمية المزيد من الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي يتم تداولها على منصاته من الآن فصاعدا. لكنها أيضًا لا تضع أرقامًا حول أي من هذه الأشياء – أي مقدار المحتوى الاصطناعي مقابل المحتوى الأصلي الذي يتم دفعه بشكل روتيني إلى المستخدمين – لذا ما مدى أهمية هذه الخطوة في المعركة ضد التضليل والمعلومات الخاطئة التي يغذيها الذكاء الاصطناعي (في عام ضخم للانتخابات على مستوى العالم) غير واضح.

تقول Meta إنها تكتشف بالفعل وتصنف “الصور الواقعية” التي تم إنشاؤها باستخدام أداة الذكاء الاصطناعي التوليدية الخاصة بها “Imagine with Meta”، والتي تم إطلاقها في ديسمبر الماضي. ولكن حتى الآن، لم يتم تصنيف الصور الاصطناعية التي تم إنشاؤها باستخدام أدوات الشركات الأخرى. إذن هذه هي الخطوة (الصغيرة) التي تعلن عنها اليوم.

“[W]”لقد عملنا مع شركاء الصناعة للتوافق مع المعايير الفنية المشتركة التي تشير إلى أنه تم إنشاء جزء من المحتوى باستخدام الذكاء الاصطناعي،” كتب رئيس ميتا، نيك كليج، في منشور بالمدونة أعلن فيه عن توسيع نطاق وضع العلامات. “إن القدرة على اكتشاف هذه الإشارات ستمكننا من تصنيف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي ينشرها المستخدمون على Facebook وInstagram وThreads.”

وفقًا لكليج، ستقوم Meta بطرح العلامات الموسعة “في الأشهر المقبلة”؛ وتطبيق التصنيفات بـ “جميع اللغات التي يدعمها كل تطبيق”.

ولم يتمكن المتحدث باسم ميتا من تقديم جدول زمني أكثر تحديدًا؛ ولا أي تفاصيل حول أسواق الطلبات التي ستحصل على التصنيفات الإضافية عندما نطلب المزيد. لكن منشور كليج يشير إلى أن الطرح سيكون تدريجيًا – “خلال العام المقبل” – ويمكن أن يشهد تركيز ميتا على التقويمات الانتخابية حول العالم لتوجيه القرارات حول متى وأين يتم إطلاق العلامات الموسعة في أسواق مختلفة.

وكتب: “إننا نتبع هذا النهج خلال العام المقبل، حيث سيتم إجراء عدد من الانتخابات المهمة في جميع أنحاء العالم”. “خلال هذا الوقت، نتوقع أن نتعلم المزيد حول كيفية إنشاء الأشخاص لمحتوى الذكاء الاصطناعي ومشاركته، ونوع الشفافية التي يجدها الأشخاص الأكثر قيمة، وكيف تتطور هذه التقنيات. إن ما نتعلمه سوف يرشدنا إلى أفضل ممارسات الصناعة ونهجنا الخاص للمضي قدمًا.

يعتمد نهج Meta في تصنيف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي على الكشف المدعوم من كل من العلامات المرئية التي يتم تطبيقها على الصور الاصطناعية من خلال تقنية الذكاء الاصطناعي التوليدية و”العلامات المائية غير المرئية” والبيانات الوصفية التي تدمجها الأداة أيضًا مع صور الملفات. إنها نفس أنواع الإشارات، المضمنة في أدوات إنشاء صور الذكاء الاصطناعي الخاصة بالمنافسين، والتي ستبحث عنها تقنية الكشف الخاصة بشركة Meta، وفقًا لكليج – الذي أشار إلى أنها كانت تعمل مع شركات ذكاء اصطناعي أخرى، عبر منتديات مثل الشراكة في الذكاء الاصطناعي، بهدف لتطوير معايير مشتركة وأفضل الممارسات لتحديد الذكاء الاصطناعي التوليدي.

ولا يوضح منشور مدونته مدى جهود الآخرين لتحقيق هذه الغاية. لكن كليج يشير إلى أن ميتا – في الأشهر الـ 12 المقبلة – ستكون قادرة على اكتشاف الصور المولدة بالذكاء الاصطناعي من الأدوات التي تصنعها جوجل، وOpenAI، وMicrosoft، وAdobe، وMidjourney، وShutterstock، بالإضافة إلى أدوات صور الذكاء الاصطناعي الخاصة بها.

ماذا عن الفيديو والصوت الناتج عن الذكاء الاصطناعي؟

عندما يتعلق الأمر بمقاطع الفيديو والصوت التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، يشير كليج إلى أنه لا يزال من الصعب للغاية اكتشاف هذا النوع من المنتجات المزيفة بشكل عام – لأنه لم يتم بعد اعتماد العلامات والعلامات المائية على نطاق كافٍ لأدوات الكشف للقيام بعمل جيد. بالإضافة إلى ذلك، يمكن تجريد هذه الإشارات، من خلال التحرير والمزيد من التلاعب بالوسائط.

“[I]ليس من الممكن حتى الآن تحديد كل المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، وهناك طرق يمكن للأشخاص من خلالها إزالة العلامات غير المرئية. وكتب: “لذلك نحن نتبع مجموعة من الخيارات”. “نحن نعمل بجد لتطوير أدوات التصنيف التي يمكن أن تساعدنا في اكتشاف المحتوى الذي ينشئه الذكاء الاصطناعي تلقائيًا، حتى لو كان المحتوى يفتقر إلى علامات غير مرئية. وفي الوقت نفسه، نبحث عن طرق تجعل إزالة العلامات المائية غير المرئية أو تغييرها أكثر صعوبة.

“على سبيل المثال، قام مختبر أبحاث الذكاء الاصطناعي التابع لشركة Meta FAIR مؤخرًا بمشاركة بحث حول تقنية العلامات المائية غير المرئية التي نقوم بتطويرها والتي تسمى Stable Signature. يؤدي هذا إلى دمج آلية العلامة المائية مباشرة في عملية إنشاء الصور لبعض أنواع مولدات الصور، والتي يمكن أن تكون ذات قيمة للنماذج مفتوحة المصدر بحيث لا يمكن تعطيل العلامة المائية.

نظرًا للفجوة بين ما هو ممكن تقنيًا في مجال توليد الذكاء الاصطناعي مقابل الكشف، تعمل Meta على تغيير سياستها لمطالبة المستخدمين الذين ينشرون مقاطع فيديو “واقعية” تم إنشاؤها بواسطة الذكاء الاصطناعي أو صوتًا “يبدو واقعيًا” بإبلاغهم بأن المحتوى اصطناعي – كما يقول كليج. إنها تحتفظ بالحق في تصنيف المحتوى إذا رأت أنه “يحمل خطرًا كبيرًا بشكل خاص لخداع الجمهور ماديًا بشأن مسألة ذات أهمية”.

إذا فشل المستخدم في إجراء هذا الكشف اليدوي، فقد يواجه عقوبات – بموجب معايير مجتمع Meta الحالية. (لذلك تعليق الحساب والحظر وما إلى ذلك)

“تنطبق معايير مجتمعنا على الجميع، في جميع أنحاء العالم وعلى جميع أنواع المحتوى، بما في ذلك المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي،” أخبرنا المتحدث باسم Meta عندما سئل عن نوع العقوبات التي قد يواجهها المستخدمون الذين يفشلون في الكشف عن المعلومات.

في حين أن Meta تركز بشدة على المخاطر المحيطة بالتزييف الناتج عن الذكاء الاصطناعي، فمن الجدير بالذكر أن التلاعب بالوسائط الرقمية ليس بالأمر الجديد وأن تضليل الناس على نطاق واسع لا يتطلب أدوات ذكاء اصطناعي توليدية رائعة. إن الوصول إلى حساب على وسائل التواصل الاجتماعي والمزيد من مهارات تحرير الوسائط الأساسية هو كل ما يتطلبه الأمر لإنشاء ملف مزيف ينتشر بسرعة.

على هذه الجبهة، حث القرار الأخير الذي اتخذه مجلس الرقابة، وهي هيئة مراجعة المحتوى التي أنشأتها شركة ميتا – والتي نظرت في قرارها بعدم إزالة مقطع فيديو محرر للرئيس بايدن مع حفيدته والذي تم التلاعب به للإشارة بشكل خاطئ إلى لمس غير لائق – التكنولوجيا العملاقة لإعادة كتابة ما وصفته بالسياسات “غير المتماسكة” عندما يتعلق الأمر بمقاطع الفيديو المزيفة. وقد أشار مجلس الإدارة على وجه التحديد إلى تركيز Meta على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي في هذا السياق.

وكتب مايكل ماكونيل، الرئيس المشارك لمجلس الرقابة: “في الوضع الحالي، هذه السياسة غير منطقية”. “إنه يحظر مقاطع الفيديو المعدلة التي تظهر أشخاصًا يقولون أشياء لا يقولونها، لكنه لا يحظر المنشورات التي تصور شخصًا يفعل شيئًا لم يفعله. إنه ينطبق فقط على الفيديو الذي تم إنشاؤه من خلال الذكاء الاصطناعي، لكنه يسمح للمحتوى المزيف الآخر بالإفلات من العقاب.

وعندما سُئل عما إذا كانت شركة Meta، في ضوء مراجعة مجلس الإدارة، تتطلع إلى توسيع سياساتها لضمان عدم تجاهل مخاطر التلاعب بالمحتوى غير المتعلق بالذكاء الاصطناعي، رفض المتحدث باسمها الإجابة، قائلاً فقط: “ستتم مشاركة ردنا على هذا القرار”. في مركز الشفافية الخاص بنا خلال فترة 60 يومًا.”

LLMs كأداة للإشراف على المحتوى

يناقش منشور مدونة Clegg أيضًا الاستخدام (“المحدود” حتى الآن) للذكاء الاصطناعي التوليدي بواسطة Meta كأداة لمساعدتها على فرض سياساتها الخاصة – وإمكانية قيام GenAI بتحمل المزيد من الركود هنا، حيث يقترح رئيس Meta ذلك قد تلجأ إلى نماذج اللغات الكبيرة (LLMs) لدعم جهود التنفيذ خلال لحظات “المخاطر المتزايدة”، مثل الانتخابات.

“بينما نستخدم تكنولوجيا الذكاء الاصطناعي للمساعدة في فرض سياساتنا، فإن استخدامنا لأدوات الذكاء الاصطناعي التوليدية لهذا الغرض كان محدودًا. لكننا متفائلون بأن الذكاء الاصطناعي التوليدي يمكن أن يساعدنا في إزالة المحتوى الضار بشكل أسرع وأكثر دقة. وكتب: “قد يكون مفيدًا أيضًا في تطبيق سياساتنا خلال لحظات المخاطر المتزايدة، مثل الانتخابات”.

“لقد بدأنا باختبار نماذج اللغات الكبيرة (LLMs) من خلال تدريبهم على معايير مجتمعنا للمساعدة في تحديد ما إذا كان جزء من المحتوى ينتهك سياساتنا. تشير هذه الاختبارات الأولية إلى أن طلاب LLM يمكن أن يقدموا أداءً أفضل من نماذج التعلم الآلي الحالية. نحن نستخدم أيضًا LLMs لإزالة المحتوى من قوائم انتظار المراجعة في ظروف معينة عندما نكون واثقين تمامًا من أنه لا ينتهك سياساتنا. وهذا يحرر قدرة المراجعين لدينا على التركيز على المحتوى الذي من المرجح أن ينتهك قواعدنا.

لذا، لدينا الآن شركة Meta تقوم بتجربة الذكاء الاصطناعي التوليدي كمكمل لجهودها القياسية في الإشراف على المحتوى المدعوم بالذكاء الاصطناعي في محاولة لتقليل حجم المحتوى السام الذي يتم ضخه في مقل عيون وأدمغة مراجعي المحتوى البشري المرهقين، مع كل مخاطر الصدمة الذي يستلزم.

لم يتمكن الذكاء الاصطناعي وحده من حل مشكلة الإشراف على المحتوى في Meta – ويبدو أن ما إذا كان بإمكان الذكاء الاصطناعي بالإضافة إلى GenAI القيام بذلك أمر مشكوك فيه. ولكنه قد يساعد عملاق التكنولوجيا على استخلاص كفاءات أكبر في وقت يواجه فيه تكتيك الاستعانة بمصادر خارجية لإدارة المحتوى السام لأشخاص ذوي أجور منخفضة تحديات قانونية عبر أسواق متعددة.

يشير منشور Clegg أيضًا إلى أن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على منصات Meta “مؤهل للتدقيق في الحقائق من قبل شركائنا المستقلين لتدقيق الحقائق” – وبالتالي، قد يتم تصنيفه أيضًا على أنه مفضوح (على سبيل المثال، بالإضافة إلى تصنيفه على أنه تم إنشاؤه بواسطة الذكاء الاصطناعي) ؛ أو “Imagined by AI”، كما هو الحال في تسميات صور GenAI الحالية لـ Meta). الأمر الذي، بصراحة، يبدو مربكًا بشكل متزايد للمستخدمين الذين يحاولون التنقل بين مصداقية الأشياء التي يرونها على منصات التواصل الاجتماعي الخاصة بها – حيث قد يتم تطبيق علامات متعددة على جزء من المحتوى، أو تصنيف واحد فقط، أو لا شيء على الإطلاق.

يتجنب كليج أيضًا أي مناقشة حول عدم التماثل المزمن بين توفر مدققي الحقائق من البشر، وهو المورد الذي يتم توفيره عادةً من قبل الكيانات غير الربحية التي لديها وقت ومال محدودان لفضح التزييف الرقمي الذي لا حدود له بشكل أساسي؛ وجميع أنواع الجهات الفاعلة الخبيثة التي تتمتع بإمكانية الوصول إلى منصات وسائل التواصل الاجتماعي، والتي تغذيها عدد لا يحصى من الحوافز والممولين، القادرة على تسليح أدوات الذكاء الاصطناعي القوية المتاحة على نطاق واسع (بما في ذلك تلك التي تقوم شركة ميتا نفسها ببنائها وتوفيرها لتغذية أعمالها المعتمدة على المحتوى) من أجل تهديدات التضليل على نطاق واسع.

بدون بيانات قوية حول مدى انتشار المحتوى الاصطناعي مقابل المحتوى الأصلي على منصات Meta، وبدون بيانات حول مدى فعالية أنظمة الكشف المزيفة التي تعمل بالذكاء الاصطناعي، ليس هناك الكثير مما يمكن أن نستنتجه – بما يتجاوز ما هو واضح: تشعر Meta بأنها تحت الضغط لكي تُرى وهي تفعل ذلك. شيء ما في عام ستحظى فيه المنتجات المزيفة المتعلقة بالانتخابات بلا شك بقدر كبير من الدعاية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى