تقنية

يقوم الاتحاد الأوروبي بإجراء فحص دقيق للمنصات الرئيسية بشأن مخاطر GenAI قبل الانتخابات


أرسلت المفوضية الأوروبية سلسلة من الطلبات الرسمية للحصول على معلومات (RFI) إلى Google وMeta وMicrosoft وSnap وTikTok وX حول كيفية تعاملهم مع المخاطر المتعلقة باستخدام الذكاء الاصطناعي التوليدي.

يتم إجراء الطلبات، المتعلقة بـ Bing وFacebook وGoogle Search وInstagram وSnapchat وTikTok وYouTube وX، بموجب قانون الخدمات الرقمية (DSA)، وقواعد التجارة الإلكترونية والحوكمة عبر الإنترنت التي أعيد تشغيلها في الكتلة. تم تصنيف المنصات الثمانية على أنها منصات كبيرة جدًا عبر الإنترنت (VLOPs) بموجب اللائحة – مما يعني أنها مطالبة بتقييم وتخفيف المخاطر النظامية، بالإضافة إلى الامتثال للجزء الأكبر من القواعد.

وفي بيان صحفي يوم الخميس، قالت المفوضية إنها تطلب منهم تقديم مزيد من المعلومات حول تدابير التخفيف الخاصة بهم للمخاطر المرتبطة بالذكاء الاصطناعي التوليدي على خدماتهم – بما في ذلك ما يتعلق بما يسمى “الهلوسة” حيث تولد تقنيات الذكاء الاصطناعي معلومات كاذبة؛ والانتشار الفيروسي للتزييف العميق؛ والتلاعب الآلي بالخدمات التي يمكن أن تضلل الناخبين.

“تطلب المفوضية أيضًا معلومات ووثائق داخلية حول تقييمات المخاطر وتدابير التخفيف المرتبطة بتأثير الذكاء الاصطناعي التوليدي على العمليات الانتخابية، ونشر المحتوى غير القانوني، وحماية الحقوق الأساسية، والعنف القائم على النوع الاجتماعي، وحماية القاصرين والصحة العقلية. وأضافت المفوضية، مؤكدة أن الأسئلة تتعلق “بنشر وإنشاء محتوى الذكاء الاصطناعي التوليدي”.

وفي مؤتمر صحفي، قال الاتحاد الأوروبي أيضًا إنه يخطط لإجراء سلسلة من اختبارات التحمل، من المقرر إجراؤها بعد عيد الفصح. ستختبر هذه الاختبارات مدى استعداد المنصات للتعامل مع مخاطر الذكاء الاصطناعي التوليدية، مثل احتمال حدوث طوفان من التزييف السياسي العميق قبل انتخابات البرلمان الأوروبي في يونيو.

“نريد أن ندفع المنصات لإخبارنا بكل ما يفعلونه ليكونوا على أفضل استعداد قدر الإمكان … لجميع الحوادث التي قد نتمكن من اكتشافها والتي سيتعين علينا الرد عليها في الفترة التي تسبق الانتخابات”. وقال مسؤول كبير في المفوضية، تحدث شريطة عدم الكشف عن هويته.

وقد حدد الاتحاد الأوروبي، الذي يشرف على امتثال VLOPs لقواعد DSA الخاصة بشركات التكنولوجيا الكبرى، أمن الانتخابات باعتباره أحد المجالات ذات الأولوية للتنفيذ. لقد قامت مؤخرًا بالتشاور بشأن قواعد أمن الانتخابات الخاصة بـ VLOPs، حيث تعمل على إنتاج إرشادات رسمية.

وتهدف طلبات اليوم جزئيًا إلى دعم هذا التوجيه، وفقًا للجنة. رغم منح المنصات مهلة حتى 3 أبريل/نيسان المقبل لتقديم المعلومات المتعلقة بحماية الانتخابات، وهو ما يوصف بأنه طلب “عاجل”. لكن الاتحاد الأوروبي قال إنه يأمل في وضع اللمسات الأخيرة على المبادئ التوجيهية لأمن الانتخابات في وقت أقرب من ذلك الحين – بحلول 27 مارس/آذار.

وأشار أحد مسؤولي المفوضية إلى أن تكلفة إنتاج المحتوى الاصطناعي تنخفض بشكل كبير، مما يزيد من مخاطر التزييف العميق المضلل خلال الانتخابات. وهذا هو السبب في أنها تجذب الاهتمام على المنصات الرئيسية على نطاق واسع لنشر التزييف السياسي العميق على نطاق واسع.

إن اتفاق صناعة التكنولوجيا لمكافحة الاستخدام الخادع للذكاء الاصطناعي خلال الانتخابات التي خرج بها مؤتمر ميونيخ الأمني ​​الشهر الماضي، بدعم من عدد من نفس المنصات التي ترسلها المفوضية الآن لطلبات المعلومات، لا يذهب بعيدا بما فيه الكفاية من وجهة نظر الاتحاد الأوروبي.

وقال أحد مسؤولي المفوضية إن توجيهاتها المقبلة بشأن أمن الانتخابات سوف تذهب “إلى أبعد من ذلك بكثير”، مشيرًا إلى ضربة ثلاثية من الضمانات التي تخطط للاستفادة منها: بدءًا من “قواعد العناية الواجبة الواضحة” الخاصة بقانون ضمان الأداء، والتي تمنحها صلاحيات لاستهداف “مواقف خطر” محددة. ; بالإضافة إلى أكثر من خمس سنوات من الخبرة من العمل مع المنصات عبر مدونة قواعد الممارسات ضد التضليل (غير الملزمة قانونًا) والتي يعتزم الاتحاد الأوروبي أن تصبح مدونة قواعد سلوك بموجب DSA؛ و- في الأفق- قواعد وضع علامات الشفافية/نموذج الذكاء الاصطناعي بموجب قانون الذكاء الاصطناعي القادم.

وأضاف المسؤول أن هدف الاتحاد الأوروبي هو بناء “نظام بيئي لهياكل التنفيذ” التي يمكن الاستفادة منها في الفترة التي تسبق الانتخابات.

تهدف طلبات المعلومات التي تقدمها المفوضية اليوم أيضًا إلى معالجة نطاق أوسع من مخاطر الذكاء الاصطناعي التوليدية أكثر من التلاعب بالناخبين – مثل الأضرار المتعلقة بالإباحية العميقة أو الأنواع الأخرى من توليد المحتوى الاصطناعي الضار، سواء كان المحتوى المنتج عبارة عن صور/فيديو أو صوت. تعكس هذه الطلبات مجالات الأولوية الأخرى لإنفاذ قانون DSA الخاص بالاتحاد الأوروبي على VLOPs، والتي تشمل المخاطر المتعلقة بالمحتوى غير القانوني (مثل خطاب الكراهية) وحماية الأطفال.

تم منح المنصات مهلة حتى 24 أبريل لتقديم ردود على طلبات معلومات الذكاء الاصطناعي التوليدية الأخرى

إن المنصات الصغيرة التي يمكن أن يتم فيها توزيع مواد مزيفة مضللة وخبيثة وضارة، وصانعي أدوات الذكاء الاصطناعي الأصغر الذين يمكنهم تمكين توليد الوسائط الاصطناعية بتكلفة منخفضة، هم أيضًا على رادار تخفيف المخاطر في الاتحاد الأوروبي.

لن تندرج مثل هذه المنصات والأدوات ضمن إشراف اللجنة الواضح على DSA على VLOPs. ولكن استراتيجيتها لتوسيع نطاق تأثيرها تتلخص في ممارسة الضغوط بشكل غير مباشر، من خلال منصات أكبر (والتي قد تعمل كمضخمات و/أو قنوات توزيع في هذا السياق)؛ ومن خلال آليات التنظيم الذاتي، مثل قانون التضليل المذكور أعلاه؛ وميثاق الذكاء الاصطناعي، الذي من المقرر أن يبدأ العمل به قريباً، بمجرد اعتماد قانون الذكاء الاصطناعي (القانون الملزم) (المتوقع في غضون أشهر).

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى