تقنية

يرسل منفذو DSA في الاتحاد الأوروبي المزيد من الأسئلة إلى Snapchat وTikTok وYouTube حول مخاطر الذكاء الاصطناعي


طلب الاتحاد الأوروبي يوم الأربعاء مزيدًا من المعلومات من Snapchat وTikTok وYouTube حول خوارزميات توصية المحتوى الخاصة بهم بموجب كتاب قواعد الحوكمة عبر الإنترنت الخاص بالكتلة، وهو قانون الخدمات الرقمية (DSA).

وقالت المفوضية في بيان صحفي إنها أرسلت طلبات للحصول على معلومات (RFI) إلى منصات التواصل الاجتماعي الثلاث لتطلب منهم مزيدًا من التفاصيل حول تصميم وعمل خوارزمياتهم. وتم منح الثلاثي مهلة حتى 15 نوفمبر لتقديم البيانات المطلوبة.

وقال الاتحاد الأوروبي إن ردودهم ستحدد أي خطوات تالية – مثل احتمال فتح تحقيقات رسمية.

يطبق إطار الحوكمة عبر الإنترنت الخاص بالكتلة، والذي يحتوي على عقوبات صارمة على الانتهاكات (ما يصل إلى 6٪ من حجم الأعمال السنوي العالمي)، طبقة إضافية من قواعد تخفيف المخاطر النظامية على المنصات الثلاث – نظرًا لتسمياتها على أنها VLOPs (المعروفة أيضًا باسم منصات الإنترنت الكبيرة جدًا) ).

تتطلب هذه القواعد منصات أكبر لتحديد وتخفيف المخاطر التي قد تنجم عن استخدامها للذكاء الاصطناعي كأداة للتوصية بالمحتوى، حيث ينص القانون على ضرورة اتخاذ إجراءات لمنع التأثيرات السلبية في مجموعة من المجالات بما في ذلك الصحة العقلية للمستخدمين والخطاب المدني. كما حذر الاتحاد الأوروبي على وجه التحديد من أن نشر المحتوى الضار يمكن أن ينجم عن استخدام الخوارزميات ذات التصميم القائم على المشاركة – والذي يبدو أنه المكان الذي تركز عليه أحدث طلبات المعلومات.

وقالت المفوضية إنها تطلب من سناب شات ويوتيوب تقديم “معلومات مفصلة” عن المعلمات الخوارزمية التي يستخدمونها للتوصية بالمحتوى لمستخدميهم. كما أنها تريد المزيد من البيانات حول الدور الذي تلعبه أنظمة الذكاء الاصطناعي هذه في “تضخيم بعض المخاطر النظامية” ــ بما في ذلك المخاطر المرتبطة بالعملية الانتخابية والخطاب المدني؛ السلامة العقلية للمستخدمين (مثل السلوك الإدماني والمحتوى “ثقوب الأرانب”)؛ وحماية القاصرين.

وأضاف الاتحاد الأوروبي أن “الأسئلة تتعلق أيضًا بتدابير المنصات للتخفيف من التأثير المحتمل لأنظمة التوصية الخاصة بها على انتشار المحتوى غير القانوني، مثل الترويج للمخدرات غير المشروعة وخطاب الكراهية”.

بالنسبة لـ TikTok، تسعى المفوضية للحصول على مزيد من التفاصيل حول إجراءات مكافحة التلاعب التي تم نشرها لمحاولة منع الجهات الفاعلة الخبيثة من التلاعب بالمنصة لنشر محتوى ضار. ويطلب الاتحاد الأوروبي أيضًا من TikTok المزيد حول كيفية تخفيف المخاطر المتعلقة بالانتخابات وتعددية وسائل الإعلام والخطاب المدني – وهي المخاطر النظامية التي قال إنها قد تتضخم من خلال أنظمة التوصية.

إن طلبات المعلومات الأخيرة هذه ليست الأولى التي ترسلها المفوضية إلى المنصات الثلاث. تضمنت أسئلة DSA السابقة أسئلة للثلاثي (والعديد من VLOPs الأخرى) حول مخاطر الانتخابات قبل انتخابات الاتحاد الأوروبي في وقت سابق من هذا العام. كما سبق لها أن استجوبت الثلاثة حول قضايا حماية الطفل. بالإضافة إلى ذلك، أرسلت المفوضية طلب معلومات إلى TikTok العام الماضي تسأله عن كيفية استجابتها لمخاطر المحتوى المتعلقة بالحرب بين إسرائيل وحماس.

ومع ذلك، فإن منصة ByteDance هي الوحيدة من بين منتجات الوسائط الاجتماعية الثلاثة التي تخضع لتحقيق DSA رسمي حتى الآن. في فبراير، فتحت الكتلة تحقيقًا في امتثال TikTok لـ DSA – قائلة إنها تشعر بالقلق بشأن مجموعة من القضايا بما في ذلك نهج المنصة في حماية القاصرين وإدارة مخاطر التصميم الذي يسبب الإدمان والمحتوى الضار. هذا التحقيق مستمر.

أرسل المتحدث باسم TikTok، باولو جانينو، بيانًا عبر البريد الإلكتروني كتبت فيه الشركة: “هذا الصباح، تلقينا طلبًا للحصول على معلومات من المفوضية الأوروبية، والذي سنراجعه الآن. وسوف نتعاون مع المفوضية طوال عملية طلب المعلومات.”

لقد تواصلنا أيضًا مع Snap وTikTok للحصول على ردود على أحدث طلبات المعلومات الصادرة عن اللجنة.

في حين أن قواعد DSA الخاصة بـ VLOPs كانت سارية منذ أواخر الصيف الماضي، إلا أن الكتلة لم تنتهي بعد من أي من التحقيقات العديدة التي فتحتها على منصات أكبر. وعلى الرغم من ذلك، في يوليو/تموز، أصدرت اللجنة نتائج أولية تتعلق بالتحقيقات بشأن X – قائلة إنها تشتبه في أن الشبكة الاجتماعية تنتهك قواعد DSA بشأن تصميم النمط المظلم؛ توفير الوصول إلى البيانات للباحثين؛ وشفافية الإعلان.


اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading