تقنية

قانون الاتحاد الأوروبي للذكاء الاصطناعي: مسودة إرشادات لأنظمة الذكاء الاصطناعي ذات الأغراض العامة توضح الخطوات الأولى التي يجب على الذكاء الاصطناعي الكبير الالتزام بها


تم نشر المسودة الأولى لمدونة الممارسات التي سيتم تطبيقها على مقدمي نماذج الذكاء الاصطناعي للأغراض العامة بموجب قانون الذكاء الاصطناعي للاتحاد الأوروبي، إلى جانب دعوة لتقديم التعليقات – مفتوحة حتى 28 نوفمبر – مع استمرار عملية الصياغة في العام المقبل، في المستقبل المواعيد النهائية الرسمية للامتثال تبدأ خلال السنوات المقبلة.

ينظم قانون الاتحاد الأوروبي، الذي دخل حيز التنفيذ هذا الصيف، تطبيقات الذكاء الاصطناعي ضمن إطار قائم على المخاطر. ولكنه يستهدف أيضًا بعض التدابير في نماذج الذكاء الاصطناعي التأسيسية – أو ذات الأغراض العامة – الأكثر قوة (GPAIs). هذا هو المكان الذي ستأتي فيه قواعد الممارسة هذه.

ومن بين الشركات التي من المحتمل أن تكون في الإطار، شركة OpenAI، صانعة نماذج GPT، التي تدعم برنامج الدردشة الآلي ChatGPT، وGoogle مع Gemini GPAIs، وMeta with Llama، وAnthropic with Claude، وغيرها مثل Mistral الفرنسية. ويُتوقع منهم الالتزام بقواعد ممارسات الذكاء الاصطناعي للأغراض العامة إذا كانوا يريدون التأكد من امتثالهم لقانون الذكاء الاصطناعي وبالتالي تجنب مخاطر الإنفاذ في حالة عدم الامتثال.

لكي نكون واضحين، تهدف المدونة إلى تقديم إرشادات للوفاء بالتزامات قانون الذكاء الاصطناعي للاتحاد الأوروبي. قد يختار موفرو GPAI الابتعاد عن اقتراحات أفضل الممارسات إذا كانوا يعتقدون أن بإمكانهم إثبات الامتثال من خلال تدابير أخرى.

تصل هذه المسودة الأولى للمدونة إلى 36 صفحة ولكن من المرجح أن تطول – ربما إلى حد كبير – حيث يحذر القائمون على الصياغة من أنها خفيفة على التفاصيل لأنها “خطة صياغة رفيعة المستوى تحدد مبادئنا وأهدافنا التوجيهية للمدونة.”

المسودة مليئة بصناديق تطرح “أسئلة مفتوحة” لم تتوصل بعد مجموعات العمل المكلفة بإنتاج المدونة إلى حلها. ومن الواضح أن ردود الفعل المطلوبة – من الصناعة والمجتمع المدني – ستلعب دورًا رئيسيًا في تشكيل جوهر التدابير الفرعية المحددة ومؤشرات الأداء الرئيسية (KPIs) التي لم يتم تضمينها بعد.

لكن الوثيقة تعطي فكرة عما سيحدث (فيما يتعلق بالتوقعات) بالنسبة لصانعي GPAI، بمجرد تطبيق المواعيد النهائية للامتثال ذات الصلة.

من المقرر أن تدخل متطلبات الشفافية لصانعي GPAIs حيز التنفيذ في 1 أغسطس 2025.

لكن بالنسبة لأقوى GPAIs – تلك التي يحددها القانون بأنها تنطوي على “مخاطر نظامية” – فإن التوقع هو أنها يجب أن تلتزم بمتطلبات تقييم المخاطر والتخفيف منها بعد 36 شهرًا من دخولها حيز التنفيذ (أو 1 أغسطس 2027).

هناك تحذير إضافي يتمثل في أن مسودة القانون قد تم وضعها على افتراض أنه لن يكون هناك سوى “عدد صغير” من صانعي GPAI وGPAI الذين يواجهون مخاطر نظامية. ويحذر القائمون على الصياغة من أنه “إذا ثبت خطأ هذا الافتراض، فقد تحتاج المسودات المستقبلية إلى تغيير كبير، على سبيل المثال، من خلال تقديم نظام متدرج أكثر تفصيلاً من التدابير يهدف إلى التركيز في المقام الأول على تلك النماذج التي توفر أكبر المخاطر النظامية”.

على صعيد الشفافية، ستحدد المدونة كيفية امتثال GPAIs لأحكام المعلومات، بما في ذلك ما يتعلق بالمواد المحمية بحقوق الطبع والنشر.

أحد الأمثلة هنا هو “التدبير الفرعي 5.2″، الذي يلزم الموقعين حاليًا بتقديم تفاصيل عن اسم جميع برامج زحف الويب المستخدمة لتطوير GPAI وميزات ملف robots.txt ذات الصلة “بما في ذلك وقت الزحف”.

لا يزال صانعو نماذج GPAI يواجهون أسئلة حول كيفية حصولهم على البيانات لتدريب نماذجهم، مع دعاوى قضائية متعددة مرفوعة من قبل أصحاب الحقوق تزعم أن شركات الذكاء الاصطناعي قامت بمعالجة المعلومات المحمية بحقوق الطبع والنشر بشكل غير قانوني.

هناك التزام آخر منصوص عليه في مسودة القانون يتطلب من موفري GPAI أن يكون لديهم نقطة اتصال واحدة ومعالجة الشكاوى لتسهيل على أصحاب الحقوق توصيل التظلمات “بشكل مباشر وسريع”.

التدابير المقترحة الأخرى المتعلقة بوثائق غلاف حقوق الطبع والنشر التي من المتوقع أن تقدمها GPAIs حول مصادر البيانات المستخدمة في “التدريب والاختبار والتحقق من الصحة وحول تراخيص الوصول إلى المحتوى المحمي واستخدامه لتطوير الذكاء الاصطناعي للأغراض العامة.”

المخاطر النظامية

وتخضع أقوى GPAIs أيضًا لقواعد في قانون الذكاء الاصطناعي للاتحاد الأوروبي والتي تهدف إلى التخفيف مما يسمى “المخاطر النظامية”. يتم تعريف أنظمة الذكاء الاصطناعي هذه حاليًا على أنها نماذج تم تدريبها باستخدامها إجمالي قوة الحوسبة أكثر من 10^25 FLOPs.

تحتوي المدونة على قائمة بأنواع المخاطر التي من المتوقع أن يتعامل معها الموقعون على أنها مخاطر نظامية. وهي تشمل:

  • مخاطر الأمن السيبراني الهجومية (مثل اكتشاف الثغرات الأمنية).
  • المخاطر الكيميائية والبيولوجية والإشعاعية والنووية.
  • “فقدان السيطرة” (يعني هنا عدم القدرة على التحكم في “ذكاء اصطناعي قوي ومستقل للأغراض العامة”) والاستخدام الآلي لنماذج البحث والتطوير في مجال الذكاء الاصطناعي.
  • الإقناع والتلاعب، بما في ذلك المعلومات المضللة/المعلومات الخاطئة واسعة النطاق والتي يمكن أن تشكل مخاطر على العمليات الديمقراطية أو تؤدي إلى فقدان الثقة في وسائل الإعلام.
  • التمييز على نطاق واسع.

تشير هذه النسخة من المدونة أيضًا إلى أن صانعي GPAI يمكنهم تحديد أنواع أخرى من المخاطر النظامية التي لم يتم إدراجها بشكل صريح أيضًا – مثل انتهاكات الخصوصية والمراقبة “واسعة النطاق”، أو الاستخدامات التي قد تشكل مخاطر على الصحة العامة. وأحد الأسئلة المفتوحة التي تطرحها الوثيقة هنا هو ما هي المخاطر التي ينبغي تحديد أولوياتها لإضافتها إلى التصنيف الرئيسي. والسؤال الآخر هو كيف ينبغي لتصنيف المخاطر النظامية أن يعالج مخاطر التزييف العميق (المتعلقة بمواد الاعتداء الجنسي على الأطفال التي أنشأها الذكاء الاصطناعي والصور الحميمة غير التوافقية).

تسعى المدونة أيضًا إلى تقديم إرشادات حول تحديد السمات الرئيسية التي يمكن أن تؤدي إلى إنشاء نماذج لمخاطر نظامية، مثل “قدرات النماذج الخطيرة” (على سبيل المثال الهجوم السيبراني أو “قدرات حيازة الأسلحة أو نشرها”)، و”النزعات النموذجية الخطيرة” (على سبيل المثال غير متوافق مع النوايا الإنسانية و/أو القيم؛ والميل إلى الخداع؛ والافتقار إلى الموثوقية والأمان؛

في حين أنه لا يزال يتعين ملء الكثير من التفاصيل، مع استمرار عملية الصياغة، كتب مؤلفو المدونة أن مقاييسها وتدابيرها الفرعية ومؤشرات الأداء الرئيسية يجب أن تكون “متناسبة” مع التركيز بشكل خاص على “التكيف مع حجم وقدرة مزود محدد، وخاصة الشركات الصغيرة والمتوسطة والشركات الناشئة ذات الموارد المالية الأقل من تلك الموجودة في حدود تطوير الذكاء الاصطناعي. ويضيفون أنه ينبغي أيضًا إيلاء الاهتمام إلى “استراتيجيات التوزيع المختلفة (مثل المصادر المفتوحة)، حيثما يكون ذلك مناسبًا، بما يعكس مبدأ التناسب ويأخذ في الاعتبار الفوائد والمخاطر”.

وتتعلق العديد من الأسئلة المفتوحة التي تطرحها المسودة بكيفية تطبيق تدابير محددة على النماذج مفتوحة المصدر.

السلامة والأمن في الإطار

هناك إجراء آخر في القانون يتعلق بـ “إطار السلامة والأمن” (SSF). يُتوقع من صانعي GPAI أن يقوموا بتفصيل سياسات إدارة المخاطر الخاصة بهم وأن يحددوا “بشكل مستمر وشامل” المخاطر النظامية التي قد تنشأ عن GPAI الخاصة بهم.

يوجد هنا إجراء فرعي مثير للاهتمام حول “التنبؤ بالمخاطر”. وهذا من شأنه أن يُلزم الموقعين بتضمين “تقديرات أفضل الجهود” الخاصة بهم في إطار الإطار الاستراتيجي (SSF) للجداول الزمنية عندما يتوقعون تطوير نموذج يطلق مؤشرات المخاطر النظامية – مثل قدرات النموذج الخطير والميول المذكورة أعلاه. قد يعني ذلك أنه بدءًا من عام 2027، سنرى مطوري الذكاء الاصطناعي المتطور يضعون أطرًا زمنية عندما يتوقعون أن يتجاوز تطوير النموذج حدودًا معينة للمخاطر.

وفي مكان آخر، تركز مسودة المدونة على GPAIs ذات المخاطر النظامية باستخدام “أفضل التقييمات في فئتها” لقدرات نماذجها وقيودها وتطبيق “مجموعة من المنهجيات المناسبة” للقيام بذلك. تتضمن الأمثلة المدرجة ما يلي: مجموعات الأسئلة والأجوبة، والمعايير، والفرق الحمراء وغيرها من طرق اختبار الخصومة، ودراسات الارتقاء البشري، والكائنات الحية النموذجية، وعمليات المحاكاة، والتقييمات البديلة للمواد السرية.

وهناك إجراء فرعي آخر بشأن “الإخطار بالمخاطر النظامية الكبيرة” يلزم الموقعين بإخطار مكتب منظمة العفو الدولية، وهو هيئة رقابية وتوجيهية أنشئت بموجب القانون، “إذا كان لديهم سبب قوي للاعتقاد بأن المخاطر النظامية الكبيرة قد تتحقق”.

كما تحدد المدونة تدابير بشأن “الإبلاغ عن الحوادث الخطيرة”.

“يلتزم الموقعون بتحديد وتتبع الحوادث الخطيرة، طالما أنها تنشأ من نماذج الذكاء الاصطناعي للأغراض العامة الخاصة بهم والتي تنطوي على مخاطر نظامية، وتوثيق والإبلاغ، دون تأخير لا مبرر له، عن أي معلومات ذات صلة وتدابير تصحيحية محتملة إلى مكتب الذكاء الاصطناعي، وكما “مناسب للسلطات الوطنية المختصة”، على الرغم من أن هناك سؤالًا مفتوحًا مرتبطًا يطلب مدخلات حول “ما الذي يستلزمه وقوع حادث خطير”. لذلك يبدو أن هناك المزيد من العمل الذي يتعين القيام به هنا لتحديد التعريفات.

تتضمن مسودة المدونة أسئلة إضافية حول “التدابير التصحيحية المحتملة” التي يمكن اتخاذها ردًا على الحوادث الخطيرة. ويسأل أيضًا “ما هي عمليات الاستجابة للحوادث الخطيرة المناسبة لمقدمي الخدمات ذات الوزن المفتوح أو المصادر المفتوحة؟”، من بين صيغ أخرى للبحث عن التعليقات.

“هذه المسودة الأولى للمدونة هي نتيجة لمراجعة أولية لأفضل الممارسات الحالية من قبل مجموعات العمل الأربعة المتخصصة، ومدخلات مشاورة أصحاب المصلحة من حوالي 430 طلبًا، وردود من ورشة عمل مقدمي الخدمة، والنهج الدولية (بما في ذلك مدونة قواعد سلوك مجموعة السبع، “الالتزامات الحدودية للسلامة في مجال الذكاء الاصطناعي، وإعلان بلتشلي، والمخرجات الصادرة عن الهيئات الحكومية وهيئات وضع المعايير ذات الصلة)، والأهم من ذلك، قانون الذكاء الاصطناعي نفسه”، يتابع واضعو الصياغة في الختام.

وأضافوا: “نؤكد أن هذه مجرد مسودة أولى، وبالتالي فإن الاقتراحات الواردة في مشروع القانون مؤقتة وقابلة للتغيير”. “ولذلك، فإننا ندعوكم إلى تقديم مساهماتكم البناءة بينما نعمل على تطوير وتحديث محتويات المدونة ونعمل على التوصل إلى شكل نهائي أكثر تفصيلاً في الأول من مايو 2025.”


اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading