تقنية

يتم نشر قانون الذكاء الاصطناعي للاتحاد الأوروبي في الجريدة الرسمية للكتلة، ويبدأ على مدار الساعة في المواعيد النهائية القانونية


تم نشر النص الكامل والنهائي لقانون الاتحاد الأوروبي للذكاء الاصطناعي، وهو التنظيم التاريخي للاتحاد الأوروبي القائم على المخاطر لتطبيقات الذكاء الاصطناعي، في الجريدة الرسمية للكتلة.

وفي غضون 20 يومًا، في الأول من أغسطس، سيدخل القانون الجديد حيز التنفيذ وفي غضون 24 شهرًا – أي بحلول منتصف عام 2026 – ستكون أحكامه قابلة للتطبيق بشكل كامل على مطوري الذكاء الاصطناعي. ومع ذلك، يتخذ القانون نهجًا تدريجيًا لتنفيذ قواعد الذكاء الاصطناعي للاتحاد الأوروبي، مما يعني أن هناك مواعيد نهائية مختلفة للملاحظة بين الآن وحتى ذلك الحين – وبعضها حتى في وقت لاحق – حيث ستبدأ أحكام قانونية مختلفة في التطبيق.

وتوصل المشرعون في الاتحاد الأوروبي إلى اتفاق سياسي بشأن أول كتاب قواعد شامل للكتلة بشأن الذكاء الاصطناعي في ديسمبر من العام الماضي.

ويضع الإطار التزامات مختلفة على مطوري الذكاء الاصطناعي، اعتمادًا على حالات الاستخدام والمخاطر المتصورة. لن يتم تنظيم الجزء الأكبر من استخدامات الذكاء الاصطناعي لأنها تعتبر منخفضة المخاطر ولكن عددًا صغيرًا من حالات الاستخدام المحتملة للذكاء الاصطناعي محظورة بموجب القانون.

إن ما يسمى بحالات الاستخدام “عالية الخطورة” – مثل الاستخدامات البيومترية للذكاء الاصطناعي، أو الذكاء الاصطناعي المستخدم في إنفاذ القانون والتوظيف والتعليم والبنية التحتية الحيوية – مسموح بها بموجب القانون، لكن مطوري هذه التطبيقات يواجهون التزامات في مجالات مثل جودة البيانات ومكافحة الإرهاب. تحيز.

يطبق مستوى المخاطر الثالث أيضًا بعض متطلبات الشفافية الأخف على صانعي الأدوات مثل روبوتات الدردشة المدعمة بالذكاء الاصطناعي.

بالنسبة لصانعي نماذج الذكاء الاصطناعي للأغراض العامة (GPAI)، مثل OpenAI’s GPT، والتكنولوجيا الأساسية لـ ChatGPT، هناك أيضًا بعض متطلبات الشفافية. يمكن أن يُطلب من أقوى GPAIs، والتي يتم تعيينها بشكل عام بناءً على عتبة الحوسبة، إجراء تقييم المخاطر النظامية أيضًا.

وقد سعت الضغوط الشديدة التي مارستها بعض عناصر صناعة الذكاء الاصطناعي، بدعم من حفنة من حكومات الدول الأعضاء، إلى تخفيف الالتزامات المفروضة على GPAIs بسبب المخاوف من أن القانون قد يعيق قدرة أوروبا على إنتاج عمالقة الذكاء الاصطناعي محليًا للتنافس مع المنافسين في الولايات المتحدة والصين.

التنفيذ على مراحل

أولاً، سيتم تطبيق قائمة الاستخدامات المحظورة للذكاء الاصطناعي بعد ستة أشهر من دخول القانون حيز التنفيذ، أي في أوائل عام 2025.

وتشمل حالات الاستخدام المحظورة (أو “المخاطر غير المقبولة”) للذكاء الاصطناعي والتي ستصبح غير قانونية قريبًا، تسجيل الائتمان الاجتماعي على الطريقة الصينية؛ تجميع قواعد بيانات التعرف على الوجه عن طريق الاستخلاص غير المستهدف للإنترنت أو الدوائر التلفزيونية المغلقة؛ استخدام القياسات الحيوية عن بعد في الوقت الفعلي من قبل جهات إنفاذ القانون في الأماكن العامة ما لم يتم تطبيق أحد الاستثناءات العديدة، مثل أثناء البحث عن الأشخاص المفقودين أو المختطفين.

بعد ذلك، بعد تسعة أشهر من دخولها حيز التنفيذ – أي في أبريل 2025 تقريبًا – سيتم تطبيق قواعد الممارسة على مطوري تطبيقات الذكاء الاصطناعي ضمن النطاق.

ويتولى مكتب الذكاء الاصطناعي التابع للاتحاد الأوروبي، وهو هيئة لبناء النظم الإيكولوجية والإشراف عليها بموجب القانون، مسؤولية توفير هذه القواعد. ولكن من سوف في الحقيقة كتابة المبادئ التوجيهية لا تزال تثير الأسئلة.

ووفقا لتقرير يوراكتيف الذي صدر في وقت سابق من هذا الشهر، كان الاتحاد الأوروبي يبحث عن شركات استشارية لصياغة القواعد، مما أثار مخاوف المجتمع المدني من أن اللاعبين في صناعة الذكاء الاصطناعي سيكونون قادرين على التأثير على شكل القواعد التي سيتم تطبيقها عليهم. وفي الآونة الأخيرة، أفادت MLex أن مكتب الذكاء الاصطناعي سيطلق دعوة للتعبير عن الاهتمام لاختيار أصحاب المصلحة لصياغة قواعد الممارسة لنماذج الذكاء الاصطناعي للأغراض العامة بعد الضغط من أعضاء البرلمان الأوروبي لجعل العملية شاملة.

يقع موعد نهائي رئيسي آخر بعد 12 شهرًا من دخوله حيز التنفيذ – أو 1 أغسطس 2025 – عندما يبدأ تطبيق قواعد القانون المتعلقة بـ GPAIs التي يجب أن تمتثل لمتطلبات الشفافية.

وقد مُنحت مجموعة فرعية من أنظمة الذكاء الاصطناعي عالية المخاطر الموعد النهائي الأكثر سخاءً للامتثال، مع السماح لها بالوفاء بالتزاماتها بعد 36 شهرًا من دخولها حيز التنفيذ – حتى عام 2027. ويجب أن تمتثل الأنظمة الأخرى عالية المخاطر عاجلاً، بعد 24 شهرًا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى