تقنية

أصدر الرئيس بايدن أمرًا تنفيذيًا لوضع معايير لسلامة وأمن الذكاء الاصطناعي


أصدر الرئيس الأمريكي جو بايدن أمرًا تنفيذيًا (EO) يسعى إلى وضع “معايير جديدة” لسلامة وأمن الذكاء الاصطناعي، بما في ذلك متطلبات الشركات التي تطور نماذج الذكاء الاصطناعي الأساسية لإخطار الحكومة الفيدرالية ومشاركة نتائج جميع اختبارات السلامة قبل نشرها. للعامة.

أثارت حركة الذكاء الاصطناعي التوليدية سريعة الحركة، والتي يقودها أمثال ChatGPT ونماذج الذكاء الاصطناعي الأساسية التي طورتها OpenAI، جدلاً عالميًا حول الحاجة إلى حواجز حماية لمواجهة المخاطر المحتملة المتمثلة في إعطاء الكثير من التحكم للخوارزميات. في شهر مايو الماضي، حدد قادة مجموعة السبع المواضيع الرئيسية التي يجب معالجتها كجزء مما يسمى بعملية هيروشيما للذكاء الاصطناعي، حيث توصلت الدول السبع المكونة اليوم إلى اتفاق بشأن المبادئ التوجيهية ومدونة قواعد السلوك “الطوعية” لمطوري الذكاء الاصطناعي ليتبعوها. .

في الأسبوع الماضي، أعلنت الأمم المتحدة عن مجلس جديد لاستكشاف حوكمة الذكاء الاصطناعي، في حين تستضيف المملكة المتحدة هذا الأسبوع قمتها العالمية حول حوكمة الذكاء الاصطناعي في بلتشلي بارك، ومن المقرر أن تتحدث نائبة الرئيس الأمريكي كامالا هاريس في هذا الحدث.

من جانبها، ركزت إدارة بايدن-هاريس أيضًا على سلامة الذكاء الاصطناعي بدلاً من أي شيء ملزم قانونًا، وتأمين “التزامات طوعية” من مطوري الذكاء الاصطناعي الرئيسيين بما في ذلك OpenAI، وGoogle، وMicrosoft، وMeta، وAmazon – وكان هذا دائمًا لكن المقصود منها أن تكون مقدمة لأمر تنفيذي، وهو ما يتم الإعلان عنه اليوم.

“ذكاء اصطناعي آمن ومأمون وجدير بالثقة”

على وجه التحديد، ينص الأمر التنفيذي على أنه يجب على مطوري “أقوى أنظمة الذكاء الاصطناعي” مشاركة نتائج اختبارات السلامة الخاصة بهم والبيانات ذات الصلة مع حكومة الولايات المتحدة.

ويشير الأمر إلى أنه “مع نمو قدرات الذكاء الاصطناعي، تنمو أيضًا آثاره على سلامة الأمريكيين وأمنهم”، مضيفًا أنه يهدف إلى “حماية الأمريكيين من المخاطر المحتملة لأنظمة الذكاء الاصطناعي”.

من خلال مواءمة معايير السلامة والأمن الجديدة للذكاء الاصطناعي مع قانون الإنتاج الدفاعي (1950)، يستهدف الأمر على وجه التحديد أي نموذج أساسي قد يشكل خطرًا على الأمن القومي أو الأمن الاقتصادي أو الصحة العامة – والذي، على الرغم من أنه مفتوح إلى حد ما للتفسير، يجب أن يشمل فقط عن أي نموذج أساس يؤتي ثماره.

ويضيف الأمر: “ستضمن هذه الإجراءات أن تكون أنظمة الذكاء الاصطناعي آمنة ومأمونة وجديرة بالثقة قبل أن تعلنها الشركات للعامة”.

وفي مكان آخر، يحدد الأمر أيضًا خططًا لتطوير أدوات وأنظمة جديدة مختلفة لضمان أن الذكاء الاصطناعي آمن وجدير بالثقة، مع تكليف المعهد الوطني للمعايير والتكنولوجيا (NIST) بتطوير معايير جديدة “لاختبار الفريق الأحمر المكثف” قبل الإصدار. . سيتم تطبيق مثل هذه الاختبارات في جميع المجالات، حيث تقوم وزارتا الطاقة والأمن الداخلي بمعالجة المخاطر المرتبطة بالذكاء الاصطناعي والبنية التحتية الحيوية، على سبيل المثال.

ويعمل هذا الأمر أيضًا على دعم عدد من التوجيهات والمعايير الجديدة، بما في ذلك – على سبيل المثال لا الحصر – الحماية من مخاطر استخدام الذكاء الاصطناعي في هندسة المواد البيولوجية الخطرة؛ الحماية من الاحتيال والخداع المدعوم بالذكاء الاصطناعي؛ وإنشاء برنامج للأمن السيبراني لبناء أدوات الذكاء الاصطناعي لمعالجة نقاط الضعف في البرامج الهامة.

أسنان

تجدر الإشارة إلى أن الأمر التنفيذي يتناول مجالات مثل المساواة والحقوق المدنية، مع الإشارة إلى كيف يمكن للذكاء الاصطناعي أن يؤدي إلى تفاقم التمييز والتحيز في الرعاية الصحية والعدالة والإسكان، فضلاً عن المخاطر التي يشكلها الذكاء الاصطناعي فيما يتعلق بأشياء مثل مراقبة مكان العمل والوظائف. الإزاحة. لكن البعض قد يفسر الأمر على أنه يفتقر إلى القوة الحقيقية، حيث يبدو أن الكثير منه يتمحور حول التوصيات والمبادئ التوجيهية – على سبيل المثال، يقول إنه يريد ضمان العدالة في نظام العدالة الجنائية من خلال “تطوير نظام العدالة الجنائية”. أفضل الممارسات بشأن استخدام الذكاء الاصطناعي في إصدار الأحكام، والإفراج المشروط والمراقبة، والإفراج والاحتجاز السابق للمحاكمة، وتقييم المخاطر، والمراقبة، والتنبؤ بالجريمة والشرطة التنبؤية، وتحليل الطب الشرعي.

وبينما يذهب الأمر التنفيذي إلى حد ما نحو التدوين كيف يجب على مطوري الذكاء الاصطناعي أن يشرعوا في بناء السلامة والأمن في أنظمتهم، وليس من الواضح إلى أي مدى يمكن تطبيقه دون مزيد من التغييرات التشريعية. على سبيل المثال، يناقش الأمر المخاوف المتعلقة بخصوصية البيانات – ففي نهاية المطاف، يجعل الذكاء الاصطناعي من السهل للغاية استخراج واستغلال البيانات الخاصة للأفراد على نطاق واسع، وهو أمر قد يتم تحفيز المطورين للقيام به كجزء من عمليات التدريب النموذجية الخاصة بهم. ومع ذلك، فإن الأمر التنفيذي يدعو الكونجرس فقط إلى تمرير “تشريع خصوصية البيانات بين الحزبين” لحماية بيانات الأمريكيين، بما في ذلك طلب المزيد من الدعم الفيدرالي لتطوير تقنيات تطوير الذكاء الاصطناعي التي تحافظ على الخصوصية.

ومع اقتراب أوروبا من إقرار أول لوائح واسعة النطاق بشأن الذكاء الاصطناعي، فمن الواضح أن بقية العالم تتصارع أيضًا مع طرق لاحتواء ما من شأنه أن يخلق واحدة من أكبر الاضطرابات المجتمعية منذ الثورة الصناعية. يبقى أن نرى مدى تأثير الأمر التنفيذي الذي أصدره الرئيس بايدن في التأثير على أمثال OpenAI وGoogle وMicrosoft وMeta.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى