أصدر باحثون من معهد ماساتشوستس للتكنولوجيا (MIT) مستودعًا لمخاطر الذكاء الاصطناعي

ما هي المخاطر المحددة التي يجب على الشخص أو الشركة أو الحكومة مراعاتها عند استخدام نظام الذكاء الاصطناعي، أو صياغة القواعد التي تحكم استخدامه؟ إنه ليس سؤالاً سهلاً للإجابة عليه. إذا كان الذكاء الاصطناعي يتحكم في البنية التحتية الحيوية، فهناك خطر واضح على سلامة الإنسان. ولكن ماذا عن الذكاء الاصطناعي المصمم لتسجيل الامتحانات أو فرز السيرة الذاتية أو التحقق من وثائق السفر في مراقبة الهجرة؟ وكل منها يحمل مخاطره الخاصة والمختلفة بشكل قاطع، وإن كانت مخاطر لا تقل خطورة.
عند صياغة القوانين لتنظيم الذكاء الاصطناعي، مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي أو قانون كاليفورنيا SB 1047، ناضل صناع السياسات من أجل التوصل إلى توافق في الآراء بشأن المخاطر التي ينبغي أن تغطيها القوانين. وللمساعدة في توفير دليل إرشادي لهم، وكذلك لأصحاب المصلحة عبر صناعة الذكاء الاصطناعي والأوساط الأكاديمية، طور باحثون من معهد ماساتشوستس للتكنولوجيا ما يسمونه “مستودع مخاطر الذكاء الاصطناعي” – وهو نوع من قاعدة بيانات مخاطر الذكاء الاصطناعي.
وقال بيتر سلاتري، الباحث في معهد ماساتشوستس للتكنولوجيا: “هذه محاولة لتنظيم وتحليل مخاطر الذكاء الاصطناعي بشكل صارم في قاعدة بيانات مخاطر يمكن الوصول إليها بشكل عام وشاملة وقابلة للتوسيع ومصنفة ويمكن لأي شخص نسخها واستخدامها، وسيتم تحديثها بمرور الوقت”. صرحت مجموعة FutureTech وقائدة مشروع مستودع مخاطر الذكاء الاصطناعي لـ TechCrunch. “لقد أنشأناه الآن لأننا كنا في حاجة إليه لمشروعنا، وأدركنا أن العديد من الآخرين يحتاجون إليه أيضًا.”
يقول سلاتري إن مستودع مخاطر الذكاء الاصطناعي، والذي يتضمن أكثر من 700 خطر من مخاطر الذكاء الاصطناعي مجمعة حسب العوامل السببية (مثل القصد)، والمجالات (مثل التمييز) والمجالات الفرعية (مثل المعلومات المضللة والهجمات الإلكترونية)، نشأ من الرغبة في فهم التداخلات والانفصالات في مجال الذكاء الاصطناعي. أبحاث سلامة الذكاء الاصطناعي. توجد أطر مخاطر أخرى. لكنها لا تغطي سوى جزء صغير من المخاطر المحددة في المستودع، كما يقول سلاتري، وقد يكون لهذا الإغفال عواقب وخيمة على تطوير الذكاء الاصطناعي واستخدامه وصنع السياسات.
وأضاف سلاتري: “قد يفترض الناس أن هناك إجماعًا على مخاطر الذكاء الاصطناعي، لكن النتائج التي توصلنا إليها تشير إلى خلاف ذلك”. “لقد وجدنا أن متوسط الأطر ذكر 34% فقط من نطاقات المخاطر الفرعية الـ 23 التي حددناها، وما يقرب من ربعها يغطي أقل من 20%. لم تذكر أي وثيقة أو نظرة عامة جميع مجالات المخاطر الفرعية البالغ عددها 23 نطاقًا، وكان الأكثر شمولاً يغطي 70٪ فقط. عندما تكون الأدبيات مجزأة إلى هذا الحد، لا ينبغي لنا أن نفترض أننا جميعًا على نفس الصفحة بشأن هذه المخاطر.
لبناء المستودع، عمل باحثو معهد ماساتشوستس للتكنولوجيا مع زملائهم في جامعة كوينزلاند، ومعهد Future of Life غير الربحي، وجامعة KU Leuven، وشركة Harmony Intelligence الناشئة في مجال الذكاء الاصطناعي، للبحث في قواعد البيانات الأكاديمية واسترجاع آلاف الوثائق المتعلقة بتقييمات مخاطر الذكاء الاصطناعي.
وجد الباحثون أن أطر عمل الطرف الثالث التي قاموا باستطلاع آراءهم ذكرت مخاطر معينة أكثر من غيرها. على سبيل المثال، تضمن أكثر من 70% من الأطر آثار الذكاء الاصطناعي على الخصوصية والأمن، في حين غطى 44% منها فقط المعلومات الخاطئة. وبينما ناقش أكثر من 50% أشكال التمييز والتضليل التي يمكن أن يديمها الذكاء الاصطناعي، تحدث 12% فقط عن “تلوث النظام البيئي للمعلومات” – أي الحجم المتزايد للبريد العشوائي الناتج عن الذكاء الاصطناعي.
وقال سلاتري: “إن ما يجب على الباحثين وصانعي السياسات وأي شخص يعمل في مجال المخاطر أن يقدمه هو أن قاعدة البيانات هذه يمكن أن توفر أساسًا يمكن البناء عليه عند القيام بعمل أكثر تحديدًا”. “قبل ذلك، كان أمام الناس مثلنا خياران. ويمكنهم استثمار وقت كبير في مراجعة الأدبيات المتناثرة لوضع نظرة شاملة، أو يمكنهم استخدام عدد محدود من الأطر الموجودة، والتي قد تفوت المخاطر ذات الصلة. والآن أصبح لديهم قاعدة بيانات أكثر شمولاً، لذا نأمل أن يوفر مستودعنا الوقت ويزيد من الرقابة.”
ولكن هل سيستخدمه أحد؟ صحيح أن تنظيم الذكاء الاصطناعي في جميع أنحاء العالم اليوم هو في أفضل الأحوال خليط: مجموعة من الأساليب المختلفة غير الموحدة في أهدافها. لو كان مستودع مخاطر الذكاء الاصطناعي مثل معهد ماساتشوستس للتكنولوجيا موجودًا من قبل، فهل كان سيغير أي شيء؟ هل يمكن أن يكون؟ هذا صعب القول.
سؤال عادل آخر يجب طرحه هو ما إذا كان ذلك ببساطة يجري محاذاة على إن المخاطر التي يفرضها الذكاء الاصطناعي كافية لتحفيز التحركات نحو تنظيمه بكفاءة. العديد من تقييمات السلامة لأنظمة الذكاء الاصطناعي لها قيود كبيرة، ولن تحل قاعدة بيانات المخاطر هذه المشكلة بالضرورة.
ومع ذلك، يخطط الباحثون في معهد ماساتشوستس للتكنولوجيا للمحاولة. يقول نيل تومسون، رئيس مختبر FutureTech، لـ TechCrunch أن المجموعة تخطط في مرحلتها التالية من البحث لاستخدام المستودع لتقييم مدى معالجة مخاطر الذكاء الاصطناعي المختلفة.
وقال طومسون: “سيساعدنا مستودعنا في الخطوة التالية من بحثنا، عندما نقوم بتقييم مدى معالجة المخاطر المختلفة”. “نحن نخطط لاستخدام هذا لتحديد أوجه القصور في الاستجابات التنظيمية. على سبيل المثال، إذا ركز الجميع على نوع واحد من المخاطر بينما تجاهلوا أنواعًا أخرى ذات أهمية مماثلة، فهذا شيء يجب أن نلاحظه ونتعامل معه.




