تقنية

OpenAI تشكل فريقًا لدراسة مخاطر الذكاء الاصطناعي “الكارثية”، بما في ذلك التهديدات النووية


أعلنت شركة OpenAI اليوم أنها أنشأت فريقًا جديدًا لتقييم نماذج الذكاء الاصطناعي وتقييمها والتحقيق فيها للحماية مما تصفه بـ “المخاطر الكارثية”.

وسيقود الفريق، المسمى الاستعداد، ألكسندر مادري، مدير مركز معهد ماساتشوستس للتكنولوجيا للتعلم الآلي القابل للنشر. (انضم مادري إلى OpenAI في مايو بصفته “رئيس قسم الاستعداد”، وفقًا لموقع LinkedIn،) وستكون المسؤوليات الرئيسية لقسم الاستعداد هي التتبع والتنبؤ والحماية من مخاطر أنظمة الذكاء الاصطناعي المستقبلية، بدءًا من قدرتها على إقناع البشر وخداعهم (كما هو الحال في التصيد الاحتيالي) الهجمات) لقدراتها الضارة على توليد التعليمات البرمجية.

تبدو بعض فئات المخاطر المرتبطة بالدراسة أكثر… بعيد المنال من غيرها. على سبيل المثال، في منشور مدونة، أدرجت OpenAI التهديدات “الكيميائية والبيولوجية والإشعاعية والنووية” باعتبارها مجالات مثيرة للقلق عندما يتعلق الأمر بنماذج الذكاء الاصطناعي.

يُعد سام ألتمان، الرئيس التنفيذي لشركة OpenAI، أحد المتشائمين المشهورين في مجال الذكاء الاصطناعي، وغالبًا ما يعرب عن مخاوفه – سواء فيما يتعلق بالبصريات أو من منطلق قناعة شخصية – من أن الذكاء الاصطناعي “قد يؤدي إلى انقراض الإنسان”. ولكن قد يكون من الممكن إرسال برقية إلى OpenAI في الحقيقة إن تخصيص الموارد لدراسة السيناريوهات المأخوذة مباشرة من روايات الخيال العلمي البائسة هو خطوة أبعد مما توقعه هذا الكاتب بصراحة.

وتقول الشركة إنها منفتحة على دراسة المجالات “الأقل وضوحًا” – والأكثر رسوخًا – المتعلقة بمخاطر الذكاء الاصطناعي أيضًا. بالتزامن مع إطلاق فريق الاستعداد، تطلب OpenAI أفكارًا لدراسات المخاطر من المجتمع، مع جائزة قدرها 25000 دولار ووظيفة في مجال الاستعداد على الإنترنت لأفضل عشرة طلبات مقدمة.

“تخيل أننا منحناك وصولاً غير مقيد إلى نماذج OpenAI’s Whisper (النسخ)، والصوت (تحويل النص إلى كلام)، وGPT-4V، وDALLE·3، وكنت ممثلًا خبيثًا”، كما جاء في أحد الأسئلة في إدخال المسابقة. . “فكر في إساءة استخدام النموذج الأكثر تفردًا، رغم أنه لا يزال محتملاً، وربما كارثيًا.”

تقول OpenAI إن فريق الاستعداد سيكون مكلفًا أيضًا بصياغة “سياسة تطوير مستنيرة للمخاطر”، والتي ستوضح بالتفصيل نهج OpenAI لبناء تقييمات نماذج الذكاء الاصطناعي وأدوات المراقبة، وإجراءات الشركة لتخفيف المخاطر وهيكل الإدارة الخاص بها للرقابة عبر النموذج. عمليات التطوير. وتقول الشركة إنها تهدف إلى استكمال أعمال OpenAI الأخرى في مجال سلامة الذكاء الاصطناعي. التركيز على مرحلتي نشر النموذج ما قبل وما بعده.

“نحن نعتقد أن… نماذج الذكاء الاصطناعي، التي ستتجاوز القدرات الموجودة حاليًا في النماذج الحالية الأكثر تقدمًا، لديها القدرة على إفادة البشرية جمعاء،” كتب OpenAI في منشور المدونة المذكور أعلاه. “لكنها تشكل أيضًا مخاطر شديدة بشكل متزايد… نحن بحاجة إلى التأكد من أن لدينا الفهم والبنية التحتية اللازمة لسلامة أنظمة الذكاء الاصطناعي ذات القدرة العالية.”

الكشف عن الاستعداد – خلال قمة كبرى لحكومة المملكة المتحدة حول سلامة الذكاء الاصطناعي، وليس من قبيل الصدفة – يأتي بعد أن أعلنت شركة OpenAI أنها ستشكل فريقا لدراسة وتوجيه والسيطرة على الأشكال الناشئة من الذكاء الاصطناعي “الفائق الذكاء”. إنه اعتقاد ألتمان – إلى جانب اعتقاد إيليا سوتسكيفر، كبير العلماء في OpenAI والمؤسس المشارك – أن الذكاء الاصطناعي الذي يتمتع بذكاء يتجاوز ذكاء البشر يمكن أن يصل في غضون عقد من الزمن، وأن هذا الذكاء الاصطناعي لن يكون بالضرورة خيرًا – مما يستلزم البحث في طرق للحد منه وتقييده.


اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading