تقنية

تتكون لجنة السلامة الجديدة في OpenAI من جميع المطلعين


في ضوء الانتقادات حول نهجها تجاه سلامة الذكاء الاصطناعي، شكلت OpenAI لجنة جديدة للإشراف على قرارات السلامة والأمن “الحاسمة” المتعلقة بمشاريع الشركة وعملياتها. ولكن، في خطوة من المؤكد أنها ستثير حفيظة علماء الأخلاق، اختارت شركة OpenAI تعيين اللجنة حصريًا من المطلعين على بواطن الأمور في الشركة – بما في ذلك سام ألتمان، الرئيس التنفيذي لشركة OpenAI – بدلاً من المراقبين الخارجيين.

ألتمان وبقية أعضاء لجنة السلامة والأمن – أعضاء مجلس إدارة OpenAI بريت تايلور وآدم دانجيلو ونيكول سيليجمان بالإضافة إلى كبير العلماء جاكوب باتشوكي وألكسندر مادري (الذي يقود فريق “الاستعداد” في OpenAI)، وليليان ونغ (رئيس قسم السلامة) أنظمة)، ومات نايت (رئيس قسم الأمن) وجون شولمان (رئيس قسم “علم المحاذاة”) – سيكونون مسؤولين عن تقييم عمليات OpenAI والضمانات على مدار التسعين يومًا القادمة، وفقًا لما جاء في منشور على المدونة الرسمية للشركة. ستقوم اللجنة بعد ذلك بمشاركة نتائجها وتوصياتها مع مجلس إدارة OpenAI الكامل للمراجعة، وعندها ستنشر تحديثًا لأي اقتراحات معتمدة “بطريقة تتفق مع السلامة والأمن”.

“لقد بدأت OpenAI مؤخرًا في تدريب نموذجها الحدودي التالي ونتوقع أن تنقلنا الأنظمة الناتجة إلى المستوى التالي من القدرات في طريقنا إلى [artificial general intelligence,]”، يكتب OpenAI. “بينما نحن فخورون ببناء وإصدار نماذج رائدة في الصناعة من حيث القدرات والسلامة، فإننا نرحب بالنقاش القوي في هذه اللحظة المهمة.”

شهدت شركة OpenAI على مدى الأشهر القليلة الماضية العديد من حالات الخروج البارزة عن جانب السلامة لفريقها الفني – وقد أعرب بعض هؤلاء الموظفين السابقين عن مخاوفهم بشأن ما يرون أنه إلغاء متعمد للأولويات لسلامة الذكاء الاصطناعي.

استقال دانييل كوكوتايلو، الذي عمل في فريق الحوكمة في OpenAI، في إبريل/نيسان بعد أن فقد الثقة في أن OpenAI سوف “تتصرف بمسؤولية” حول إطلاق الذكاء الاصطناعي ذو القدرات المتزايدة، كما كتب في منشور في مدونته الشخصية. كما غادر إيليا سوتسكيفر، أحد مؤسسي شركة OpenAI وكبير العلماء السابق في الشركة، في مايو/أيار بعد معركة مطولة مع ألتمان وحلفاء ألتمان – ويُقال إن ذلك يرجع جزئيًا إلى اندفاع ألتمان لإطلاق منتجات تعمل بالذكاء الاصطناعي على حساب أعمال السلامة.

في الآونة الأخيرة، استقال جان ليك، وهو باحث سابق في DeepMind والذي شارك أثناء عمله في OpenAI في تطوير ChatGPT وInstructGPT التي سبقت ChatGPT، من دوره البحثي في ​​مجال السلامة، قائلًا في سلسلة من المنشورات على X إنه يعتقد أن OpenAI “لم تكن كذلك”. “على المسار الصحيح” لحل المشكلات المتعلقة بأمن الذكاء الاصطناعي وسلامته “بشكل صحيح”. رددت الباحثة في سياسات الذكاء الاصطناعي جريتشن كروجر، التي غادرت OpenAI الأسبوع الماضي، تصريحات لايكي، داعية الشركة إلى تحسين مساءلتها وشفافيتها و”الرعاية التي يتم بها التعامل مع هذا الأمر”. [it uses its] التكنولوجيا الخاصة.”

تشير كوارتز إلى أنه، إلى جانب سوتسكيفر وكوكوتاجلو ولايكي وكروجر، فقد استقال ما لا يقل عن خمسة من موظفي OpenAI الأكثر وعيًا بالسلامة أو تم طردهم منذ أواخر العام الماضي، بما في ذلك عضوي مجلس إدارة OpenAI السابقين هيلين تونر وتاشا ماكولي. في مقال افتتاحي لمجلة The Economist نُشر يوم الأحد، كتب تونر وماكولي أنه – مع وجود ألتمان على رأس الشركة – لا يعتقدان أن OpenAI يمكن الوثوق بها لمحاسبة نفسها.

“[B]وقال تونر ومكولي: “بناء على تجربتنا، نعتقد أن الحكم الذاتي لا يمكنه تحمل ضغوط حوافز الربح بشكل موثوق”.

بالنسبة إلى وجهة نظر تونر وماكولي، أفاد موقع TechCrunch في وقت سابق من هذا الشهر أن فريق OpenAI’s Superalignment، المسؤول عن تطوير طرق للتحكم وتوجيه أنظمة الذكاء الاصطناعي “فائقة الذكاء”، حصل على وعود بنسبة 20% من الموارد الحاسوبية للشركة – ولكن نادرًا ما حصل على جزء صغير من ذلك. تم حل فريق Superalignment منذ ذلك الحين، ووُضع الكثير من عمله تحت إشراف شولمان ومجموعة استشارية للسلامة OpenAI تم تشكيلها في ديسمبر.

لقد دافع OpenAI عن تنظيم الذكاء الاصطناعي. وفي الوقت نفسه، بذلت جهودًا لتشكيل هذا التنظيم، وتوظيف جماعات ضغط داخلية وجماعات ضغط في عدد متزايد من مكاتب المحاماة، وإنفاق مئات الآلاف على جماعات الضغط الأمريكية في الربع الرابع من عام 2023 وحده. ومؤخراً، أعلنت وزارة الأمن الداخلي الأميركية أن ألتمان سيكون من بين أعضاء مجلس سلامة وأمن الذكاء الاصطناعي الذي تم تشكيله حديثاً، والذي سيقدم توصيات “لتطوير ونشر الذكاء الاصطناعي بشكل آمن ومأمون” في مختلف أنحاء البنية التحتية الحيوية في الولايات المتحدة.

في محاولة لتجنب ظهور ورقة التوت الأخلاقية مع لجنة السلامة والأمن التي يهيمن عليها المسؤولون التنفيذيون، تعهدت OpenAI بالاحتفاظ بخبراء خارجيين في مجال “السلامة والأمن والتقنية” لدعم عمل اللجنة، بما في ذلك المخضرم في مجال الأمن السيبراني روب جويس و المسؤول السابق بوزارة العدل الأمريكية جون كارلين. ومع ذلك، باستثناء جويس وكارلين، لم تقم الشركة بتفصيل حجم أو تشكيل مجموعة الخبراء الخارجية هذه – كما أنها لم تسلط الضوء على حدود قوة المجموعة وتأثيرها على اللجنة.

في منشور على موقع X، يشير كاتب العمود في بلومبرج بارمي أولسون إلى أن مجالس الرقابة على الشركات مثل لجنة السلامة والأمن، على غرار مجالس الرقابة على الذكاء الاصطناعي في Google مثل المجلس الاستشاري الخارجي للتكنولوجيا المتقدمة، “[do] لا شيء تقريبًا في طريق الرقابة الفعلية. ومن المثير للاهتمام أن OpenAI تقول إنها تتطلع إلى معالجة “الانتقادات الصحيحة” لعملها من خلال اللجنة – “الانتقادات الصحيحة” تقع في عين الناظر بالطبع.

ذات يوم وعد ألتمان بأن الغرباء سوف يلعبون دوراً مهماً في حوكمة شركة OpenAI. وفي مقال نشر عام 2016 في مجلة نيويوركر، قال إن OpenAI سوف “[plan] طريقة للسماح لقطاعات واسعة من العالم بانتخاب ممثلين في … مجلس الإدارة”. لم يحدث ذلك مطلقًا، ويبدو من غير المرجح أن يحدث ذلك في هذه المرحلة.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى