تقنية

تقوم Anthropic بتعيين قائد سابق للسلامة في OpenAI لرئاسة فريق جديد


انضم جان ليك، الباحث الرائد في مجال الذكاء الاصطناعي والذي استقال في وقت سابق من هذا الشهر من OpenAI قبل أن ينتقد علنًا نهج الشركة فيما يتعلق بسلامة الذكاء الاصطناعي، إلى Anthropic المنافسة لـ OpenAI لقيادة فريق “الاصطفاف الفائق” الجديد.

وفي منشور على X، قال Leike أن فريقه سيركز على جوانب مختلفة من سلامة وأمن الذكاء الاصطناعي، وتحديدًا “الرقابة القابلة للتطوير”، و”التعميم من الضعيف إلى القوي” وأبحاث المواءمة الآلية.

يقول مصدر مطلع على الأمر لـ TechCrunch أن Leike سيقدم تقاريره مباشرة إلى جاريد كابلان، كبير مسؤولي العلوم في Anthropic، وأن الباحثين الأنثروبيين الذين يعملون حاليًا على مراقبة قابلة للتطوير – تقنيات للتحكم في سلوك الذكاء الاصطناعي واسع النطاق بطرق يمكن التنبؤ بها ومرغوبة – سينتقلون إلى الإبلاغ إلى Leike بينما يدور فريق Leike.

من نواحٍ عديدة، يبدو فريق Leike في Anthropic مشابهًا في مهمته لفريق Superalignment الذي تم حله مؤخرًا في OpenAI. كان لدى فريق Superalignment – الذي شاركت لايكي في قيادته – هدف طموح يتمثل في حل التحديات التقنية الأساسية للتحكم في الذكاء الاصطناعي الفائق في السنوات الأربع المقبلة.

حاولت شركة Anthropic في كثير من الأحيان وضع نفسها على أنها أكثر تركيزًا على السلامة من OpenAI.

كان الرئيس التنفيذي لشركة Anthropic، داريو أمودي، هو نائب الرئيس السابق للأبحاث في OpenAI، ويقال إنه انفصل عن OpenAI بعد خلاف حول اتجاه الشركة – أي التركيز التجاري المتزايد لـ OpenAI. أحضر Amodei معه عددًا من موظفي OpenAI بما في ذلك قائد السياسة السابق في OpenAI جاك كلارك.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى