Openai Ships GPT-4.1 بدون تقرير السلامة

في يوم الاثنين ، أطلقت Openai عائلة جديدة من طرز الذكاء الاصطناعى ، GPT-4.1 ، والتي قالت الشركة تفوقت على بعض نماذجها الحالية في اختبارات معينة ، وخاصة معايير البرمجة. ومع ذلك ، لم تشحن GPT-4.1 مع تقرير السلامة الذي يصاحب عادة إصدارات نموذج Openai ، والمعروفة باسم النموذج أو بطاقة النظام.
اعتبارًا من صباح الثلاثاء ، لم ينشر Openai تقريرًا عن السلامة لـ GPT-4.1-ويبدو أنه لا يخطط لذلك. في بيان لـ TechCrunch ، قال المتحدث الرسمي باسم Openai Shaokyi Amdo أن “GPT-4.1 ليس نموذجًا للحدود ، لذلك لن تكون هناك بطاقة نظام منفصلة تم إصدارها لها”.
من المعتاد إلى حد ما بالنسبة لـ AI Labs إصدار تقارير السلامة التي توضح أنواع الاختبارات التي أجراها داخليًا ومع شركاء الطرف الثالث لتقييم سلامة نماذج معينة. تكشف هذه التقارير في بعض الأحيان عن معلومات غير متوقعة ، مثل أن النموذج يميل إلى خداع البشر أو هو مقنع بشكل خطير. على العموم ، يرى مجتمع الذكاء الاصطناعي هذه التقارير جهودًا جيدة من قبل AI Labs لدعم الأبحاث المستقلة والجماعات الحمراء.
ولكن على مدار الأشهر القليلة الماضية ، يبدو أن قيادة مختبرات الذكاء الاصطناعى قد خفضت معايير التقارير الخاصة بهم ، مما دفع رد فعل عنيف من باحثي السلامة. قام البعض ، مثل Google ، بسحب أقدامهم على تقارير السلامة ، بينما نشر آخرون تقارير تفتقر إلى التفاصيل المعتادة.
سجل التتبع الأخير لـ Openai ليس استثنائيًا أيضًا. في ديسمبر / كانون الأول ، أثارت الشركة انتقادات لإصدار تقرير للسلامة يحتوي على نتائج معيارية لنموذج مختلف عن الإصدار الذي نشرته في الإنتاج. في الشهر الماضي ، أطلقت Openai نموذجًا ، Deep Research ، قبل أسابيع من نشر بطاقة النظام لهذا النموذج.
أشار ستيفن أدلر ، باحث سابق في سلامة Openai ، إلى TechCrunch أن تقارير السلامة لا يتم تكليفها بأي قانون أو لائحة – إنها طوعية. ومع ذلك ، فقد قدمت Openai العديد من الالتزامات تجاه الحكومات لزيادة الشفافية حول نماذجها. قبل قمة السلامة في المملكة المتحدة في عام 2023 ، Openai في منشور مدونة تسمى بطاقات النظام “جزء رئيسي” من مقاربتها للمساءلة. وذلك قبل قمة عمل باريس AI في عام 2025 ، قال Openai إن بطاقات النظام توفر رؤى قيمة في مخاطر النموذج.
وقال أدلر لـ TechCrunch في رسالة بالبريد الإلكتروني: “بطاقات النظام هي الأداة الرئيسية لصناعة الذكاء الاصطناعى للشفافية ولوصف ما تم إجراء اختبار السلامة”. “إن معايير الشفافية والتزامات اليوم طوعية في نهاية المطاف ، لذلك الأمر متروك لكل شركة منظمة العفو الدولية لتحديد ما إذا كان يتم إصدار بطاقة نظام لنموذج معين أو متى.”
يتم شحن GPT-4.1 بدون بطاقة نظام في وقت يثير فيه الموظفون الحاليون والسابقين مخاوف بشأن ممارسات السلامة في Openai. في الأسبوع الماضي ، قدم Adler و 11 موظفًا آخر من Openai موجزًا مقترحًا في قضية Elon Musk ضد Openai ، بحجة أن Openai قد يهدف إلى قطع الزوايا على أعمال السلامة. ذكرت The Financial Times مؤخرًا أن صانع ChatGpt ، الذي حفزته الضغوط التنافسية ، قد خفض مقدار الوقت والموارد التي يخصصها لمختبري السلامة.
على الرغم من أن النموذج الأكثر قدرة في عائلة GPT-4.1 ، GPT-4.1 ، ليس الأداء الأعلى في قائمة Openai ، إلا أنه يحقق مكاسب كبيرة في أقسام الكفاءة والكمون. أخبر توماس وودسايد ، المؤسس المشارك ومحلل السياسات في مشروع Secure AI ، TechCrunch أن تحسينات الأداء تجعل تقرير السلامة أكثر أهمية. وقال إنه كلما كان النموذج أكثر تطوراً ، كلما زاد المخاطر التي يمكن أن تشكلها.
لقد قاتل العديد من مختبرات الذكاء الاصطناعى الجهود المبذولة لتدوين متطلبات الإبلاغ عن السلامة في القانون. على سبيل المثال ، عارض Openai SB 1047 في كاليفورنيا ، والذي كان سيتطلب من العديد من مطوري الذكاء الاصطناعى مراجعة ونشر تقييمات السلامة على النماذج التي يخرجونها.
طعم وكيف دليل المطاعم والكافيهات دليل المطاعم مدن العالم طعام وشراب مقاهي الرياض أخبار ونصائح دليل الرياض كافيهات الرياض جلسات خارجية دليل مقاهي ومطاعم أفضل كافيهات الرياض عوائل
اكتشاف المزيد من موقع fffm
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.