تقنية

قد “يعدل” Openai ضماناته إذا أطلق المنافسون “AI”


في تحديث لإطار الاستعداد الخاص به ، يستخدم الإطار الداخلي Openai لتحديد ما إذا كانت نماذج الذكاء الاصطناعى آمنة وما هي الضمانات ، إن وجدت ، التي كانت هناك حاجة أثناء التطوير والإفراج ، قال Openai إنه “قد يعدل” متطلباته إذا قامت شركة AI Lab المنافسة بنظام “عالي المخاطر” دون ضمانات قابلة للمقارنة.

يعكس التغيير الضغوط المتزايدة التنافسية على مطوري الذكاء الاصطناعي التجاري لنشر النماذج بسرعة. تم اتهام Openai بتقليل معايير السلامة لصالح الإصدارات الأسرع ، وفشل في تقديم تقارير في الوقت المناسب تفاصيل اختبار السلامة.

ربما توقع النقد ، يدعي Openai أنه لن يجعل هذه التعديلات السياسية هذه خفيفة ، وأنها ستحافظ على ضماناتها في “مستوى أكثر حماية”.

كتب Openai في منشور مدونة تم نشره بعد ظهر يوم الثلاثاء: “إذا قام مطور AI من Frontier AI بإصدار نظام عالي الخطورة دون ضمانات مماثلة ، فقد نعدل متطلباتنا”. “ومع ذلك ، فإننا نؤكد أولاً بدقة أن المشهد المخاطر قد تغير بالفعل ، واعترف علنًا بأننا نقوم بتعديل ، ونقيم أن التعديل لا يزيد بشكل مفيد من خطر الضرر الشديد ، ولا يزال الحفاظ على الضمانات على مستوى أكثر حماية.”

يوضح إطار التأهب المنعش أيضًا أن Openai يعتمد بشكل أكبر على التقييمات الآلية لتسريع تطوير المنتج. تقول الشركة إنه على الرغم من أنها لم تتخلى عن الاختبارات التي يقودها الإنسان تمامًا ، إلا أنها بنيت “مجموعة متزايدة من التقييمات الآلية” التي من المفترض “مواكبة مواكبة [a] أسرع [release] إيقاع.”

بعض التقارير تتناقض مع هذا. وفقًا لصحيفة Financial Times ، أعطى Openai اختبارًا أقل من أسبوع لفحص السلامة لنموذج رئيسي قادم – وهو جدول زمني مضغوط مقارنة بالإصدارات السابقة. زعمت مصادر المنشور أيضًا أن العديد من اختبارات السلامة في Openai يتم إجراؤها الآن على الإصدارات السابقة من النماذج من الإصدارات التي تم إصدارها للجمهور.

في العبارات ، عارض Openai فكرة أنه يتنازل عن السلامة.

تتعلق التغييرات الأخرى على إطار Openai بكيفية تصنيف الشركة للموديلات وفقًا للمخاطر ، بما في ذلك النماذج التي يمكن أن تخفي قدراتها ، وتهرب من الضمانات ، ومنع إيقافها ، وحتى إعادة التكرار الذاتي. يقول Openai إنه سيركز الآن على ما إذا كانت النماذج تلبي واحدة من عتبتين: القدرة “العالية” أو القدرة “الحرجة”.

تعريف Openai للأولى هو نموذج يمكن أن “تضخيم المسارات الحالية إلى ضرر شديد”. هذا الأخير عبارة عن نماذج “تقدم مسارات جديدة غير مسبوقة لأضرار شديدة” ، وفقًا للشركة.

وكتبت Openai في منشور المدونة: “يجب أن يكون للأنظمة المغطاة التي تصل إلى القدرة العالية ضمانات تقلل بما فيه الكفاية من المخاطر المرتبطة بالضرر الشديد قبل نشرها”. “تتطلب الأنظمة التي تصل إلى القدرة الحرجة أيضًا ضمانات تقلل بما فيه الكفاية من المخاطر المرتبطة بها أثناء التطوير.”

التغييرات هي الأولى التي أجراها Openai لإطار الاستعداد منذ عام 2023.


اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading