تقنية

تعلن شركة OpenAI عن فريق لبناء أفكار حوكمة “مجمعة المصدر” في نماذجها


تقول OpenAI إنها تريد تنفيذ أفكار الجمهور حول كيفية ضمان أن نماذج الذكاء الاصطناعي المستقبلية الخاصة بها “تتوافق مع قيم الإنسانية”.

ولتحقيق هذه الغاية، تعمل شركة الذكاء الاصطناعي الناشئة على تشكيل فريق محاذاة جماعية جديد من الباحثين والمهندسين لإنشاء فريق عمل جماعي أعلنت الشركة اليوم عن نظام لجمع و”ترميز” المدخلات العامة حول سلوكيات نماذجها في منتجات وخدمات OpenAI.

كتب OpenAI: “سنواصل العمل مع المستشارين الخارجيين وفرق المنح، بما في ذلك تشغيل الطيارين لدمج … النماذج الأولية في توجيه نماذجنا”.في مشاركة مدونة. “كان توظيف… مهندسي أبحاث من خلفيات تقنية متنوعة للمساعدة في بناء هذا العمل معنا.

يعد فريق المحاذاة الجماعية ثمرة لبرنامج OpenAI العام، الذي تم إطلاقه في شهر مايو الماضي، لمنح المنح لتمويل التجارب في إنشاء “عملية ديمقراطية” لتحديد القواعد التي يجب أن تتبعها أنظمة الذكاء الاصطناعي. قال OpenAI في أول ظهور له إن الهدف من البرنامج هو تمويل الأفراد والفرق والمنظمات لتطوير إثبات المفاهيم التي يمكن أن تجيب على أسئلة حول حواجز الحماية والحوكمة للذكاء الاصطناعي.

في منشور مدونتها اليوم، استعرضت OpenAI عمل المستفيدين من المنح، الذين قاموا بإدارة سلسلة كاملة من واجهات الدردشة المرئية إلى منصات للتدقيق الجماعي لنماذج الذكاء الاصطناعي و”نهج لتعيين المعتقدات للأبعاد التي يمكن استخدامها لضبط سلوك النموذج. ” تم الإعلان عن جميع التعليمات البرمجية المستخدمة في عمل الحاصلين على المنح هذا الصباح، إلى جانب ملخصات مختصرة لكل مقترح ومعلومات سريعة عالية المستوى.

حاولت شركة OpenAI تصوير البرنامج على أنه منفصل عن مصالحه التجارية. ولكن هذا أمر يصعب استيعابه، نظرًا لانتقادات الرئيس التنفيذي لشركة OpenAI، سام ألتمان، للتنظيم في الاتحاد الأوروبي وأماكن أخرى. لقد جادل ألتمان، جنبًا إلى جنب مع رئيس OpenAI جريج بروكمان وكبير العلماء إيليا سوتسكيفر، مرارًا وتكرارًا بأن وتيرة الابتكار في الذكاء الاصطناعي سريعة جدًا لدرجة أننا لا نستطيع أن نتوقع من السلطات الحالية كبح جماح التكنولوجيا بشكل مناسب – ومن هنا الحاجة إلى الاستعانة بمصادر خارجية للعمل.

وقد اتهم بعض منافسي شركة OpenAI، بما في ذلك شركة Meta، شركة OpenAI (من بين شركات أخرى) بمحاولة تأمين “السيطرة التنظيمية على صناعة الذكاء الاصطناعي” من خلال الضغط ضد البحث والتطوير المفتوح في مجال الذكاء الاصطناعي. ومن غير المستغرب أن تنفي شركة OpenAI ذلك، ومن المرجح أن تشير إلى برنامج المنح (وفريق المحاذاة الجماعية) كمثال على “انفتاحها”.

تخضع شركة OpenAI لتدقيق متزايد من صانعي السياسات على أي حال، وتواجه تحقيقًا في المملكة المتحدة بشأن علاقتها مع الشريك والمستثمر الوثيق مايكروسوفت. سعت الشركة الناشئة مؤخرًا إلى تقليص مخاطرها التنظيمية في الاتحاد الأوروبي فيما يتعلق بخصوصية البيانات، والاستفادة من شركة فرعية مقرها دبلن لتقليل قدرة بعض هيئات مراقبة الخصوصية في الكتلة على التصرف من جانب واحد بشأن المخاوف.

بالأمس – جزئيًا لتهدئة المنظمين، بلا شك – أعلنت OpenAI أنها تعمل مع المنظمات لمحاولة الحد من الطرق التي يمكن من خلالها استخدام تقنيتها للتأثير على الانتخابات أو التأثير عليها من خلال وسائل ضارة. تتضمن جهود الشركة الناشئة جعل الأمر أكثر وضوحًا عندما يتم إنشاء الصور بواسطة الذكاء الاصطناعي باستخدام أدواتها وتطوير الأساليب لتحديد المحتوى الذي تم إنشاؤه حتى بعد تعديل الصور.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى