تقنية

تتطلع شركة Anthropic إلى تمويل جيل جديد أكثر شمولاً من معايير الذكاء الاصطناعي


تطلق شركة Anthropic برنامجًا لتمويل تطوير أنواع جديدة من المعايير القادرة على تقييم أداء وتأثير نماذج الذكاء الاصطناعي، بما في ذلك النماذج التوليدية مثل نموذج Claude الخاص بها.

تم الكشف عن برنامج Anthropic يوم الاثنين، وسيقوم بتوزيع المنح لمؤسسات خارجية يمكنها، كما تقول الشركة في منشور بالمدونة، “قياس القدرات المتقدمة في نماذج الذكاء الاصطناعي بشكل فعال”. يمكن للمهتمين تقديم الطلبات ليتم تقييمها على أساس متجدد.

كتبت Anthropic في مدونتها الرسمية: “يهدف استثمارنا في هذه التقييمات إلى الارتقاء بمجال سلامة الذكاء الاصطناعي بأكمله، وتوفير أدوات قيمة تعود بالنفع على النظام البيئي بأكمله”. “إن تطوير تقييمات عالية الجودة وذات صلة بالسلامة لا يزال يمثل تحديًا، والطلب يفوق العرض.”

كما أوضحنا من قبل، يواجه الذكاء الاصطناعي مشكلة في المقارنة المعيارية. إن المعايير الأكثر شيوعًا للذكاء الاصطناعي اليوم لا تقوم بعمل جيد في التقاط كيفية استخدام الشخص العادي للأنظمة التي يتم اختبارها فعليًا. هناك أيضًا تساؤلات حول ما إذا كانت بعض المعايير، وخاصة تلك التي تم إصدارها قبل فجر الذكاء الاصطناعي التوليدي الحديث، تقيس حتى ما تهدف إلى قياسه، بالنظر إلى عمرها.

الحل عالي المستوى والأصعب مما يبدو الذي تقترحه Anthropic هو إنشاء معايير صعبة مع التركيز على أمن الذكاء الاصطناعي والآثار المجتمعية عبر أدوات وبنية تحتية وأساليب جديدة.

وتدعو الشركة على وجه التحديد إلى إجراء اختبارات لتقييم قدرة النموذج على إنجاز مهام مثل تنفيذ هجمات إلكترونية، و”تعزيز” أسلحة الدمار الشامل (مثل الأسلحة النووية) والتلاعب بالناس أو خداعهم (على سبيل المثال، من خلال التزييف العميق أو المعلومات المضللة). بالنسبة لمخاطر الذكاء الاصطناعي المتعلقة بالأمن القومي والدفاع، تقول شركة Anthropic إنها ملتزمة بتطوير “نظام إنذار مبكر” من نوع ما لتحديد المخاطر وتقييمها، على الرغم من أنها لا تكشف في منشور المدونة عما قد يستلزمه مثل هذا النظام.

تقول أنثروبيك أيضًا إنها تعتزم أن يدعم برنامجها الجديد البحث في المعايير والمهام “الشاملة” التي تستكشف إمكانات الذكاء الاصطناعي للمساعدة في الدراسة العلمية، والتحدث بلغات متعددة، وتخفيف التحيزات المتأصلة، فضلاً عن سمية الرقابة الذاتية.

ولتحقيق كل هذا، تتصور أنثروبيك منصات جديدة تسمح للخبراء المتخصصين بتطوير تقييماتهم الخاصة وتجارب واسعة النطاق للنماذج التي تشمل “الآلاف” من المستخدمين. وتقول الشركة إنها عينت منسقًا متفرغًا للبرنامج وأنها قد تشتري أو توسع مشاريع تعتقد أن لديها القدرة على التوسع.

“نحن نقدم مجموعة من خيارات التمويل المصممة خصيصًا لتلبية احتياجات ومرحلة كل مشروع،” كتبت أنثروبيك في المنشور، على الرغم من رفض متحدث باسم أنثروبيك تقديم أي تفاصيل أخرى حول هذه الخيارات. “ستتاح للفرق الفرصة للتفاعل مباشرة مع خبراء مجال Anthropic من الفريق الأحمر الحدودي والضبط الدقيق والثقة والسلامة والفرق الأخرى ذات الصلة.”

إن جهود Anthropic لدعم معايير الذكاء الاصطناعي الجديدة هي جهود جديرة بالثناء، على افتراض وجود ما يكفي من المال والقوى العاملة وراءها. ولكن بالنظر إلى الطموحات التجارية للشركة في سباق الذكاء الاصطناعي، فقد يكون من الصعب الثقة بها تمامًا.

في منشور المدونة، كانت Anthropic شفافة إلى حد ما بشأن حقيقة أنها تريد أن تتماشى تقييمات معينة تمولها مع تصنيفات أمان الذكاء الاصطناعي هو – هي تم تطويره (مع بعض المدخلات من أطراف ثالثة مثل منظمة أبحاث الذكاء الاصطناعي غير الربحية METR). وهذا ضمن صلاحيات الشركة. ولكنه قد يجبر أيضًا المتقدمين للبرنامج على قبول تعريفات الذكاء الاصطناعي “الآمن” أو “المحفوف بالمخاطر” والتي قد لا يتفقون عليها تمامًا.

ومن المرجح أيضًا أن يعترض جزء من مجتمع الذكاء الاصطناعي على إشارات الأنثروبيك إلى مخاطر الذكاء الاصطناعي “الكارثية” و”الخادعة”، مثل مخاطر الأسلحة النووية. يقول العديد من الخبراء أن هناك القليل من الأدلة التي تشير إلى أن الذكاء الاصطناعي، كما نعلم، سيكتسب قدرات عالمية متفوقة على الإنسان في أي وقت قريب، هذا إن حصل. ويضيف هؤلاء الخبراء أن ادعاءات “الذكاء الفائق” الوشيك لا تؤدي إلا إلى لفت الانتباه بعيدًا عن القضايا التنظيمية الملحة للذكاء الاصطناعي في يومنا هذا، مثل الميول الهلوسة للذكاء الاصطناعي.

كتبت Anthropic في منشورها أنها تأمل أن يكون برنامجها بمثابة “حافز للتقدم نحو مستقبل يكون فيه التقييم الشامل للذكاء الاصطناعي معيارًا صناعيًا”. هذه هي المهمة التي يمكن للعديد من الجهود المفتوحة وغير المنتسبة للشركات لإنشاء معايير أفضل للذكاء الاصطناعي أن تتفق معها. ولكن يبقى أن نرى ما إذا كانت هذه الجهود على استعداد لتوحيد جهودها مع بائع الذكاء الاصطناعي الذي يقع ولاءه في نهاية المطاف على عاتق المساهمين.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى