تقنية

هذا الأسبوع في الذكاء الاصطناعي: لماذا يغير برنامج OpenAI لعبة تنظيم الذكاء الاصطناعي؟


مرحبًا يا رفاق، مرحبًا بكم في النشرة الإخبارية المنتظمة للذكاء الاصطناعي الخاصة بـ TechCrunch. إذا كنت تريد أن يصل هذا إلى بريدك الوارد كل يوم أربعاء، فقم بالتسجيل هنا.

لقد مرت بضعة أيام فقط منذ أن كشفت OpenAI عن أحدث طرازاتها الرائدة، o1، للعالم. يتم تسويقه كنموذج “استدلالي”، حيث يستغرق o1 وقتًا أطول في “التفكير” في الأسئلة قبل الإجابة عليها، وتفكيك المشكلات والتحقق من إجاباته.

هناك الكثير من الأشياء التي لا يستطيع القيام بها بشكل جيد، وOpenAI نفسها تعترف بذلك. ولكن في بعض المهام، مثل الفيزياء والرياضيات، يتفوق o1 على الرغم من أنه لا يحتوي بالضرورة على معلمات أكثر من نموذج OpenAI السابق الأفضل أداءً، GPT-4o. (في الذكاء الاصطناعي والتعلم الآلي، تتوافق “المعلمات”، التي عادة ما تكون بالمليارات، تقريبًا مع مهارات حل المشكلات الخاصة بالنموذج.)

وهذا له آثار على تنظيم الذكاء الاصطناعي.

على سبيل المثال، يفرض مشروع القانون المقترح في ولاية كاليفورنيا SB 1047 متطلبات السلامة على نماذج الذكاء الاصطناعي التي تكلف تطويرها أكثر من 100 مليون دولار أو تم تدريبها باستخدام القوة الحاسوبية بما يتجاوز عتبة معينة. ومع ذلك، توضح نماذج مثل o1 أن توسيع نطاق حوسبة التدريب ليس هو الطريقة الوحيدة لتحسين أداء النموذج.

في منشور على X، افترض جيم فان، مدير أبحاث Nvidia، أن أنظمة الذكاء الاصطناعي المستقبلية قد تعتمد على “مراكز استدلال” صغيرة وسهلة التدريب بدلاً من البنى كثيفة التدريب (على سبيل المثال، Meta’s Llama 405B) التي كانت الاتجاه في الآونة الأخيرة. ويشير إلى أن الدراسات الأكاديمية الحديثة أظهرت أن النماذج الصغيرة مثل o1 يمكن أن تتفوق بشكل كبير على النماذج الكبيرة إذا أعطيت مزيدًا من الوقت للإجابة على الأسئلة.

إذن، هل كان من قصر النظر أن يربط صناع السياسات التدابير التنظيمية للذكاء الاصطناعي بالحوسبة؟ نعم، تقول سارة هوكر، رئيسة مختبر أبحاث شركة كوهير الناشئة للذكاء الاصطناعي، في مقابلة مع موقع TechCrunch:

[o1] نوع ما يشير إلى مدى عدم اكتمال وجهة النظر هذه، باستخدام حجم النموذج كبديل للمخاطر. لا يأخذ في الاعتبار كل ما يمكنك فعله بالاستدلال أو تشغيل النموذج. بالنسبة لي، فهو عبارة عن مزيج من العلوم السيئة المقترنة بالسياسات التي لا تركز على المخاطر الحالية التي نراها في العالم الآن، بل على المخاطر المستقبلية.

الآن، هل هذا يعني أنه يجب على المشرعين انتزاع مشاريع قوانين الذكاء الاصطناعي من أسسها والبدء من جديد؟ كلا، فقد تمت كتابة العديد منها بحيث تكون قابلة للتعديل بسهولة، على افتراض أن الذكاء الاصطناعي سوف يتطور إلى ما هو أبعد من مجرد سنها. على سبيل المثال، من شأن مشروع قانون ولاية كاليفورنيا أن يمنح وكالة العمليات الحكومية بالولاية سلطة إعادة تحديد حدود الحساب التي تؤدي إلى متطلبات السلامة التي يفرضها القانون.

الجزء الصعب المعترف به هو معرفة المقياس يمكن أن يكون وكيل أفضل للمخاطر من حساب التدريب. مثل العديد من الجوانب الأخرى لتنظيم الذكاء الاصطناعي، فهو أمر يجب التفكير فيه بينما تتجه مشاريع القوانين في جميع أنحاء الولايات المتحدة – والعالم – نحو الإقرار.

أخبار

اعتمادات الصورة: ديفيد بول موريس / بلومبرج / جيتي إيماجيس

ردود الفعل الأولى على o1: حصل ماكس على انطباعات أولية من باحثي الذكاء الاصطناعي، ومؤسسي الشركات الناشئة، ورأس المال المغامر على o1 – واختبر النموذج بنفسه.

ألتمان يغادر لجنة السلامة: استقال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من لجنة الشركة الناشئة المسؤولة عن مراجعة سلامة النماذج مثل o1، وذلك على الأرجح ردًا على مخاوف من أنه لن يتصرف بشكل محايد.

يتحول Slack إلى مركز وكيل: في مؤتمر Dreamforce السنوي للشركة الأم Salesforce، أعلنت Slack عن ميزات جديدة، بما في ذلك ملخصات الاجتماعات التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتكامل مع أدوات إنشاء الصور وعمليات البحث على الويب المستندة إلى الذكاء الاصطناعي.

تبدأ Google في وضع علامة على صور الذكاء الاصطناعي: تقول جوجل إنها تخطط لطرح تغييرات على بحث جوجل لتوضيح الصور في النتائج التي تم إنشاؤها بواسطة الذكاء الاصطناعي – أو تحريرها بواسطة أدوات الذكاء الاصطناعي.

تطلق ميسترال طبقة مجانية: أطلقت شركة Mistral الفرنسية الناشئة للذكاء الاصطناعي طبقة مجانية جديدة للسماح للمطورين بضبط وبناء تطبيقات الاختبار باستخدام نماذج الذكاء الاصطناعي الخاصة بالشركة الناشئة.

Snap يطلق مولد فيديو: في قمة Snap Partner السنوية التي عُقدت يوم الثلاثاء، أعلنت Snapchat أنها ستقدم أداة جديدة لإنشاء الفيديو بتقنية الذكاء الاصطناعي للمبدعين. ستسمح الأداة لمنشئي محتوى محددين بإنشاء مقاطع فيديو بتقنية الذكاء الاصطناعي من المطالبات النصية، وقريبًا من المطالبات الصورية.

إنتل توقع صفقة شرائح كبرى: تقول Intel إنها ستشارك في تطوير شريحة AI مع AWS باستخدام عملية تصنيع شريحة 18A من Intel. ووصفت الشركتان الصفقة بأنها “إطار عمل متعدد السنوات بمليارات الدولارات” يمكن أن يتضمن تصميمات إضافية للرقائق.

برنامج أوبرا الخاص بالذكاء الاصطناعي: بثت أوبرا وينفري عرضًا خاصًا عن الذكاء الاصطناعي مع ضيوف مثل سام ألتمان من OpenAI، وبيل جيتس من مايكروسوفت، والمؤثر التكنولوجي ماركيز براونلي، ومدير مكتب التحقيقات الفيدرالي الحالي كريستوفر راي.

ورقة بحثية للأسبوع

نحن نعلم أن الذكاء الاصطناعي يمكن أن يكون مقنعًا، ولكن هل يمكنه انتشال شخص ما من جحر المؤامرة؟ حسنا، ليس كل شيء في حد ذاته. لكن نموذج جديد من كوستيلو وآخرون. في معهد ماساتشوستس للتكنولوجيا وكورنيل يمكن أن يحدثوا تغييرا في المعتقدات حول المؤامرات غير الحقيقية التي تستمر لمدة شهرين على الأقل.

في التجربة، كان لديهم أشخاص يؤمنون بالتصريحات المتعلقة بالمؤامرة (على سبيل المثال، “11 سبتمبر كانت وظيفة داخلية”) يتحدثون مع برنامج الدردشة الذي يقدم أدلة مضادة لحججهم بلطف وصبر وبشكل لا نهاية له. قادت هذه المحادثات البشر المشاركين إلى الإعلان عن انخفاض بنسبة 20% في الاعتقاد المرتبط بها بعد شهرين، على الأقل بقدر ما يمكن قياس هذه الأشياء. فيما يلي مثال على إحدى المحادثات الجارية:

من غير المرجح أن يتشاور المتعمقون في مؤامرات الزواحف والدولة العميقة مع ذكاء اصطناعي كهذا أو يصدقوه، لكن هذا النهج يمكن أن يكون أكثر فعالية إذا تم استخدامه في منعطف حرج مثل أول غزوة للشخص في هذه النظريات. على سبيل المثال، إذا بحث أحد المراهقين عن “هل يمكن لوقود الطائرات أن يذيب العوارض الفولاذية؟” قد يواجهون لحظة تعلم بدلاً من لحظة مأساوية.

نموذج الاسبوع

إنه ليس نموذجًا، ولكنه يتعلق بالنماذج: نشر الباحثون في Microsoft هذا الأسبوع معيارًا للذكاء الاصطناعي يسمى Eureka يهدف (على حد تعبيرهم) إلى “توسيع نطاق العمل” [model] التقييمات…بطريقة منفتحة وشفافة.”

معايير الذكاء الاصطناعي هي عشرة سنتات. إذًا ما الذي يجعل يوريكا مختلفة؟ حسنًا، يقول الباحثون إنه بالنسبة إلى Eureka – التي هي في الواقع مجموعة من المعايير الحالية – فقد اختاروا المهام التي لا تزال تمثل تحديًا “حتى للنماذج الأكثر قدرة”. على وجه التحديد، اختبارات Eureka للقدرات التي غالبًا ما يتم تجاهلها في معايير الذكاء الاصطناعي، مثل مهارات التنقل البصري المكاني.

لإظهار مدى صعوبة Eureka بالنسبة للنماذج، اختبر الباحثون الأنظمة، بما في ذلك Anthropic’s Claude، وOpenAI’s GPT-4o، وMeta’s Llama، على المعيار المعياري. لم يسجل أي نموذج نتائج جيدة في جميع اختبارات يوريكا، الأمر الذي يقول الباحثون إنه يؤكد أهمية “الابتكار المستمر” و”التحسينات المستهدفة” للنماذج.

الاستيلاء على حقيبة

وفي انتصار للممثلين المحترفين، أصدرت ولاية كاليفورنيا قانونين، AB 2602 وAB 1836، يقيدان استخدام النسخ المتماثلة الرقمية للذكاء الاصطناعي.

يتطلب التشريع، الذي دعمته نقابة فناني الأداء SAG-AFTRA، أن تقدم الشركات التي تعتمد على النسخة الرقمية المتماثلة لفناني الأداء (على سبيل المثال، الصوت أو الصورة المستنسخة) وصفًا “محددًا بشكل معقول” للاستخدام المقصود للنسخة المتماثلة والتفاوض مع فنان الأداء. مستشار قانوني أو نقابة عمالية. ويتطلب أيضًا أن يحصل أصحاب العمل في مجال الترفيه على موافقة تركة المؤدي المتوفى قبل استخدام نسخة رقمية طبق الأصل من ذلك الشخص.

وكما أشارت صحيفة هوليوود ريبورتر في تغطيتها، فإن مشاريع القوانين تقنن المفاهيم التي ناضلت من أجلها SAG-AFTRA في إضرابها الذي استمر 118 يومًا العام الماضي مع الاستوديوهات ومنصات البث الرئيسية. كاليفورنيا هي الولاية الثانية بعد ولاية تينيسي التي تفرض قيودًا على استخدام صور الممثلين الرقميين؛ قامت SAG-AFTRA أيضًا برعاية جهود تينيسي.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى