تقنية

هذا الأسبوع في الذكاء الاصطناعي: OpenAI يبتعد عن الأمان


إن مواكبة صناعة سريعة الحركة مثل الذكاء الاصطناعي أمر صعب. لذا، إلى أن يتمكن الذكاء الاصطناعي من القيام بذلك نيابةً عنك، إليك ملخصًا مفيدًا للقصص الحديثة في عالم التعلم الآلي، إلى جانب الأبحاث والتجارب البارزة التي لم نغطيها بمفردنا.

بالمناسبة، تخطط TechCrunch لإطلاق نشرة إخبارية خاصة بالذكاء الاصطناعي قريبًا. ابقوا متابعين. في هذه الأثناء، نعمل على زيادة إيقاع عمود الذكاء الاصطناعي شبه المنتظم لدينا، والذي كان في السابق مرتين في الشهر (أو نحو ذلك)، إلى أسبوعي – لذا ترقب المزيد من الإصدارات.

هذا الأسبوع في مجال الذكاء الاصطناعي، هيمنت OpenAI مرة أخرى على دورة الأخبار (على الرغم من الجهود الحثيثة التي بذلتها Google) من خلال إطلاق المنتج، ولكن أيضًا مع بعض المؤامرات. كشفت الشركة النقاب عن GPT-4o، وهو نموذجها التوليدي الأكثر قدرة حتى الآن، وبعد أيام قليلة قامت فعليًا بحل فريق يعمل على مشكلة تطوير عناصر التحكم لمنع أنظمة الذكاء الاصطناعي “فائقة الذكاء” من أن تصبح مارقة.

أثار تفكيك الفريق الكثير من العناوين الرئيسية، كما كان متوقعًا. تشير التقارير – بما في ذلك تقاريرنا – إلى أن OpenAI قللت من أولوية أبحاث السلامة الخاصة بالفريق لصالح إطلاق منتجات جديدة مثل GPT-4o المذكور أعلاه، مما أدى في النهاية إلى استقالة قائدي الفريق المشاركين، جان ليك والمؤسس المشارك لـ OpenAI إيليا سوتسكيفر.

يعتبر الذكاء الاصطناعي الفائق نظريًا أكثر منه حقيقيًا في هذه المرحلة؛ ليس من الواضح متى – أو ما إذا كانت – صناعة التكنولوجيا ستحقق الاختراقات اللازمة لإنشاء ذكاء اصطناعي قادر على إنجاز أي مهمة يستطيع الإنسان إنجازها. لكن يبدو أن التغطية الإخبارية لهذا الأسبوع تؤكد شيئًا واحدًا: أن قيادة OpenAI – وخاصة الرئيس التنفيذي سام ألتمان – اختارت بشكل متزايد إعطاء الأولوية للمنتجات على الضمانات.

يقال إن ألتمان “أثار غضب” Sutskever من خلال الإسراع في إطلاق ميزات مدعومة بالذكاء الاصطناعي في مؤتمر التطوير الأول لـ OpenAI في نوفمبر الماضي. ويقال إنه انتقد هيلين تونر، مديرة مركز جورج تاون للأمن والتكنولوجيات الناشئة والعضو السابق في مجلس إدارة OpenAI، بسبب ورقة بحثية شاركت في تأليفها والتي ألقت الضوء على نهج OpenAI تجاه السلامة – إلى النقطة التي حاول دفعها خارج اللوح.

على مدار العام الماضي أو نحو ذلك، سمحت شركة OpenAI لمتجر روبوتات الدردشة الخاص بها بالامتلاء بالرسائل غير المرغوب فيها و(يُزعم) أنها قامت بنسخ البيانات من YouTube بما يتعارض مع شروط خدمة النظام الأساسي بينما أعربت عن طموحاتها للسماح للذكاء الاصطناعي الخاص بها بإنشاء صور إباحية ودموية. من المؤكد أن السلامة قد احتلت مقعدًا خلفيًا في الشركة، وقد توصل عدد متزايد من الباحثين في مجال السلامة في OpenAI إلى استنتاج مفاده أن عملهم سيكون مدعومًا بشكل أفضل في مكان آخر.

فيما يلي بعض قصص الذكاء الاصطناعي الأخرى الجديرة بالملاحظة من الأيام القليلة الماضية:

  • أوبن آي + رديت: وفي المزيد من أخبار OpenAI، توصلت الشركة إلى اتفاق مع Reddit لاستخدام بيانات الموقع الاجتماعي للتدريب على نماذج الذكاء الاصطناعي. رحبت وول ستريت بالصفقة بأذرع مفتوحة – لكن مستخدمي Reddit قد لا يكونوا سعداء للغاية.
  • الذكاء الاصطناعي من جوجل: استضافت Google مؤتمرها السنوي للمطورين I/O هذا الأسبوع، والذي ظهرت فيه لأول مرة عليه من منتجات الذكاء الاصطناعي. قمنا بتجميعها هنا، بدءًا من نتائج Veo التي تنتج الفيديو إلى النتائج المنظمة بواسطة الذكاء الاصطناعي في بحث Google وحتى ترقيات تطبيقات Gemini chatbot من Google.
  • الأنثروبي يستأجر كريجر: ينضم مايك كريجر، أحد مؤسسي Instagram، ومؤخرًا المؤسس المشارك لتطبيق الأخبار الشخصية Artifact (الذي استحوذت عليه شركة Yahoo، الشركة الأم لـ TechCrunch مؤخرًا)، إلى Anthropic كأول مدير رئيسي للمنتجات في الشركة. سيشرف على جهود الشركة والمستهلكين.
  • الذكاء الاصطناعي للأطفال: أعلنت شركة Anthropic الأسبوع الماضي أنها ستبدأ في السماح للمطورين بإنشاء تطبيقات وأدوات تركز على الأطفال مبنية على نماذج الذكاء الاصطناعي الخاصة بها، طالما أنهم يتبعون قواعد معينة. والجدير بالذكر أن المنافسين مثل Google لا يسمحون بدمج الذكاء الاصطناعي الخاص بهم في التطبيقات التي تستهدف الأعمار الأصغر سنًا.
  • مهرجان أفلام الذكاء الاصطناعي: أقامت شركة Runway الناشئة للذكاء الاصطناعي ثاني مهرجان لها على الإطلاق لأفلام الذكاء الاصطناعي في وقت سابق من هذا الشهر. الوجبات الجاهزة؟ بعض اللحظات الأكثر قوة في العرض لم تكن من الذكاء الاصطناعي، بل من العناصر الأكثر إنسانية.

المزيد من التعلم الآلي

من الواضح أن سلامة الذكاء الاصطناعي هي في مقدمة أولوياتنا هذا الأسبوع مع مغادرة OpenAI، لكن Google Deepmind يمضي قدمًا من خلال “Frontier Safety Framework” الجديد. إنها في الأساس استراتيجية المنظمة لتحديد أي قدرات هاربة ومنعها – ليس من الضروري أن تكون الذكاء الاصطناعي العام، فقد يكون منشئ برامج ضارة أصيب بالجنون أو ما شابه.

اعتمادات الصورة: جوجل ديب مايند

يتكون إطار العمل من ثلاث خطوات: 1. تحديد القدرات الضارة المحتملة في النموذج من خلال محاكاة مسارات التطوير الخاصة به. 2. قم بتقييم النماذج بانتظام لاكتشاف متى وصلت إلى “مستويات القدرة الحرجة” المعروفة. 3. تطبيق خطة تخفيف لمنع التسلل (من قبل شخص آخر أو من نفسه) أو النشر الإشكالي. هناك مزيد من التفاصيل هنا. قد يبدو الأمر وكأنه سلسلة واضحة من الإجراءات، ولكن من المهم إضفاء الطابع الرسمي عليها وإلا فإن الجميع يجنحون إليها. هذه هي الطريقة التي تحصل بها على الذكاء الاصطناعي السيئ.

وقد حدد باحثون في كامبريدج خطراً مختلفاً إلى حد ما، الذين يشعرون بالقلق بحق إزاء انتشار برامج الدردشة الآلية التي يدربها المرء على بيانات شخص متوفى من أجل توفير محاكاة سطحية لذلك الشخص. قد تجد (كما أفعل أنا) المفهوم برمته بغيضًا إلى حد ما، ولكن يمكن استخدامه في إدارة الحزن وسيناريوهات أخرى إذا كنا حذرين. المشكلة هي أننا لا نكون حذرين.

اعتمادات الصورة: جامعة كامبريدج / ت. هولانيك

وقالت الباحثة الرئيسية كاتارزينا نواتشيك-باسينسكا: “إن هذا المجال من الذكاء الاصطناعي هو حقل ألغام أخلاقي”. “نحن بحاجة إلى البدء في التفكير الآن حول كيفية التخفيف من المخاطر الاجتماعية والنفسية للخلود الرقمي، لأن التكنولوجيا موجودة بالفعل.” يحدد الفريق العديد من عمليات الاحتيال والنتائج السيئة والجيدة المحتملة، ويناقش المفهوم بشكل عام (بما في ذلك الخدمات المزيفة) في ورقة بحثية منشورة في الفلسفة والتكنولوجيا. Black Mirror تتنبأ بالمستقبل مرة أخرى!

في تطبيقات الذكاء الاصطناعي الأقل رعبًا، يبحث الفيزيائيون في معهد ماساتشوستس للتكنولوجيا عن أداة مفيدة (بالنسبة لهم) للتنبؤ بمرحلة أو حالة النظام الفيزيائي، وهي عادةً مهمة إحصائية يمكن أن تصبح مرهقة مع أنظمة أكثر تعقيدًا. لكن تدريب نموذج التعلم الآلي على البيانات الصحيحة وربطه ببعض الخصائص المادية المعروفة للنظام، سيكون لديك طريقة أكثر كفاءة للقيام بذلك. مجرد مثال آخر لكيفية العثور على تعلم الآلة في مجالات متخصصة حتى في العلوم المتقدمة.

يتحدثون في جامعة كولورادو بولدر عن كيفية استخدام الذكاء الاصطناعي في إدارة الكوارث. قد تكون هذه التقنية مفيدة للتنبؤ السريع بالأماكن التي ستكون هناك حاجة إلى الموارد، ورسم خرائط للأضرار، وحتى المساعدة في تدريب المستجيبين، لكن الناس (وهو أمر مفهوم) مترددون في تطبيقها في سيناريوهات الحياة والموت.

الحضور في الورشة .
اعتمادات الصورة: سي يو بولدر

يحاول البروفيسور أمير بهزادان دفع الكرة إلى الأمام في هذا الصدد، قائلاً: “إن الذكاء الاصطناعي الذي يركز على الإنسان يؤدي إلى ممارسات أكثر فعالية للاستجابة للكوارث والتعافي من خلال تعزيز التعاون والتفاهم والشمول بين أعضاء الفريق والناجين وأصحاب المصلحة”. ما زالوا في مرحلة ورشة العمل، ولكن من المهم التفكير بعمق في هذه الأمور قبل محاولة، على سبيل المثال، أتمتة توزيع المساعدات بعد الإعصار.

وأخيرًا، بعض الأعمال المثيرة للاهتمام التي قامت بها شركة Disney Research، والتي كانت تبحث في كيفية تنويع مخرجات نماذج توليد الصور المنتشرة، والتي يمكن أن تنتج نتائج مماثلة مرارًا وتكرارًا لبعض المطالبات. الحل؟ “تعمل إستراتيجية أخذ العينات لدينا على تليين إشارة التكييف عن طريق إضافة ضوضاء غاوسية مجدولة ومخفضة بشكل رتيب إلى ناقل التكييف أثناء الاستدلال لتحقيق التوازن بين التنوع ومحاذاة الحالة.” أنا ببساطة لا أستطيع أن أضعه بشكل أفضل بنفسي.

اعتمادات الصورة: أبحاث ديزني

والنتيجة هي تنوع أوسع بكثير في الزوايا والإعدادات والمظهر العام في مخرجات الصورة. في بعض الأحيان تريد هذا، وأحيانًا لا تريده، ولكن من الجيد أن يكون لديك هذا الخيار.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى