تقنية

هذا الأسبوع في الذكاء الاصطناعي: عندما لا يكون “المصدر المفتوح” مفتوحًا جدًا


إن مواكبة صناعة سريعة الحركة مثل الذكاء الاصطناعي يعد أمرًا صعبًا. لذا، إلى أن يتمكن الذكاء الاصطناعي من القيام بذلك نيابةً عنك، إليك ملخصًا مفيدًا للقصص الحديثة في عالم التعلم الآلي، إلى جانب الأبحاث والتجارب البارزة التي لم نغطيها بمفردنا.

أصدرت Meta هذا الأسبوع أحدث إصداراتها من سلسلة Llama من نماذج الذكاء الاصطناعي التوليدية: Llama 3 8B وLlama 3 70B. وقال ميتا إن النماذج قادرة على تحليل وكتابة النص، وهي “مفتوحة المصدر”، وتهدف إلى أن تكون “جزءًا أساسيًا” من الأنظمة التي يصممها المطورون مع وضع أهدافهم الفريدة في الاعتبار.

“نعتقد أن هذه هي أفضل النماذج مفتوحة المصدر في فئتها،” كتب ميتا في منشور بالمدونة. “نحن نتبنى روح المصدر المفتوح المتمثل في الإصدار المبكر وفي كثير من الأحيان.”

هناك مشكلة واحدة فقط: نماذج Llama 3 ليست كذلك حقًا “مفتوحة المصدر”، على الأقل ليس بالتعريف الأكثر صرامة.

يعني المصدر المفتوح أن المطورين يمكنهم استخدام النماذج بالطريقة التي يختارونها، دون قيود. ولكن في حالة Llama 3 — كما هو الحال مع Llama 2 — فرضت Meta قيودًا معينة على الترخيص. على سبيل المثال، لا يمكن استخدام نماذج اللاما لتدريب نماذج أخرى. و يجب على مطوري التطبيقات الذين لديهم أكثر من 700 مليون مستخدم شهريًا طلب ترخيص خاص من Meta.

المناقشات حول تعريف المصدر المفتوح ليست جديدة. ولكن بينما تتعامل الشركات في مجال الذكاء الاصطناعي بشكل سريع مع هذا المصطلح، فإنها تضخ الوقود في الحجج الفلسفية طويلة الأمد.

في أغسطس الماضي، وجدت دراسة شارك في تأليفها باحثون في جامعة كارنيجي ميلون، ومعهد الذكاء الاصطناعي الآن، ومؤسسة سيجنال، أن العديد من نماذج الذكاء الاصطناعي التي تحمل علامة “مفتوحة المصدر” تأتي بمكاسب كبيرة – وليس اللاما فقط. تظل البيانات المطلوبة لتدريب النماذج سرية. إن قوة الحوسبة اللازمة لتشغيلها بعيدة عن متناول العديد من المطورين. والعمل اللازم لضبطها باهظ التكلفة.

لذا، إذا لم تكن هذه النماذج مفتوحة المصدر حقًا، فما هي بالضبط؟ هذا سؤال جيد. إن تحديد المصدر المفتوح فيما يتعلق بالذكاء الاصطناعي ليس بالمهمة السهلة.

أحد الأسئلة ذات الصلة التي لم يتم حلها هو ما إذا كان من الممكن تطبيق حق المؤلف، وهو آلية الملكية الفكرية التأسيسية لترخيص مفتوح المصدر، على مختلف مكونات وأجزاء مشروع الذكاء الاصطناعي، ولا سيما الدعامات الداخلية للنموذج (مثل التضمين). ثم هناك عدم التطابق بين تصور المصدر المفتوح وكيف يعمل الذكاء الاصطناعي فعليًا للتغلب عليه: فقد تم تصميم المصدر المفتوح جزئيًا لضمان قدرة المطورين على دراسة التعليمات البرمجية وتعديلها دون قيود. ومع ذلك، مع الذكاء الاصطناعي، فإن المكونات التي تحتاجها للقيام بالدراسة والتعديل مفتوحة للتفسير.

الخوض في كل حالة عدم اليقين، دراسة كارنيجي ميلون يفعل توضيح الضرر الكامن في اختيار عمالقة التكنولوجيا مثل ميتا لعبارة “المصدر المفتوح”.

في كثير من الأحيان، تنتهي مشاريع الذكاء الاصطناعي “مفتوحة المصدر” مثل اللاما إلى إطلاق دورات إخبارية – تسويق مجاني – وتوفير فوائد فنية واستراتيجية لمشرفي المشاريع. نادرًا ما يرى مجتمع المصادر المفتوحة هذه الفوائد نفسها، وعندما يحدث ذلك، يكون هامشيًا مقارنة بفوائد القائمين على الصيانة.

بدلًا من إضفاء الطابع الديمقراطي على الذكاء الاصطناعي، تميل مشاريع الذكاء الاصطناعي “مفتوحة المصدر” – وخاصة تلك التابعة لشركات التكنولوجيا الكبرى – إلى ترسيخ وتوسيع السلطة المركزية، كما يقول المؤلفون المشاركون في الدراسة. من الجيد أن نأخذ ذلك في الاعتبار في المرة القادمة التي يتم فيها طرح إصدار رئيسي لنموذج “مفتوح المصدر”.

فيما يلي بعض قصص الذكاء الاصطناعي الأخرى الجديرة بالملاحظة من الأيام القليلة الماضية:

  • تقوم Meta بتحديث برنامج الدردشة الآلي الخاص بها: بالتزامن مع ظهور Llama 3 لأول مرة، قامت Meta بترقية برنامج الدردشة الآلي الخاص بها عبر Facebook وMessenger وInstagram وWhatsApp – Meta AI – بواجهة خلفية مدعومة بـ Llama 3. كما أطلق أيضًا ميزات جديدة، بما في ذلك إنشاء الصور بشكل أسرع والوصول إلى نتائج بحث الويب.
  • الإباحية التي أنشأها الذكاء الاصطناعي: يكتب إيفان عن كيفية قيام مجلس الرقابة، وهو مجلس السياسات شبه المستقل لشركة Meta، بتحويل انتباهه إلى كيفية تعامل المنصات الاجتماعية للشركة مع الصور الواضحة التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
  • التقط العلامات المائية: تخطط خدمة الوسائط الاجتماعية Snap لإضافة علامات مائية إلى الصور التي يتم إنشاؤها بواسطة الذكاء الاصطناعي على منصتها. نسخة شفافة من شعار Snap مع رمز تعبيري لامع، وستتم إضافة العلامة المائية الجديدة إلى أي صورة تم إنشاؤها بواسطة الذكاء الاصطناعي يتم تصديرها من التطبيق أو حفظها في ألبوم الكاميرا.
  • الأطلس الجديد: كشفت شركة الروبوتات المملوكة لشركة هيونداي، بوسطن ديناميكس، عن الجيل التالي من روبوت أطلس الذي يشبه الإنسان، والذي، على عكس سابقه الذي يعمل بالطاقة الهيدروليكية، كهربائي بالكامل – وأكثر ودية في المظهر.
  • أشباه البشر على أشباه البشر: وحتى لا تتفوق عليه بوسطن ديناميكس، أطلق مؤسس شركة Mobileye، أمنون شاشوا، شركة ناشئة جديدة، Menteebot، تركز على بناء أنظمة الروبوتات ثنائية السرير. يُظهر مقطع فيديو تجريبي النموذج الأولي لـ Menteebot وهو يسير نحو الطاولة ويلتقط الفاكهة.
  • رديت مترجم: في مقابلة مع أماندا، كشف Pali Bhat في Reddit أن هناك ميزة ترجمة لغة مدعومة بالذكاء الاصطناعي لجلب الشبكة الاجتماعية إلى جمهور عالمي أكثر قيد العمل، إلى جانب أداة إشراف مساعدة مدربة على القرارات والإجراءات السابقة لمشرفي Reddit.
  • محتوى LinkedIn الذي تم إنشاؤه بواسطة الذكاء الاصطناعي: بدأت LinkedIn بهدوء في اختبار طريقة جديدة لتعزيز إيراداتها: الاشتراك في صفحة LinkedIn Premium Company، والتي – مقابل رسوم تبدو باهظة تصل إلى 99 دولارًا شهريًا – تتضمن الذكاء الاصطناعي لكتابة المحتوى ومجموعة من الأدوات لزيادة أعداد المتابعين.
  • رائد: كشف مصنع X، التابع لشركة Alphabet، الشركة الأم لشركة Google، هذا الأسبوع عن مشروع Bellwether، وهو أحدث عرض لها لتطبيق التكنولوجيا على بعض أكبر المشكلات في العالم. وهذا يعني هنا استخدام أدوات الذكاء الاصطناعي لتحديد الكوارث الطبيعية مثل حرائق الغابات والفيضانات في أسرع وقت ممكن.
  • حماية الأطفال بالذكاء الاصطناعي: تخطط Ofcom، الجهة التنظيمية المكلفة بإنفاذ قانون السلامة عبر الإنترنت في المملكة المتحدة، لبدء استكشاف لكيفية استخدام الذكاء الاصطناعي والأدوات الآلية الأخرى لاكتشاف المحتوى غير القانوني عبر الإنترنت وإزالته بشكل استباقي، وخاصة لحماية الأطفال من المحتوى الضار.
  • OpenAI تهبط في اليابان: تتوسع شركة OpenAI إلى اليابان، مع افتتاح مكتب جديد في طوكيو وخطط لنموذج GPT-4 المُحسّن خصيصًا للغة اليابانية.

المزيد من التعلم الآلي

اعتمادات الصورة: دكتور أفتر 123 / جيتي إيماجيس

هل يمكن لروبوت الدردشة أن يغير رأيك؟ وجد الباحثون السويسريون أنهم لا يستطيعون ذلك فحسب، بل إذا كانوا مسلحين مسبقًا ببعض المعلومات الشخصية عنك، فمن الممكن أن يكونوا في الواقع أكثر مقنعة في النقاش من الإنسان الذي لديه نفس المعلومات.

قال روبرت ويست، رئيس المشروع من EPFL: “هذه هي شركة Cambridge Analytica التي تعمل على المنشطات”. يشتبه الباحثون في أن النموذج – GPT-4 في هذه الحالة – استمد من مخزونه الهائل من الحجج والحقائق عبر الإنترنت لتقديم حالة أكثر إقناعًا وثقة. لكن النتيجة تتحدث عن نفسها. لا تقلل من شأن قوة حاملي شهادة الماجستير في مسائل الإقناع، فقد حذر ويست قائلاً: “في سياق الانتخابات الأمريكية المقبلة، يشعر الناس بالقلق لأن هذا النوع من التكنولوجيا يتم دائمًا اختباره لأول مرة. هناك شيء واحد نعرفه على وجه اليقين وهو أن الناس سيستخدمون قوة النماذج اللغوية الكبيرة لمحاولة التأثير في الانتخابات.

لماذا هذه النماذج جيدة جدًا في اللغة على أي حال؟ هذا أحد المجالات التي يوجد فيها تاريخ طويل من البحث، يعود إلى ELIZA. إذا كان لديك فضول بشأن أحد الأشخاص الذين شاركوا في الكثير من هذه الأعمال (وقاموا بأداء قدر كبير منها بنفسه)، فاطلع على هذا الملف التعريفي عن كريستوفر مانينغ من جامعة ستانفورد. لقد حصل للتو على وسام جون فون نيومان. تهاني!

في مقابلة بعنوان استفزازي، يتكهن باحث آخر في مجال الذكاء الاصطناعي (الذي شرف مسرح TechCrunch أيضًا)، ستيوارت راسل، وما بعد الدكتوراه مايكل كوهين حول “كيفية منع الذكاء الاصطناعي من قتلنا جميعًا”. ربما يكون من الجيد معرفة ذلك عاجلاً وليس آجلاً! إنها ليست مناقشة سطحية، فهؤلاء أشخاص أذكياء يتحدثون عن كيف يمكننا أن نفهم فعليًا الدوافع (إذا كانت هذه هي الكلمة الصحيحة) لنماذج الذكاء الاصطناعي وكيف ينبغي بناء اللوائح حولها.

تتعلق المقابلة في الواقع بمقالة نشرت في مجلة Science في وقت سابق من هذا الشهر، والتي يقترحون فيها أن الذكاء الاصطناعي المتقدم القادر على التصرف بشكل استراتيجي لتحقيق أهدافه، والذي يسمونه “وكلاء التخطيط طويل المدى”، قد يكون من المستحيل اختباره. بشكل أساسي، إذا تعلم النموذج “فهم” الاختبار الذي يجب عليه اجتيازه لتحقيق النجاح، فقد يتعلم طرقًا لإبطال هذا الاختبار أو التحايل عليه بشكل إبداعي. لقد رأينا ذلك على نطاق صغير، فلماذا لا نرى ذلك على نطاق واسع؟

يقترح راسل تقييد الأجهزة اللازمة لصنع مثل هذه العوامل… ولكن بالطبع، حصلت مختبرات لوس ألاموس وسانديا الوطنية للتو على تسليماتها. أقامت LANL للتو حفل قص الشريط لـ Venado، وهو حاسوب عملاق جديد مخصص لأبحاث الذكاء الاصطناعي، ويتألف من 2560 شريحة Grace Hopper Nvidia.

الباحثون ينظرون إلى الكمبيوتر العصبي الجديد.

وقد حصلت سانديا للتو على “نظام حاسوبي غير عادي قائم على الدماغ يسمى هالا بوينت”، يحتوي على 1.15 مليار خلية عصبية اصطناعية، بنته شركة إنتل ويُعتقد أنه أكبر نظام من نوعه في العالم. ليس المقصود من الحوسبة العصبية، كما يطلق عليها، أن تحل محل أنظمة مثل فينادو، ولكن لمتابعة أساليب حسابية جديدة تشبه الدماغ أكثر من النهج الذي يركز على الإحصائيات الذي نراه في النماذج الحديثة.

وقال: “مع هذا النظام الذي يضم مليار خلية عصبية، ستكون لدينا فرصة للابتكار على نطاق واسع لكل من خوارزميات الذكاء الاصطناعي الجديدة التي قد تكون أكثر كفاءة وأكثر ذكاءً من الخوارزميات الحالية، وأساليب جديدة تشبه الدماغ لخوارزميات الكمبيوتر الحالية مثل التحسين والنمذجة”. الباحث سانديا براد ايمون. يبدو مدهشًا…مدهشًا فقط!


اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading