هذا الأسبوع في الذكاء الاصطناعي: يدعو موظفو OpenAI السابقون إلى السلامة والشفافية
مرحبًا أيها الناس، ومرحبًا بكم في النشرة الإخبارية الافتتاحية للذكاء الاصطناعي الخاصة بـ TechCrunch. من الممتع حقًا كتابة هذه الكلمات – لقد استغرق إعداد هذه الكلمات وقتًا طويلاً، ونحن متحمسون لمشاركتها معك أخيرًا.
مع إطلاق النشرة الإخبارية للذكاء الاصطناعي الخاصة بـ TC، فإننا ننهي هذا الأسبوع في الذكاء الاصطناعي، وهو العمود شبه المنتظم المعروف سابقًا باسم Perceptron. ولكنك ستجد كل التحليلات التي قدمناها لهذا الأسبوع في الذكاء الاصطناعي و اكثر، بما في ذلك تسليط الضوء على نماذج الذكاء الاصطناعي الجديدة الجديرة بالملاحظة، هنا.
هذا الأسبوع في مجال الذكاء الاصطناعي، هناك مشكلة – مرة أخرى – بالنسبة لـ OpenAI.
تحدثت مجموعة من موظفي OpenAI السابقين مع كيفن روز من صحيفة نيويورك تايمز حول ما يعتبرونه إخفاقات فادحة في مجال السلامة داخل المنظمة. إنهم – مثل الآخرين الذين تركوا OpenAI في الأشهر الأخيرة – يزعمون أن الشركة لا تفعل ما يكفي لمنع أنظمة الذكاء الاصطناعي الخاصة بها من أن تصبح خطرة محتملة ويتهمون OpenAI باستخدام تكتيكات قاسية لمحاولة منع العمال من دق ناقوس الخطر.
ونشرت المجموعة رسالة مفتوحة يوم الثلاثاء تدعو شركات الذكاء الاصطناعي الرائدة، بما في ذلك OpenAI، إلى تحقيق قدر أكبر من الشفافية والمزيد من الحماية للمبلغين عن المخالفات. وجاء في الرسالة: “طالما لا توجد رقابة حكومية فعالة على هذه الشركات، فإن الموظفين الحاليين والسابقين هم من بين الأشخاص القلائل الذين يمكنهم مساءلتهم أمام الجمهور”.
اعتبرني متشائمًا، لكني أتوقع أن مكالمات الموظفين السابقين لن تجد آذانًا صاغية. من الصعب أن نتخيل سيناريو لا توافق فيه شركات الذكاء الاصطناعي على “دعم ثقافة النقد المفتوح” فحسب، كما يوصي الموقعون أدناه، ولكنها تختار أيضًا عدم تطبيق شروط عدم الانتقاص أو الانتقام من الموظفين الحاليين الذين يختارون التحدث علنًا.
خذ بعين الاعتبار لجنة السلامة التابعة لشركة OpenAI، والتي أنشأتها الشركة مؤخرًا ردًا على ذلك أولي انتقادات لممارسات السلامة الخاصة بها، يعمل بها جميع المطلعين على الشركة – بما في ذلك الرئيس التنفيذي سام التمان. وخذ بعين الاعتبار أن ألتمان، الذي ادعى في وقت ما أنه ليس لديه علم باتفاقيات عدم الاستهانة المقيدة لـ OpenAI، نفسه وقعت وثائق التأسيس المنشئة لها.
من المؤكد أن الأمور في OpenAI يمكن أن تتغير غدًا، لكنني لا أحبس أنفاسي. وحتى لو فعلوا ذلك، فسيكون من الصعب الوثوق به.
أخبار
نهاية العالم لمنظمة العفو الدولية: لقد تعطلت منصة chatbot المدعومة بالذكاء الاصطناعي من OpenAI، ChatGPT – جنبًا إلى جنب مع Anthropic’s Claude وGemini وPerplexity من Google – هذا الصباح في نفس الوقت تقريبًا. وتمت استعادة جميع الخدمات منذ ذلك الحين، ولكن سبب توقفها لا يزال غير واضح.
OpenAI يستكشف الاندماج: تجري شركة OpenAI محادثات مع شركة Helion Energy الناشئة في مجال الاندماج حول صفقة تشتري بموجبها شركة الذكاء الاصطناعي كميات هائلة من الكهرباء من شركة Helion لتوفير الطاقة لمراكز البيانات الخاصة بها، وفقًا لصحيفة وول ستريت جورنال. يمتلك ألتمان حصة بقيمة 375 مليون دولار في شركة هيليون، وهو عضو في مجلس إدارة الشركة، لكن يقال إنه انسحب من محادثات الصفقة.
تكلفة بيانات التدريب: يلقي موقع TechCrunch نظرة على صفقات ترخيص البيانات باهظة الثمن التي أصبحت شائعة في صناعة الذكاء الاصطناعي – الصفقات التي تهدد بجعل أبحاث الذكاء الاصطناعي غير مقبولة بالنسبة للمؤسسات الصغيرة والمؤسسات الأكاديمية.
مولدات الموسيقى البغيضة: تستغل الجهات الفاعلة الخبيثة مولدات الموسيقى التي تعمل بالذكاء الاصطناعي لإنشاء أغانٍ دعائية معادية للمثليين، وعنصرية، وتنشر أدلة ترشد الآخرين إلى كيفية القيام بذلك أيضًا.
النقدية لكوهير: أفادت رويترز أن شركة Cohere، وهي شركة ناشئة تعمل في مجال الذكاء الاصطناعي وتركز على المؤسسات، جمعت 450 مليون دولار من Nvidia وSalesforce Ventures وCisco وغيرها في شريحة جديدة تقدر قيمة Cohere بـ 5 مليارات دولار. أخبرت مصادر مطلعة موقع TechCrunch أن Oracle وThomvest Ventures – وكلاهما من المستثمرين العائدين – شاركا أيضًا في الجولة، التي تركت مفتوحة.
ورقة بحثية للأسبوع
في ورقة بحثية من عام 2023 بعنوان “دعونا نتحقق خطوة بخطوة” والتي سلطت OpenAI الضوء عليها مؤخرًا على مدونتها الرسمية، ادعى العلماء في OpenAI أنهم قاموا بضبط نموذج الذكاء الاصطناعي التوليدي للأغراض العامة للشركة الناشئة، GPT-4، لتحقيق أفضل من – الأداء المتوقع في حل المسائل الحسابية. يقول المؤلفون المشاركون في الورقة البحثية إن هذا النهج يمكن أن يؤدي إلى نماذج توليدية أقل عرضة للخروج عن المسار الصحيح، لكنهم يشيرون إلى عدة محاذير.
في هذه الورقة، يشرح المؤلفون المشاركون كيفية تدريب نماذج المكافأة لاكتشاف الهلوسة، أو الحالات التي حصل فيها GPT-4 على حقائق و/أو إجابات خاطئة للمسائل الرياضية. (نماذج المكافأة هي نماذج متخصصة لتقييم مخرجات نماذج الذكاء الاصطناعي، في هذه الحالة المخرجات المتعلقة بالرياضيات من GPT-4.) نماذج المكافأة “تكافئ” GPT-4 في كل مرة يقوم فيها بخطوة صحيحة في مسألة رياضية، وهو نهج ويشير الباحثون إلى ذلك باسم “الإشراف على العملية”.
يقول الباحثون إن الإشراف على العمليات أدى إلى تحسين دقة المسائل الرياضية في GPT-4 مقارنةً بالتقنيات السابقة لنماذج “المكافأة” – على الأقل في اختباراتهم المعيارية. لكنهم يعترفون بأنها ليست مثالية. لا يزال GPT-4 يخطئ في خطوات المشكلة. ومن غير الواضح كيف يمكن لشكل الإشراف على العمليات الذي اكتشفه الباحثون أن يعمم خارج نطاق الرياضيات.
نموذج الاسبوع
قد لا يبدو التنبؤ بالطقس وكأنه علم (على الأقل عندما تهطل الأمطار، كما فعلت للتو)، ولكن هذا لأن الأمر كله يتعلق بالاحتمالات، وليس اليقين. وما هي أفضل طريقة لحساب الاحتمالات من النموذج الاحتمالي؟ لقد رأينا بالفعل أن الذكاء الاصطناعي يعمل على التنبؤ بالطقس على نطاقات زمنية تتراوح من ساعات إلى قرون، والآن بدأت مايكروسوفت تستمتع بهذه المتعة. يقوم نموذج Aurora الجديد للشركة بتحريك الكرة للأمام في هذا الركن سريع التطور من عالم الذكاء الاصطناعي، مما يوفر تنبؤات على مستوى الكرة الأرضية بدقة تصل إلى 0.1 درجة (فكر في حدود 10 كيلومتر مربع).
تم تدريب Aurora على أكثر من مليون ساعة من عمليات محاكاة الطقس والمناخ (ليس الطقس الحقيقي؟ حسنًا…) وتم ضبطه بدقة على عدد من المهام المرغوبة، ويتفوق أداء Aurora على أنظمة التنبؤ العددي التقليدية بعدة أوامر من حيث الحجم. والأمر الأكثر إثارة للإعجاب هو أنه يتفوق على GraphCast من Google DeepMind في لعبته الخاصة (على الرغم من أن Microsoft اختارت هذا المجال)، مما يوفر تخمينات أكثر دقة لظروف الطقس على نطاق يتراوح بين يوم واحد وخمسة أيام.
شركات مثل Google وMicrosoft لديها حصان في السباق، بطبيعة الحال، وكلاهما يتنافسان على جذب انتباهك عبر الإنترنت من خلال محاولة تقديم تجربة الويب والبحث الأكثر تخصيصًا. ستكون تنبؤات الطقس الدقيقة والفعالة للطرف الأول جزءًا مهمًا من ذلك، على الأقل حتى نتوقف عن الخروج.
الاستيلاء على حقيبة
في مقالة فكرية الشهر الماضي في بالاديوم، افترضت أفيتال بالويت، رئيسة الموظفين في شركة أنثروبيك الناشئة للذكاء الاصطناعي، أن السنوات الثلاث المقبلة قد تكون الأخيرة التي يتعين عليها والعديد من العاملين في مجال المعرفة العمل بها بفضل التقدم السريع في الذكاء الاصطناعي التوليدي. وتقول إن هذا ينبغي أن يكون بمثابة راحة وليس سببًا للخوف، لأنه قد “[lead to] عالم حيث يتم تلبية احتياجات الناس المادية ولكنهم أيضًا لا يحتاجون إلى العمل.
“أخبرني أحد الباحثين المشهورين في مجال الذكاء الاصطناعي ذات مرة أنه يتدرب من أجل ذلك [this inflection point] يكتب بالويت: “من خلال ممارسة الأنشطة التي لا يجيدها بشكل خاص: الجوجيتسو، وركوب الأمواج، وما إلى ذلك، والاستمتاع بالقيام بذلك حتى دون التميز”. “هذه هي الطريقة التي يمكننا بها الاستعداد لمستقبلنا حيث سيتعين علينا القيام بالأشياء من باب الفرح وليس الحاجة، حيث لن نكون الأفضل فيها، ولكن لا يزال يتعين علينا اختيار كيفية ملء أيامنا.”
من المؤكد أن هذا هو المنظر الذي يمثل النصف الممتلئ من الكوب – ولكن لا أستطيع أن أقول إنني أشاركه.
وإذا حل الذكاء الاصطناعي التوليدي محل معظم العاملين في مجال المعرفة في غضون ثلاث سنوات (وهو الأمر الذي يبدو غير واقعي في نظري نظراً للمشاكل التقنية العديدة التي يواجهها الذكاء الاصطناعي، فقد يترتب على ذلك انهيار اقتصادي). يشكل العاملون في مجال المعرفة أجزاء كبيرة من القوى العاملة ويميلون إلى أن يكونوا من ذوي الدخل المرتفع – وبالتالي منفقين كبار. إنهم يدفعون عجلات الرأسمالية إلى الأمام.
يشير بالويت إلى الدخل الأساسي الشامل وبرامج شبكات الأمان الاجتماعي الأخرى واسعة النطاق. ولكن ليس لدي ثقة كبيرة في أن دول مثل الولايات المتحدة، التي لا تستطيع حتى إدارة التشريعات الأساسية المتعلقة بالذكاء الاصطناعي على المستوى الفيدرالي، سوف تتبنى خطط الدخل الأساسي الشامل في أي وقت قريب.
مع أي حظ، أنا مخطئ.
طعم وكيف دليل المطاعم والكافيهات دليل المطاعم مدن العالم طعام وشراب مقاهي الرياض أخبار ونصائح دليل الرياض كافيهات الرياض جلسات خارجية دليل مقاهي ومطاعم أفضل كافيهات الرياض عوائل
اكتشاف المزيد من موقع fffm
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.