تقنية

قادة الذكاء الاصطناعى يجلبون نقاش AGI إلى الأرض


خلال عشاء حديث مع قادة الأعمال في سان فرانسيسكو ، تم تعليق تعليقه على البرد على الغرفة. لم أسأل رفاقي من تناول الطعام أي شيء اعتبرته أن يكونوا مزيفًا للغاية: ببساطة ما إذا كانوا يعتقدون أن الذكاء الاصطناعى اليوم يمكن أن يحققوا ذكاءًا يشبه الإنسان (أي AGI) أو بعد ذلك.

إنه موضوع أكثر إثارة للجدل مما قد تعتقد.

في عام 2025 ، لا يوجد نقص في المديرين التنفيذيين للتكنولوجيا الذين يقدمون قضية الثور حول كيفية تحقيق نماذج اللغة الكبيرة (LLMS) ، التي يمكن أن تصل إلى شركات الدردشة القوية مثل ChatGPT و Gemini ، ذكاءً على المستوى الإنساني أو حتى الفائق على المدى القريب. يجادل هؤلاء المديرين التنفيذيون بأن الذكاء الاصطناعي القادر للغاية ستحقق فوائد مجتمعية واسعة النطاق وموزعة على نطاق واسع.

على سبيل المثال ، كتب Dario Amodei ، الرئيس التنفيذي لشركة Anthropic ، في مقال أن الذكاء الاصطناعى القوي بشكل استثنائي يمكن أن يصل في أقرب وقت عام 2026 ويكون “أكثر ذكاءً من الفائز بجائزة نوبل عبر معظم المجالات ذات الصلة”. في هذه الأثناء ، ادعى الرئيس التنفيذي لشركة Openai سام ألمان مؤخرًا أن شركته تعرف كيفية بناء الذكاء الاصطناعي “SuperIntyligent” ، وتوقع أن “قد تسارع بشكل كبير إلى اكتشاف علمي”.

ومع ذلك ، لا يجد الجميع هذه الادعاءات المتفائلة مقنعة.

يتشكك قادة الذكاء الاصطناعي الآخرين في أن LLMs اليوم يمكن أن تصل إلى AGI – أقل بكثير من سوبرايتينس – باستثناء بعض الابتكارات الجديدة. لقد حافظ هؤلاء القادة تاريخياً على مستوى منخفض ، لكن المزيد قد بدأوا في التحدث مؤخرًا.

في مقال هذا الشهر ، وصف توماس وولف ، المؤسس المشارك لكبار ومسؤولي العلوم ، بعض أجزاء من رؤية Amodei “التفكير بالتمني في أحسن الأحوال”. على علم بأبحاث الدكتوراه في الفيزياء الإحصائية والكمية ، يعتقد وولف أن اختراقات جائزة نوبل لا تأتي من الإجابة على الأسئلة المعروفة-وهو أمر يتفوق عليه الذكاء الاصطناعي-ولكن من طرح أسئلة لم يفكر أحد في طرحها.

في رأي وولف ، فإن LLMs اليوم لا تصل إلى المهمة.

وقال وولف لـ TechCrunch في مقابلة: “أحب أن أرى هذا” نموذج آينشتاين “هناك ، لكننا نحتاج إلى الغوص في تفاصيل كيفية الوصول إلى هناك”. “هذا هو المكان الذي يبدأ فيه أن يكون مثيرًا للاهتمام.”

قال وولف إنه كتب هذه القطعة لأنه شعر أنه كان هناك الكثير من الضجيج حول AGI ، ولم يكن هناك ما يكفي من تقييم جاد لكيفية الوصول إلى هناك بالفعل. إنه يعتقد أنه ، كما هي الحال ، هناك احتمال حقيقي أن الذكاء الاصطناعي يحول العالم في المستقبل القريب ، لكنه لا يحقق الذكاء على مستوى الإنسان أو الإلغاء.

أصبح الكثير من عالم الذكاء الاصطناعي غاضبًا من وعد AGI. غالبًا ما يتم تصنيف أولئك الذين لا يعتقدون أنه من الممكن على أنهم “مكافحة التكنولوجيا” ، أو مريرة ومضللة بطريقة أخرى.

قد يربط البعض الذئب كمتشائم لهذا الرأي ، لكن وولف يفكر في نفسه على أنه “متفائل مستنير” – شخص يريد دفع الذكاء الاصطناعي إلى الأمام دون أن يفقد الواقع. بالتأكيد ، إنه ليس زعيم الذكاء الاصطناعى الوحيد الذي لديه تنبؤات محافظة حول التكنولوجيا.

وبحسب ما ورد أخبر الرئيس التنفيذي لشركة Google Deepmind Depis Hassabis الموظفين ، في رأيه ، أن الصناعة قد تصل إلى عقد من الزمان من تطوير AGI – مع الإشارة إلى أن هناك الكثير من المهام التي لا يمكن أن تفعلها اليوم ببساطة. كما أعرب رئيس منظمة العفو الدولية لعلم الذكاء الاصطناعى عن شكوكه حول إمكانات LLMs. متحدثًا في Nvidia GTC يوم الثلاثاء ، قال LeCun إن فكرة أن LLMs يمكن أن تحقق AGI “هراء” ، ودعا إلى بنيات جديدة تمامًا لتكون بمثابة صخور للسرقة.

كينيث ستانلي ، باحث سابق في Openai ، هو أحد الأشخاص الذين يبحثون عن تفاصيل كيفية بناء الذكاء الاصطناعي المتقدم مع نماذج اليوم. وهو الآن مسؤول تنفيذي في Lila Sciences ، وهي شركة ناشئة جديدة جمعت 200 مليون دولار من رأس المال الاستثماري لفتح الابتكار العلمي عبر المختبرات الآلية.

يقضي ستانلي أيامه في محاولة لاستخراج الأفكار الإبداعية الأصلية من طرازات الذكاء الاصطناعى ، وهو حقل فرعي من أبحاث الذكاء الاصطناعى يسمى Open-Endensess. تهدف Lila Sciences إلى إنشاء نماذج منظمة العفو الدولية التي يمكنها أتمتة العملية العلمية بأكملها ، بما في ذلك الخطوة الأولى – الوصول إلى الأسئلة والفرضيات الجيدة التي من شأنها أن تؤدي في النهاية إلى اختراقات.

“أتمنى لو كنت قد كتبت [Wolf’s] قال ستانلي في مقابلة مع TechCrunch: “إنه يعكس حقًا مشاعري. [he] لاحظت أن كونك على دراية كبيرة ومهارة لم يؤدي بالضرورة إلى وجود أفكار أصلية حقًا. “

يعتقد ستانلي أن الإبداع هو خطوة أساسية على طول الطريق إلى AGI ، ولكن يشير إلى أن بناء نموذج “إبداعي” من الذكاء الاصطناعي أسهل من القيام به.

يشير المتفائلون مثل Amodei إلى أساليب مثل نماذج “المنطق” الذكاء الاصطناعي ، والتي تستخدم المزيد من قوة الحوسبة لفحص حقائق عملهم والإجابة بشكل صحيح على بعض الأسئلة بشكل صحيح ، كدليل على أن Agi ليس بعيدًا بشكل رهيب. ومع ذلك ، قد يتطلب الخروج من الأفكار والأسئلة الأصلية نوعًا مختلفًا من الذكاء ، كما يقول ستانلي.

“إذا فكرت في ذلك ، فإن التفكير هو تقريبًا [creativity]”، أضاف:” يقول نماذج التفكير: “إليك هدف المشكلة ، دعنا نذهب مباشرة نحو هذا الهدف” ، الذي يمنعك أساسًا من الانتهازية ورؤية الأشياء خارج هذا الهدف ، حتى تتمكن من التباعد والحصول على الكثير من الأفكار الإبداعية. “

لتصميم نماذج الذكاء الاصطناعى ذكية حقًا ، يقترح ستانلي أننا بحاجة إلى تكرار طعم الإنسان الشخصي للأفكار الجديدة. تؤدي نماذج الذكاء الاصطناعى اليوم أداءً جيدًا في المجالات الأكاديمية مع إجابات واضحة ، مثل الرياضيات والبرمجة. ومع ذلك ، يشير ستانلي إلى أنه من الصعب للغاية تصميم نموذج منظمة العفو الدولية لمزيد من المهام الذاتية التي تتطلب الإبداع ، والتي لا تحتوي بالضرورة على إجابة “صحيحة”.

“الناس يخجلون من [subjectivity] وقال ستانلي: “في العلم – الكلمة سامة تقريبًا. لكن لا يوجد شيء لمنعنا من التعامل مع الذاتية [algorithmically]. إنه مجرد جزء من دفق البيانات. “

يقول ستانلي إنه سعيد لأن مجال الانفتاح المفتوح يحظى بمزيد من الاهتمام الآن ، مع مختبرات الأبحاث المخصصة في Lila Sciences و Google Deepmind و AI Sakana تعمل الآن على المشكلة. يقول إنه بدأ يرى المزيد من الناس يتحدثون عن الإبداع في الذكاء الاصطناعي – لكنه يعتقد أن هناك الكثير من العمل الذي يتعين القيام به.

ربما يوافق الذئب وليكون. اتصل بهم الواقعيون من الذكاء الاصطناعى ، إذا صح التعبير: قادة الذكاء الاصطناعى يقتربون من Agi و SuperIntligence مع أسئلة خطيرة على أساسها حول جدواه. هدفهم ليس التقدم في Poo-Poo في حقل الذكاء الاصطناعي. بدلاً من ذلك ، من المفترض أن تبدأ محادثة صور كبيرة حول ما يقف بين نماذج الذكاء الاصطناعى اليوم و Agi-و Super-Sinkeligence-وتلاحظ تلك الحاصرات.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى