تقنية

أصدر أحد المختبرات الصينية نموذجًا “استدلاليًا” للذكاء الاصطناعي لمنافسة نموذج OpenAI


كشف أحد المختبرات الصينية عما يبدو أنه أحد نماذج الذكاء الاصطناعي “الاستدلالية” الأولى التي تنافس نموذج OpenAI.

في يوم الأربعاء، أصدرت شركة DeepSeek، وهي شركة أبحاث تعمل في مجال الذكاء الاصطناعي بتمويل من المتداولين الكميين، معاينة لـ DeepSeek-R1، الذي تدعي الشركة أنه نموذج منطقي تنافسي مع o1.

على عكس معظم النماذج، تقوم نماذج الاستدلال بالتحقق من الحقائق بشكل فعال من خلال قضاء المزيد من الوقت في التفكير في سؤال أو استفسار. وهذا يساعدهم على تجنب بعض المخاطر التي عادة ما تؤدي إلى تعثر النماذج.

على غرار o1، يقوم DeepSeek-R1 بالتفكير من خلال المهام والتخطيط المسبق وتنفيذ سلسلة من الإجراءات التي تساعد النموذج في الوصول إلى إجابة. قد يستغرق هذا بعض الوقت. مثل o1، اعتمادًا على مدى تعقيد السؤال، قد “يفكّر” DeepSeek-R1 لعشرات الثواني قبل الإجابة.

اعتمادات الصورة:ديب سيك

تدعي DeepSeek أن أداء DeepSeek-R1 (أو DeepSeek-R1-Lite-Preview، على وجه الدقة) يعمل على قدم المساواة مع نموذج المعاينة o1 الخاص بـ OpenAI في اثنين من معايير الذكاء الاصطناعي الشهيرة، AIME وMATH. يستخدم AIME نماذج الذكاء الاصطناعي الأخرى لتقييم أداء النموذج، في حين أن MATH عبارة عن مجموعة من المسائل الكلامية. لكن النموذج ليس مثاليا. لاحظ بعض المعلقين على X أن DeepSeek-R1 يعاني من tic-tac-toe ومشاكل منطقية أخرى. (O1 يفعل ذلك أيضًا.)

ويبدو أيضًا أن DeepSeek-R1 يمنع الاستفسارات التي تعتبر حساسة للغاية من الناحية السياسية. في اختبارنا، رفض النموذج الإجابة على أسئلة حول الزعيم الصيني شي جين بينغ، وميدان تيانانمين، والتداعيات الجيوسياسية لغزو الصين لتايوان.

ديب سيك-R1
اعتمادات الصورة:ديب سيك

من المحتمل أن يكون هذا السلوك نتيجة للضغط الذي تمارسه الحكومة الصينية على مشاريع الذكاء الاصطناعي في المنطقة. ويجب أن تخضع النماذج في الصين للمعايير من قبل الجهة المنظمة للإنترنت في الصين لضمان أن استجاباتها “تجسد القيم الاشتراكية الأساسية”. يقال إن الحكومة ذهبت إلى حد اقتراح قائمة سوداء بالمصادر التي لا يمكن استخدامها لتدريب النماذج، وكانت النتيجة أن العديد من أنظمة الذكاء الاصطناعي الصينية ترفض الاستجابة للمواضيع التي قد تثير حفيظة المنظمين.

يأتي الاهتمام المتزايد بنماذج الاستدلال في الوقت الذي تخضع فيه صلاحية “قوانين القياس”، وهي نظريات قديمة العهد مفادها أن إلقاء المزيد من البيانات والقدرة الحاسوبية على النموذج من شأنه أن يزيد باستمرار من قدراته، للتدقيق. تشير سلسلة من التقارير الصحفية إلى أن النماذج من مختبرات الذكاء الاصطناعي الكبرى بما في ذلك OpenAI وGoogle وAnthropic لا تتحسن بشكل كبير كما كانت من قبل.

وقد أدى ذلك إلى التدافع نحو أساليب الذكاء الاصطناعي والهندسة المعمارية وتقنيات التطوير الجديدة. أحدهما هو حساب وقت الاختبار، والذي يدعم نماذج مثل o1 وDeepSeek-R1. المعروف أيضًا باسم حساب الاستدلال، يمنح حساب وقت الاختبار النماذج وقتًا إضافيًا للمعالجة لإكمال المهام.

قال ساتيا ناديلا، الرئيس التنفيذي لشركة مايكروسوفت، هذا الأسبوع خلال كلمة رئيسية في مؤتمر مايكروسوفت Ignite، في إشارة إلى حساب وقت الاختبار: “إننا نشهد ظهور قانون جديد للتوسع”.

تعد DeepSeek، التي تقول إنها تخطط لفتح المصدر DeepSeek-R1 وإصدار واجهة برمجة التطبيقات، عملية غريبة. إنه مدعوم من High-Flyer Capital Management، وهو صندوق تحوط كمي صيني يستخدم الذكاء الاصطناعي لإبلاغ قرارات التداول الخاصة به.

تقوم High-Flyer ببناء مجموعات الخوادم الخاصة بها للتدريب على النماذج، والتي يقال إن أحدثها يحتوي على 10000 وحدة معالجة رسوميات Nvidia A100 وتكلف مليار ين (حوالي 138 مليون دولار). تهدف شركة High-Flyer، التي أسسها Liang Wenfeng، وهو خريج علوم الكمبيوتر، إلى تحقيق الذكاء الاصطناعي “الفائق الذكاء” من خلال مؤسسة DeepSeek الخاصة بها.


اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading