تكشف Meta عن أحدث شريحة AI مخصصة لها وهي تسابق للحاق بالركب
Meta، العازمة على اللحاق بالمنافسين في مجال الذكاء الاصطناعي التوليدي، تنفق المليارات على جهود الذكاء الاصطناعي الخاصة بها. يذهب جزء من هذه المليارات إلى توظيف باحثين في مجال الذكاء الاصطناعي. ولكن يتم إنفاق جزء أكبر من ذلك على تطوير الأجهزة، وتحديدًا الرقائق لتشغيل وتدريب نماذج الذكاء الاصطناعي الخاصة بشركة Meta.
كشفت شركة Meta النقاب عن أحدث ثمار جهودها في مجال تطوير الرقائق اليوم، وذلك بعد يوم واحد من إعلان شركة Intel عن أحدث أجهزة تسريع الذكاء الاصطناعي. تُسمى الشريحة “الجيل التالي” من التدريب التعريفي ومسرع الاستدلال (MTIA)، وهو خليفة الإصدار 1 من MTIA العام الماضي، وتقوم الشريحة بتشغيل نماذج تتضمن التصنيف والتوصية بالإعلانات الصورية على خصائص Meta (مثل Facebook).
بالمقارنة مع MTIA v1، الذي تم بناؤه على عملية 7 نانومتر، فإن الجيل التالي من MTIA هو 5 نانومتر. (في تصنيع الرقائق، تشير “العملية” إلى حجم أصغر مكون يمكن بناؤه على الشريحة.) يعد الجيل التالي من MTIA تصميمًا أكبر ماديًا، ومزودًا بنوى معالجة أكثر من سابقتها. وعلى الرغم من أنه يستهلك المزيد من الطاقة – 90 واط مقابل 25 واط – فإنه يتميز أيضًا بذاكرة داخلية أكبر (128 ميجابايت مقابل 64 ميجابايت) ويعمل بمتوسط سرعة ساعة أعلى (1.35 جيجا هرتز من 800 ميجا هرتز).
تقول Meta إن الجيل التالي من MTIA موجود حاليًا في 16 منطقة من مناطق مراكز البيانات الخاصة بها ويقدم أداءً أفضل إجماليًا يصل إلى 3x مقارنةً بـ MTIA v1. إذا كان هذا الادعاء “3x” يبدو غامضًا بعض الشيء، فأنت لست مخطئًا – لقد اعتقدنا ذلك أيضًا. لكن ميتا تطوعت فقط بأن هذا الرقم جاء من اختبار أداء “أربعة نماذج رئيسية” عبر كلا الرقاقتين.
“نظرًا لأننا نتحكم في المجموعة بأكملها، يمكننا تحقيق كفاءة أكبر مقارنة بوحدات معالجة الرسوميات المتاحة تجاريًا،” كتب ميتا في منشور مدونة تمت مشاركته مع TechCrunch.
يعد عرض أجهزة Meta – الذي يأتي بعد 24 ساعة فقط من مؤتمر صحفي حول مبادرات الذكاء الاصطناعي التوليدية المختلفة والمستمرة للشركة – أمرًا غير معتاد لعدة أسباب.
أولاً، كشفت Meta في منشور المدونة أنها لا تستخدم الجيل التالي من MTIA لأحمال عمل التدريب على الذكاء الاصطناعي في الوقت الحالي، على الرغم من أن الشركة تدعي أن لديها “عدة برامج جارية” لاستكشاف هذا الأمر. ثانيًا، تعترف ميتا بأن الجيل التالي من MTIA لن يحل محل وحدات معالجة الرسومات لتشغيل النماذج أو تدريبها – بل سيكملها بدلاً من ذلك.
عند القراءة بين السطور، فإن ميتا تتحرك ببطء، وربما أبطأ مما تريد.
من المؤكد تقريبًا أن فرق الذكاء الاصطناعي في Meta تتعرض لضغوط لخفض التكاليف. من المقرر أن تنفق الشركة ما يقدر بنحو 18 مليار دولار بحلول نهاية عام 2024 على وحدات معالجة الرسومات لتدريب وتشغيل نماذج الذكاء الاصطناعي التوليدية، و- مع تكاليف التدريب على النماذج التوليدية المتطورة التي تتراوح بين عشرات الملايين من الدولارات – تقدم الأجهزة الداخلية بديل جذاب.
وبينما تتأخر أجهزة Meta، فإن المنافسين يتقدمون للأمام، الأمر الذي يثير ذعر قيادة Meta، على ما أعتقد.
صنعت جوجل هذا الأسبوع شريحة مخصصة من الجيل الخامس لتدريب نماذج الذكاء الاصطناعي، TPU v5p، متاحة بشكل عام لعملاء Google Cloud، وكشفت عن أول شريحة مخصصة لتشغيل النماذج، Axion. تمتلك أمازون العديد من عائلات شرائح الذكاء الاصطناعي المخصصة تحت حزامها. وقفزت Microsoft العام الماضي إلى المعركة مع Azure Maia AI Accelerator ووحدة المعالجة المركزية Azure Cobalt 100.
في منشور المدونة، يقول ميتا إن الأمر استغرق أقل من تسعة أشهر “للانتقال من نماذج السيليكون الأولى إلى نماذج الإنتاج” من الجيل التالي من MTIA، والتي لكي نكون منصفين فهي أقصر من النافذة النموذجية بين Google TPU. لكن أمام Meta الكثير من العمل للحاق بالركب إذا كانت تأمل في تحقيق قدر من الاستقلالية عن وحدات معالجة الرسوميات التابعة لجهات خارجية – ومواجهة منافستها الشديدة.
طعم وكيف دليل المطاعم والكافيهات دليل المطاعم مدن العالم طعام وشراب مقاهي الرياض أخبار ونصائح دليل الرياض كافيهات الرياض جلسات خارجية دليل مقاهي ومطاعم أفضل كافيهات الرياض عوائل
اكتشاف المزيد من موقع fffm
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.