تقنية

أصبحت شرائح Trainium2 من AWS لبناء ماجستير إدارة الأعمال متاحة الآن بشكل عام، مع وصول Trainium3 في أواخر عام 2025


في مؤتمرها re:Invent، أعلنت AWS اليوم عن التوفر العام لشرائح Trainium2 (T2) الخاصة بها للتدريب ونشر نماذج اللغات الكبيرة (LLMs). ستكون هذه الرقائق، التي أعلنت عنها AWS لأول مرة قبل عام، أسرع بأربع مرات من سابقاتها، مع مثيل EC2 واحد مدعوم بـ Trainium2 مع 16 شريحة T2 توفر ما يصل إلى 20.8 بيتافلوب من أداء الحوسبة. من الناحية العملية، هذا يعني أن تشغيل الاستدلال لنموذج Llama 405B الضخم من Meta كجزء من منصة Amazon’s Bedrock LLM سيكون قادرًا على تقديم “إنتاجية أعلى بثلاثة أضعاف لتوليد الرمز المميز مقارنة بالعروض الأخرى المتاحة من قبل موفري الخدمات السحابية الرئيسيين”، وفقًا لـ AWS.

سيتم أيضًا نشر هذه الرقائق الجديدة فيما تسميه AWS “EC2 Trn2 UltraServers”. ستحتوي هذه المثيلات على 64 شريحة Trainium2 مترابطة والتي يمكن أن تصل إلى 83.2 بيتافلوب من الحوسبة القصوى. أبلغنا متحدث باسم AWS أن أرقام الأداء هذه البالغة 20.8 بيتافلوب مخصصة للنماذج الكثيفة ودقة FP8. قيمة 83.2 بيتافلوب هي لـ FP8 مع النماذج المتفرقة.

اعتمادات الصورة:أوس

تلاحظ AWS أن UltraServers هذه تستخدم اتصال NeuronLink لربط جميع شرائح Trainium هذه معًا.

تعمل الشركة مع Anthropic، وقد وضعت AWS، موفر LLM، رهاناتها (المالية) لبناء مجموعة ضخمة من UltraServers مع “مئات الآلاف من شرائح Trainium2” لتدريب نماذج Anthropics. تقول AWS إن هذه المجموعة الجديدة ستكون أقوى بمقدار 5 أضعاف (من حيث exaflops للحوسبة) مقارنةً بالمجموعة Anthropic التي استخدمتها لتدريب الجيل الحالي من النماذج، كما تشير AWS أيضًا إلى أنه “من المتوقع أن تكون أكبر مجموعة حوسبة للذكاء الاصطناعي في العالم”. المبلغ عنها حتى الآن.”

بشكل عام، تعد هذه المواصفات بمثابة تحسين مقارنة بالجيل الحالي من وحدات معالجة الرسومات من Nvidia، والتي لا تزال في ارتفاع الطلب ونقص العرض. ومع ذلك، فهي تتضاءل أمام ما وعدت به Nvidia لشرائح Blackwell من الجيل التالي (مع ما يصل إلى 720 بيتافلوب من أداء FP8 في حامل مزود بـ 72 وحدة معالجة رسومات Blackwell)، والتي من المفترض أن تصل – بعد قليل من التأخير – في أوائل العام المقبل .

اعتمادات الصورة:خدمات أمازون ويب /

Trainium3: أسرع بـ 4 مرات، وسيأتي في عام 2025

ربما لهذا السبب استغلت AWS أيضًا هذه اللحظة للإعلان فورًا عن الجيل التالي من الرقائق، أيضًا Trainium3. بالنسبة إلى Trainium3، تتوقع AWS زيادة أخرى في الأداء بمقدار 4x لخوادم UltraServers الخاصة بها، على سبيل المثال، وتعد بتقديم هذا التكرار التالي، المبني على عملية 3 نانومتر، في أواخر عام 2025. وهذه دورة إصدار سريعة جدًا، على الرغم من أنه لا يزال يتعين رؤيتها إلى متى ستظل شرائح Trainium3 قيد المعاينة ومتى ستصل أيضًا إلى أيدي المطورين.

قال ديفيد براون، نائب رئيس قسم الحوسبة والشبكات في AWS، في الإعلان: “Trainium2 هي شريحة AWS الأعلى أداءً التي تم إنشاؤها حتى الآن”. “ومع اقتراب النماذج من تريليونات من المعلمات، كنا نعلم أن العملاء سيحتاجون إلى نهج جديد لتدريب هذه النماذج الضخمة وتشغيلها. توفر Trn2 UltraServers الجديدة أسرع أداء للتدريب والاستدلال على AWS لأكبر النماذج في العالم. ومع رقائق Trainium3 من الجيل الثالث، سنمكن العملاء من بناء نماذج أكبر بشكل أسرع وتقديم أداء فائق في الوقت الفعلي عند نشرها.

تتوفر الآن مثيلات Trn2 بشكل عام في منطقة شرق الولايات المتحدة (أوهايو) التابعة لـ AWS (مع إطلاق مناطق أخرى قريبًا)، في حين أن UltraServers قيد المعاينة حاليًا.


اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading