تقنية

يقوم Inference.ai بمطابقة أعباء عمل الذكاء الاصطناعي مع حساب GPU السحابي


إن قدرة وحدات معالجة الرسومات على إجراء العديد من العمليات الحسابية بالتوازي تجعلها مناسبة تمامًا لتشغيل الذكاء الاصطناعي الأكثر قدرة اليوم. لكن شراء وحدات معالجة الرسومات أصبح أكثر صعوبة، حيث تعمل الشركات من جميع الأحجام على زيادة استثماراتها في المنتجات التي تعمل بالذكاء الاصطناعي.

تم بيع بطاقات الذكاء الاصطناعي الأفضل أداءً من Nvidia في العام الماضي، واقترح الرئيس التنفيذي لشركة TSMC لصناعة الرقائق أن العرض العام قد يكون محدودًا حتى عام 2025. المشكلة حادة جدًا، في الواقع، لدرجة أنها جذبت انتباه لجنة التجارة الفيدرالية الأمريكية – أعلنت الوكالة مؤخرًا أنها التحقيق في العديد من الشراكات بين الشركات الناشئة في مجال الذكاء الاصطناعي وعمالقة السحابة مثل Google وAWS حول ما إذا كانت الشركات الناشئة قد تتمتع بوصول مميز وغير تنافسي إلى حساب GPU.

ما هو الحل؟ ذلك يعتمد على الموارد الخاصة بك، حقا. يقوم عمالقة التكنولوجيا مثل Meta وGoogle وAmazon وMicrosoft بشراء ما يمكنهم من وحدات معالجة الرسوميات وتطوير شرائحهم المخصصة. المشاريع ذات الموارد الأقل تكون تحت رحمة السوق – لكن لا ينبغي أن يظل الأمر على هذا النحو إلى الأبد، كما يقول جون يو ومايكل يو.

Yue وYu هما المؤسسان المشاركان لـ Inference.ai، وهي منصة توفر حوسبة GPU السحابية للبنية التحتية كخدمة من خلال شراكات مع مراكز بيانات تابعة لجهات خارجية. يقول يوي إن الاستدلال يستخدم الخوارزميات لمطابقة أعباء عمل الشركات مع موارد وحدة معالجة الرسومات، بهدف التخلص من التخمين عند اختيار البنية التحتية والحصول عليها.

“يوضح الاستدلال مشهد الأجهزة المربك للمؤسسين والمطورين من خلال شرائح جديدة قادمة من Nvidia وIntel وAMD وGroq [and so on] – مما يسمح بإنتاجية أعلى وزمن وصول أقل وتكلفة أقل،” قال يو. “تسمح أدواتنا وفريقنا لصانعي القرار بتصفية الكثير من الضوضاء والعثور بسرعة على المنتج المناسب لمشروعهم.”

يوفر الاستدلال للعملاء بشكل أساسي مثيل GPU في السحابة، بالإضافة إلى 5 تيرابايت من مساحة تخزين الكائنات. تدعي الشركة أنه – بفضل تقنية المطابقة الخوارزمية الخاصة بها والتعامل مع مشغلي مراكز البيانات – يمكنها تقديم حوسبة GPU أرخص بشكل كبير مع توفر أفضل من موفري الخدمات السحابية العامة الرئيسيين.

وقال يو: “إن سوق GPU المستضاف مربك ويتغير يوميًا”. “بالإضافة إلى ذلك، فقد رأينا اختلافًا في الأسعار بنسبة تصل إلى 1000% لنفس التكوين. تسمح أدواتنا وفريقنا لصانعي القرار بتصفية الكثير من الضوضاء والعثور بسرعة على المنتج المناسب لمشروعهم.

الآن، لم يكن TechCrunch قادرًا على اختبار هذه الادعاءات. ولكن بغض النظر عما إذا كانت صحيحة أم لا، فإن الاستدلال لديه منافسة، والكثير منها.

انظر: CoreWeave، وهي شركة تعدين للعملات المشفرة تحولت إلى مزود لوحدة معالجة الرسومات، والتي من المتوقع أن تحقق إيرادات تبلغ حوالي 1.5 مليار دولار بحلول عام 2024. وحصلت منافستها الوثيقة، Lambda Labs، على 300 مليون دولار من رأس المال الاستثماري في أكتوبر الماضي. هناك أيضًا Together — سحابة GPU — ناهيك عن الشركات الناشئة مثل Run.ai وExafunction، والتي تهدف إلى تقليل تكاليف تطوير الذكاء الاصطناعي عن طريق استخلاص الأجهزة الأساسية.

يبدو أن مستثمري Inference يعتقدون أن هناك مجالًا للاعب آخر. أغلقت الشركة الناشئة مؤخرًا جولة بقيمة 4 ملايين دولار من Cherubic Ventures وMaple VC وFusion Fund، والتي يقول Yue إنها مخصصة لبناء البنية التحتية لنشر Inference.

في بيان عبر البريد الإلكتروني، أضاف مات تشينج من Cherubic:

“ستستمر متطلبات قدرة المعالجة في التزايد نظرًا لأن الذكاء الاصطناعي هو الأساس للعديد من المنتجات والأنظمة الحالية. نحن واثقون من أن فريق Inference، بفضل معرفته السابقة بالأجهزة والبنية التحتية السحابية، لديه ما يلزم لتحقيق النجاح. لقد قررنا الاستثمار لأن خدمات الحوسبة والتخزين المتسارعة تقود ثورة الذكاء الاصطناعي، وسيعمل منتج الاستدلال على تغذية الموجة التالية من نمو الذكاء الاصطناعي.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى