تقنية

معهد ماساتشوستس للتكنولوجيا يطرح لأول مرة طريقة كبيرة مستوحاة من نموذج اللغة لتعليم الروبوتات مهارات جديدة


عرض معهد ماساتشوستس للتكنولوجيا هذا الأسبوع نموذجًا جديدًا لتدريب الروبوتات. وبدلاً من المجموعة القياسية من البيانات المركزة المستخدمة لتعليم الروبوتات مهام جديدة، فإن الطريقة تسير على نطاق واسع، حيث تحاكي مجموعات هائلة من المعلومات المستخدمة لتدريب نماذج اللغة الكبيرة (LLMs).

لاحظ الباحثون أن التعلم بالتقليد – الذي يتعلم فيه الوكيل من خلال متابعة فرد يؤدي مهمة – يمكن أن يفشل عند تقديم تحديات صغيرة. يمكن أن تكون هذه أشياء مثل الإضاءة، أو بيئة مختلفة، أو عوائق جديدة. في هذه السيناريوهات، لا تملك الروبوتات ببساطة ما يكفي من البيانات للاستفادة منها من أجل التكيف.

نظر الفريق إلى نماذج مثل GPT-4 للحصول على نوع من نهج بيانات القوة الغاشمة لحل المشكلات.

يقول ليروي وانج، المؤلف الرئيسي للدراسة الجديدة: «في مجال اللغة، تكون البيانات كلها مجرد جمل». “في مجال الروبوتات، ونظرًا لعدم التجانس في البيانات، إذا كنت تريد التدريب المسبق بطريقة مماثلة، فنحن بحاجة إلى بنية مختلفة.”

قدم الفريق بنية جديدة تسمى المحولات غير المتجانسة المدربة مسبقًا (HPT)، والتي تجمع المعلومات من أجهزة استشعار مختلفة وبيئات مختلفة. ثم تم استخدام المحول لتجميع البيانات في نماذج التدريب. كلما كان المحول أكبر، كان الإخراج أفضل.

يقوم المستخدمون بعد ذلك بإدخال تصميم الروبوت وتكوينه والمهمة التي يريدون إنجازها.

وقال ديفيد هيلد، الأستاذ المساعد بجامعة كارنيجي ميلون، عن البحث: “حلمنا هو أن يكون لدينا عقل آلي عالمي يمكنك تنزيله واستخدامه للروبوت الخاص بك دون أي تدريب على الإطلاق”. “بينما نحن في المراحل الأولى فقط، سنواصل الدفع بقوة ونأمل أن يؤدي التوسع إلى اختراق في السياسات الروبوتية، كما حدث مع النماذج اللغوية الكبيرة.”

تم تأسيس هذا البحث جزئيًا بواسطة معهد أبحاث تويوتا. في العام الماضي في TechCrunch Disrupt، أطلقت TRI لأول مرة طريقة لتدريب الروبوتات بين عشية وضحاها. وفي الآونة الأخيرة، أبرمت شراكة فاصلة من شأنها أن توحد أبحاثها في تعلم الروبوتات مع أجهزة بوسطن ديناميكس.


اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading