تقنية

تزعم شركة مايكروسوفت أن أداتها الجديدة يمكنها تصحيح هلوسة الذكاء الاصطناعي، لكن الخبراء ينصحون بالحذر


الذكاء الاصطناعي هو كاذب سيء السمعة، وتقول مايكروسوفت الآن أن لديها حلاً لذلك. ومن المفهوم أن هذا سوف يثير بعض الدهشة، ولكن هناك سبب للشك.

كشفت شركة مايكروسوفت اليوم عن خدمة Correction، وهي خدمة تحاول مراجعة النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي تلقائيًا والذي يكون خاطئًا في الواقع. تصحيح الأعلام الأولى النص الذي يمكن كن خاطئًا – على سبيل المثال، ملخص لمكالمة الأرباح الربع سنوية لشركة ما والتي ربما تكون قد أخطأت في نسب الاقتباسات – ثم تحقق من صحتها من خلال مقارنة النص بمصدر حقيقي (على سبيل المثال، النصوص).

يمكن استخدام التصحيح، المتوفر كجزء من واجهة برمجة تطبيقات Azure AI Content Safety API من Microsoft، مع أي نموذج ذكاء اصطناعي لإنشاء نص، بما في ذلك Meta’s Llama وOpenAI’s GPT-4o.

قال متحدث باسم Microsoft لـ TechCrunch: “يتم تشغيل التصحيح من خلال عملية جديدة لاستخدام نماذج اللغة الصغيرة ونماذج اللغات الكبيرة لمواءمة المخرجات مع المستندات الأساسية”. “نأمل أن تدعم هذه الميزة الجديدة منشئي ومستخدمي الذكاء الاصطناعي التوليدي في مجالات مثل الطب، حيث يحدد مطورو التطبيقات أن دقة الاستجابات لها أهمية كبيرة.”

قدمت جوجل ميزة مماثلة هذا الصيف في Vertex AI، منصة تطوير الذكاء الاصطناعي الخاصة بها، للسماح للعملاء بوضع النماذج باستخدام بيانات من موفري خدمات خارجيين، أو مجموعات البيانات الخاصة بهم، أو بحث جوجل.

لكن الخبراء يحذرون من أن هذه الأساليب الأساسية لا تعالج السبب الجذري للهلوسة.

قال أوس كيز، الحاصل على درجة الدكتوراه: “إن محاولة القضاء على الهلوسة الناجمة عن الذكاء الاصطناعي التوليدي تشبه محاولة إزالة الهيدروجين من الماء”. مرشح في جامعة واشنطن يدرس التأثير الأخلاقي للتكنولوجيا الناشئة. “إنه عنصر أساسي في كيفية عمل التكنولوجيا.”

نماذج توليد النص تهلوس لأنها لا “تعرف” أي شيء في الواقع. إنها أنظمة إحصائية تحدد الأنماط في سلسلة من الكلمات وتتنبأ بالكلمات التي تأتي بعد ذلك بناءً على عدد لا يحصى من الأمثلة التي تم تدريبها عليها.

ويترتب على ذلك أن استجابات النموذج ليست إجابات، ولكنها مجرد توقعات لكيفية السؤال كان سيتم الرد عليها إذا كانت موجودة في مجموعة التدريب. ونتيجة لذلك، تميل النماذج إلى التلاعب بالحقيقة. وجدت إحدى الدراسات أن ChatGPT من OpenAI يجيب على الأسئلة الطبية بشكل خاطئ نصف الوقت.

الحل الذي تقدمه Microsoft هو زوج من النماذج الوصفية ذات الإسناد الترافقي ومحرر النسخ والمصممة لتسليط الضوء على الهلوسة وإعادة كتابتها.

يبحث نموذج المصنف عن مقتطفات ربما تكون غير صحيحة أو ملفقة أو غير ذات صلة من النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي (الهلوسة). إذا اكتشف الهلوسة، يقوم المصنف بالاستعانة بنموذج ثانٍ، وهو نموذج اللغة، الذي يحاول تصحيح الهلوسة وفقًا لـ “المستندات الأساسية” المحددة.

اعتمادات الصورة: مايكروسوفت

وقال المتحدث باسم مايكروسوفت: “يمكن للتصحيح أن يعزز بشكل كبير موثوقية وجدارة المحتوى الناتج عن الذكاء الاصطناعي من خلال مساعدة مطوري التطبيقات على تقليل استياء المستخدم والمخاطر المحتملة على السمعة”. “من المهم ملاحظة أن اكتشاف التأريض لا يحل مشكلة “الدقة”، ولكنه يساعد في مواءمة مخرجات الذكاء الاصطناعي التوليدية مع المستندات المؤرضة.”

لدى كييز شكوك حول هذا الأمر.

وقالوا: “قد يؤدي ذلك إلى تقليل بعض المشكلات، لكنه سيؤدي أيضًا إلى توليد مشكلات جديدة. بعد كل شيء، مكتبة الكشف عن الهلوسة في كوريكشن من المحتمل أيضًا أن تكون قادرة على الهلوسة.

عند سؤاله عن معلومات أساسية عن نماذج التصحيح، أشار المتحدث إلى ورقة بحثية حديثة من فريق بحث Microsoft تصف بنيات ما قبل الإنتاج للنماذج. لكن الورقة تغفل التفاصيل الأساسية، مثل مجموعات البيانات التي تم استخدامها لتدريب النماذج.

قال مايك كوك، وهو زميل باحث في جامعة كوين ماري متخصص في الذكاء الاصطناعي، إنه حتى لو كان برنامج التصحيح يعمل كما هو معلن عنه، فإنه يهدد بتفاقم مشكلات الثقة وقابلية التفسير حول الذكاء الاصطناعي. قد تكتشف الخدمة بعض الأخطاء، لكنها قد تؤدي أيضًا إلى غرس شعور زائف بالمستخدمين بالأمان – حيث تعتقد أن النماذج صادقة في كثير من الأحيان أكثر مما هي عليه في الواقع.

وقال: “لقد خلقت Microsoft، مثل OpenAI وGoogle، هذه المشكلة حيث يتم الاعتماد على النماذج في السيناريوهات التي تكون فيها خاطئة في كثير من الأحيان”. “ما تفعله مايكروسوفت الآن هو تكرار الخطأ على مستوى أعلى. لنفترض أن هذا ينقلنا من الأمان بنسبة 90% إلى الأمان بنسبة 99% – فالمشكلة لم تكن أبدًا في نسبة الـ 9% هذه. ستكون دائمًا ضمن الـ 1% من الأخطاء التي لم نكتشفها بعد.

وأضاف كوك أن هناك أيضًا زاوية عمل ساخرة حول كيفية تجميع Microsoft للتصحيح. هذه الميزة مجانية في حد ذاتها، ولكن “اكتشاف الأساس” المطلوب لاكتشاف الهلوسة لمراجعة التصحيح يكون مجانيًا فقط لما يصل إلى 5000 “سجل نصي” شهريًا. يكلف 38 سنتًا لكل 1000 سجل نصي بعد ذلك.

من المؤكد أن مايكروسوفت تتعرض لضغوط لتثبت للعملاء – والمساهمين – أن الذكاء الاصطناعي الخاص بها يستحق الاستثمار.

وفي الربع الثاني وحده، استثمرت شركة التكنولوجيا العملاقة ما يقرب من 19 مليار دولار من النفقات الرأسمالية والمعدات المتعلقة في الغالب بالذكاء الاصطناعي. ومع ذلك، لم تشهد الشركة بعد إيرادات كبيرة من الذكاء الاصطناعي. قام أحد المحللين في وول ستريت هذا الأسبوع بتخفيض تصنيف أسهم الشركة، مشيراً إلى الشكوك حول استراتيجية الذكاء الاصطناعي طويلة المدى.

وفقًا لمقالة في The Information، قام العديد من المستخدمين الأوائل بإيقاف عمليات النشر مؤقتًا لمنصة الذكاء الاصطناعي الرائدة من Microsoft، Microsoft 365 Copilot، بسبب مخاوف الأداء والتكلفة. بالنسبة لأحد العملاء الذين يستخدمون برنامج Copilot لاجتماعات Microsoft Teams، يقال إن الذكاء الاصطناعي اخترع الحاضرين وأشار ضمنيًا إلى أن المكالمات كانت حول موضوعات لم تتم مناقشتها فعليًا على الإطلاق.

تعد الدقة واحتمال حدوث الهلوسة من بين أكبر مخاوف الشركات عند تجربة أدوات الذكاء الاصطناعي، وفقًا لاستطلاع أجرته شركة KPMG.

وقال كوك: “إذا كانت هذه دورة حياة عادية للمنتج، فسيظل الذكاء الاصطناعي التوليدي في مرحلة البحث والتطوير الأكاديمي، ويتم العمل عليه لتحسينه وفهم نقاط القوة والضعف فيه”. “بدلاً من ذلك، قمنا بنشرها في عشرات الصناعات. لقد قامت مايكروسوفت وآخرون بتحميل الجميع على سفينتهم الصاروخية الجديدة والمثيرة، ويقررون بناء معدات الهبوط والمظلات أثناء توجههم إلى وجهتهم.


اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading