تقنية

باستخدام الميمات، أصبح مستخدمو وسائل التواصل الاجتماعي فرقًا حمراء لميزات الذكاء الاصطناعي غير المكتملة


تقول ميزة بحث الذكاء الاصطناعي الجديدة من Google: “الجري بالمقص هو تمرين للقلب يمكن أن يزيد من معدل ضربات القلب ويتطلب التركيز والتركيز”. “يقول البعض أنه يمكن أيضًا تحسين المسام ويمنحك القوة.”

قامت ميزة الذكاء الاصطناعي من Google باستخلاص هذا الرد من موقع ويب يسمى Little Old Lady Comedy، والذي، كما يوضح اسمه، عبارة عن مدونة كوميدية. لكن هذه الزلة سخيفة للغاية لدرجة أنه تم تداولها على وسائل التواصل الاجتماعي، إلى جانب نظرات عامة أخرى غير صحيحة بشكل واضح حول الذكاء الاصطناعي على جوجل. على نحو فعال، أصبح المستخدمون العاديون الآن يجمعون هذه المنتجات على وسائل التواصل الاجتماعي.

في مجال الأمن السيبراني، تقوم بعض الشركات بتعيين “فرق حمراء” – قراصنة أخلاقيين – الذين يحاولون اختراق منتجاتهم كما لو كانوا ممثلين سيئين. إذا اكتشف الفريق الأحمر ثغرة أمنية، فيمكن للشركة إصلاحها قبل شحن المنتج. من المؤكد أن جوجل أجرت شكلاً من أشكال الفريق الأحمر قبل إطلاق منتج الذكاء الاصطناعي على بحث جوجل، والذي يُقدر أنه يعالج تريليونات من الاستعلامات يوميًا.

من المدهش إذن أن تستمر شركة ذات موارد عالية مثل Google في شحن منتجات بها عيوب واضحة. لهذا السبب، أصبح الأمر الآن بمثابة ميم للتهريج على إخفاقات منتجات الذكاء الاصطناعي، خاصة في الوقت الذي أصبح فيه الذكاء الاصطناعي أكثر انتشارًا في كل مكان. لقد رأينا هذا مع الأخطاء الإملائية على ChatGPT، وفشل مولدات الفيديو في فهم كيف يأكل البشر السباغيتي، وملخصات أخبار Grok AI على X التي لا تفهم الهجاء، مثل Google. لكن هذه الميمات يمكن أن تكون في الواقع بمثابة تعليقات مفيدة للشركات التي تعمل على تطوير واختبار الذكاء الاصطناعي.

على الرغم من الطبيعة البارزة لهذه العيوب، غالبًا ما تقلل شركات التكنولوجيا من تأثيرها.

وقالت جوجل لـ TechCrunch في بيان أرسل عبر البريد الإلكتروني: “الأمثلة التي رأيناها هي بشكل عام استفسارات غير شائعة جدًا، ولا تمثل تجارب معظم الأشخاص”. “لقد أجرينا اختبارات مكثفة قبل إطلاق هذه التجربة الجديدة، وسوف نستخدم هذه الأمثلة المعزولة بينما نواصل تحسين أنظمتنا بشكل عام.”

لا يرى جميع المستخدمين نفس نتائج الذكاء الاصطناعي، وبحلول الوقت الذي يتم فيه تقديم اقتراح سيء للذكاء الاصطناعي، غالبًا ما يتم تصحيح المشكلة بالفعل. وفي حالة أحدث انتشرت على نطاق واسع، اقترحت جوجل أنه إذا كنت تقوم بإعداد البيتزا ولكن الجبن لا يلتصق، فيمكنك إضافة حوالي ثمن كوب من الغراء إلى الصلصة “لإضفاء المزيد من اللزوجة عليها”. كما اتضح فيما بعد، يقوم الذكاء الاصطناعي بسحب هذه الإجابة من تعليق Reddit عمره أحد عشر عامًا من مستخدم يُدعى “f––smith”.

وبعيدًا عن كونه خطأً لا يصدق، فهو يشير أيضًا إلى أن صفقات محتوى الذكاء الاصطناعي قد تكون مبالغ فيها. على سبيل المثال، أبرمت Google عقدًا بقيمة 60 مليون دولار مع Reddit لترخيص محتواها للتدريب على نماذج الذكاء الاصطناعي. وقعت Reddit صفقة مماثلة مع OpenAI الأسبوع الماضي، ويشاع أن خصائص Automattic WordPress.org وTumblr تجري محادثات لبيع البيانات إلى Midjourney وOpenAI.

ويُحسب لشركة جوجل أن الكثير من الأخطاء التي يتم تداولها على وسائل التواصل الاجتماعي تأتي من عمليات البحث غير التقليدية المصممة لعرقلة الذكاء الاصطناعي. على الأقل آمل ألا يبحث أحد جديًا عن “الفوائد الصحية للجري بالمقص”. لكن بعض هذه الأخطاء أكثر خطورة. نشرت الصحفية العلمية إرين روس على موقع X أن جوجل تبث معلومات غير صحيحة حول ما يجب فعله إذا تعرضت لعضة أفعى مجلجلة.

ويظهر منشور روس، الذي حصل على أكثر من 13 ألف إعجاب، أن الذكاء الاصطناعي أوصى بوضع عاصبة على الجرح، وقطع الجرح وامتصاص السم. وفقًا لخدمة الغابات الأمريكية، هذه هي كل الأشياء التي يجب عليك فعلها لا افعل، إذا تعرضت للعض. وفي الوقت نفسه على Bluesky، قام المؤلف T Kingfisher بتضخيم منشور يظهر الجوزاء من Google وهو يخطئ في التعرف على فطر سام على أنه فطر أبيض شائع – وقد انتشرت لقطات الشاشة لهذا المنشور إلى منصات أخرى كقصة تحذيرية.

عندما تنتشر استجابة الذكاء الاصطناعي السيئة على نطاق واسع، يمكن أن يصبح الذكاء الاصطناعي أكثر ارتباكًا بسبب المحتوى الجديد حول الموضوع الذي يأتي نتيجة لذلك. في يوم الأربعاء، نشر مراسل صحيفة نيويورك تايمز، أريك تولير، لقطة شاشة على موقع X تظهر استعلامًا يسأل عما إذا كان كلبًا قد لعب في NHL من قبل. كان رد الذكاء الاصطناعي هو نعم – لسبب ما، أطلق الذكاء الاصطناعي على لاعب كالغاري فليمز، مارتن بوسبيسيل، لقب كلب. الآن، عندما تقوم بنفس الاستعلام، يقوم الذكاء الاصطناعي بسحب مقال من صحيفة ديلي دوت حول كيف يستمر الذكاء الاصطناعي في جوجل في التفكير بأن الكلاب تمارس الرياضة. يتم تغذية الذكاء الاصطناعي بأخطائه، مما يزيد من تسميمه.

هذه هي المشكلة المتأصلة في تدريب نماذج الذكاء الاصطناعي واسعة النطاق هذه على الإنترنت: في بعض الأحيان، يكذب الأشخاص على الإنترنت. ولكن تمامًا كما لا توجد قاعدة ضد كلب يلعب كرة السلة، لا توجد للأسف قاعدة ضد شركات التكنولوجيا الكبرى التي تقوم بشحن منتجات الذكاء الاصطناعي السيئة.

وكما يقول المثل: القمامة في الداخل، القمامة في الخارج.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى