تقنية

يخبر Grok بشكل غير محدود من مستخدمي X عن الإبادة الجماعية لجنوب إفريقيا


يبدو أن Elon Musk’s AI chatbot Grok يعاني من خطأ يوم الأربعاء الذي تسبب في الرد على عشرات المنشورات على X مع معلومات حول الإبادة الجماعية في جنوب إفريقيا ، حتى عندما لم يسأل المستخدم أي شيء عن الموضوع.

جاءت الاستجابات الغريبة إلى حد كبير من حساب X لـ Grok ، والذي يرد على المستخدمين الذين لديهم منشورات تم إنشاؤها من الذكاء الاصطناعى كلما علامات المستخدم @Grok. عندما سئل عن الموضوعات غير ذات الصلة ، أخبر Grok المستخدمين مرارًا وتكرارًا عن “الإبادة الجماعية البيضاء” ، وكذلك الهتاف المضاد للفرنوديس “قتل البوير”.

في أحد الأمثلة ، سأل أحد المستخدمين جروك عن راتب لاعب البيسبول المحترف ، ورد جروك على أن “مطالبة” الإبادة الجماعية البيضاء “في جنوب إفريقيا تتم مناقشتها”.

نشر العديد من المستخدمين على X حول تفاعلاتهم المربكة والغريبة مع Grok AI chatbot يوم الأربعاء.

من غير الواضح في هذا الوقت ما هو سبب إجابات Grok الغريبة ، ولكن تم التلاعب في chatbots من Xai في الماضي.

في فبراير / شباط ، بدا أن Grok 3 قد خضعت للرقابة لفترة وجيزة على الإشارات غير المتوفرة لإيلون موسك ودونالد ترامب. في ذلك الوقت ، بدا أن قيادة Xai Engineering Igor Babuschkin تؤكد أن Grok تم توجيه تعليمات إليه لفترة وجيزة ، على الرغم من أن الشركة عكست بسرعة التعليم بعد أن لفتت رد الفعل العكسي اهتمامًا أكبر.

لم يرد متحدث باسم XAI على الفور على طلب TechCrunch للتعليق.

كافح مقدمو النماذج من الذكاء الاصطناعى من أجل تخفيف ردود chatbots من الذكاء الاصطناعي في الأشهر الأخيرة. أُجبرت Openai مؤخرًا على تراجع تحديث إلى ChatGPT الذي تسبب في أن يكون chatbot من الذكاء الاصطناعي sycophanty بشكل مفرط. وفي الوقت نفسه ، واجهت Google مشاكل في رفض chatbot Gemini الإجابة ، أو إعطاء المعلومات الخاطئة ، حول الموضوعات السياسية.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى