تقنية

لم تقم Google حتى الآن بإصلاح منشئ الصور المتحيزة الخاص بـ Gemini


في شهر فبراير الماضي، أوقفت شركة جوجل مؤقتًا قدرة برنامج الدردشة Gemini الذي يعمل بالذكاء الاصطناعي على إنشاء صور للأشخاص بعد أن اشتكى المستخدمون من عدم الدقة التاريخية. على سبيل المثال، عندما يُطلب من الجوزاء أن يصور “الفيلق الروماني”، فإنه سيُظهر مجموعة متنوعة من الجنود على نحو عفا عليه الزمن، بينما يجعل “محاربي الزولو” أسودًا بشكل موحد.

اعتذر الرئيس التنفيذي لشركة Google ساندر بيتشاي، وقال ديميس هاسابيس، المؤسس المشارك لقسم أبحاث الذكاء الاصطناعي في Google DeepMind، إن الإصلاح يجب أن يصل “في وقت قصير جدًا” – لكننا الآن في شهر مايو، ولم يتم الإصلاح الموعود بعد يظهر.

روجت جوجل للكثير من ميزات Gemini الأخرى في مؤتمر I/O السنوي للمطورين هذا الأسبوع، بدءًا من برامج الدردشة المخصصة إلى مخطط رحلات العطلات والتكامل مع تقويم Google وKeep وYouTube Music. لكن إنشاء الصور للأشخاص لا يزال متوقفًا في تطبيقات Gemini على الويب والهاتف المحمول، حسبما أكد متحدث باسم Google.

إذن ما هو التعطيل؟ حسنًا، من المحتمل أن تكون المشكلة أكثر تعقيدًا مما ألمح إليه هاسابيس.

تحتوي مجموعات البيانات المستخدمة لتدريب مولدات الصور مثل مجموعة جيميني بشكل عام على صور للأشخاص البيض أكثر من الأشخاص من الأعراق والأعراق الأخرى، كما أن صور الأشخاص غير البيض في مجموعات البيانات هذه تعزز الصور النمطية السلبية. قامت Google، في محاولة واضحة لتصحيح هذه التحيزات، بتطبيق تشفير أخرق تحت الغطاء لإضافة التنوع إلى الاستعلامات التي لم يتم تحديد مظهر الشخص فيها. وهي الآن تناضل من أجل إيجاد طريق وسط معقول يتجنب تكرار التاريخ.

هل ستصل جوجل إلى هناك؟ ربما. ربما لا. على أية حال، فإن هذه القضية التي طال أمدها هي بمثابة تذكير بأنه ليس من السهل حل مشكلة سوء تصرف الذكاء الاصطناعي – خاصة عندما يكون التحيز هو السبب الجذري لسوء السلوك.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى