تم تصنيف العديد من منتجات الذكاء الاصطناعي الشائعة على أنها غير آمنة للأطفال بواسطة Common Sense Media

وجدت مراجعة مستقلة لأدوات الذكاء الاصطناعي الشائعة أن العديد منها، بما في ذلك My AI وDALLE وStable Diffusion من Snapchat، قد لا تكون آمنة للأطفال. تأتي المراجعات الجديدة من Common Sense Media، وهي مجموعة مناصرة غير ربحية للعائلات تشتهر بتقديم تقييمات الوسائط للآباء الذين يرغبون في تقييم التطبيقات والألعاب والبودكاست والبرامج التلفزيونية والأفلام والكتب التي يستهلكها أطفالهم. وفي وقت سابق من هذا العام، قالت الشركة إنها ستضيف قريبًا تصنيفات لمنتجات الذكاء الاصطناعي إلى مواردها المخصصة للعائلات. واليوم، تم إطلاق هذه التقييمات، حيث تقدم ما يسمى بـ “ملصقات التغذية” لمنتجات الذكاء الاصطناعي، مثل برامج الدردشة الآلية، ومولدات الصور، والمزيد.
أعلنت الشركة لأول مرة في يوليو أنها تهدف إلى بناء نظام تصنيف لتقييم منتجات الذكاء الاصطناعي عبر عدد من الأبعاد، بما في ذلك ما إذا كانت التكنولوجيا تستفيد من ممارسات الذكاء الاصطناعي المسؤولة أم لا بالإضافة إلى مدى ملاءمتها للأطفال. وجاءت هذه الخطوة من خلال دراسة استقصائية للآباء والأمهات لقياس مدى اهتمامهم بمثل هذه الخدمة. قال 82% من الآباء إنهم يريدون المساعدة في تقييم ما إذا كانت منتجات الذكاء الاصطناعي الجديدة، مثل ChatGPT، آمنة لاستخدام أطفالهم أم لا. وقال 40% فقط أنهم يعرفون أي موارد موثوقة من شأنها أن تساعدهم في اتخاذ تلك القرارات.
وقد أدى ذلك إلى إطلاق أول تصنيفات منتجات الذكاء الاصطناعي لشركة Common Sense Media اليوم. المنتجات التي تقيمها هي تقييمات عبر العديد من مبادئ الذكاء الاصطناعي، بما في ذلك الثقة وسلامة الأطفال والخصوصية والشفافية والمساءلة والتعلم والإنصاف والعلاقات الاجتماعية والفوائد التي تعود على الناس والمجتمع.
قامت المنظمة في البداية بمراجعة 10 تطبيقات شائعة على مقياس مكون من 5 نقاط، بما في ذلك تلك المستخدمة للتعلم، وروبوتات الدردشة المستندة إلى الذكاء الاصطناعي مثل Bard وChatGPT، بالإضافة إلى منتجات الذكاء الاصطناعي التوليدية، مثل Snap’s My AI وDALL-E وغيرها. وليس من المستغرب أن تكون الفئة الأخيرة هي الأسوأ.
قالت تريسي بيتسو-فري، كبيرة مستشاري الذكاء الاصطناعي في شركة Common Sense Media، في ملخص للتقييمات: “إن الذكاء الاصطناعي ليس صحيحًا دائمًا، كما أنه ليس محايدًا للقيم”. “كل الذكاء الاصطناعي التوليدي، بحكم حقيقة أن النماذج يتم تدريبها على كميات هائلة من بيانات الإنترنت، يستضيف مجموعة واسعة من التحيزات الثقافية والعنصرية والاجتماعية والاقتصادية والتاريخية والجنسانية – وهذا هو بالضبط ما وجدناه في تقييماتنا، قالت. “نأمل أن تشجع تقييماتنا المزيد من المطورين على بناء وسائل حماية تحد من انتشار المعلومات الخاطئة والقيام بدورهم لحماية الأجيال القادمة من التداعيات غير المقصودة.”
في اختبارات TechCrunch الخاصة، وجدت المراسلة أماندا سيلبرلينج أن ميزات الذكاء الاصطناعي المولدة للذكاء الاصطناعي في Snapchat تميل عمومًا إلى أن تكون أكثر غرابة وعشوائية، من كونها ضارة بشكل فعال، لكن Common Sense Media أعطت برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي تقييمًا بنجمتين، مشيرة إلى أنه أنتج بعض الاستجابات التي عززت التحيزات غير العادلة حول التمييز على أساس السن، والتمييز على أساس الجنس، والقوالب النمطية الثقافية. كما أنه يقدم بعض الاستجابات غير المناسبة، في بعض الأحيان، فضلا عن عدم الدقة. كما قامت بتخزين بيانات المستخدم الشخصية، والتي قالت المنظمة إنها تثير مخاوف تتعلق بالخصوصية.
ردت شركة Snap على المراجعة الضعيفة، مشيرة إلى أن My AI كانت أداة اختيارية وأن Snapchat يوضح أنها برنامج دردشة آلي وتنصح المستخدمين بشأن حدوده. تم دمج My AI أيضًا في Family Center الخاص بها حتى يتمكن الآباء من معرفة ما إذا كان المراهقون يتحدثون معه ومتى يتحدثون معه، حسبما قالت الشركة لـ TechCrunch، لكنها أضافت أن الشركة تقدر التعليقات التي قدمتها المراجعة مع استمرارها في تحسين منتجها.
وكانت نماذج الذكاء الاصطناعي التوليدية الأخرى مثل DALL-E وStable Diffusion تنطوي على مخاطر مماثلة، بما في ذلك الميل نحو تجسيد النساء والفتيات وإضفاء الطابع الجنسي عليهن وتعزيز الصور النمطية بين الجنسين، من بين مخاوف أخرى. (لم يتم الرد على طلبات التعليق على الفور).
مثل أي وسيلة جديدة على الإنترنت، تُستخدم نماذج الذكاء الاصطناعي التوليدية هذه أيضًا لإنتاج مواد إباحية. أصبحت مواقع مثل Hugging Face وCivitai شائعة ليس فقط كموارد للعثور على نماذج صور جديدة، ولكن أيضًا لتسهيل العثور على نماذج مختلفة يمكن دمجها مع بعضها البعض لصنع مواد إباحية باستخدام صورة شخص ما (مثل المشاهير). وصلت هذه المشكلة إلى ذروتها هذا الأسبوع، عندما انتقدت 404Media قدرات Civitai، لكن الجدل حول الطرف المسؤول – مجمعي المجتمع أو نماذج الذكاء الاصطناعي نفسها – استمر على مواقع مثل Hacker News في أعقاب ذلك.
في الطبقة المتوسطة من تصنيفات Common Sense، كانت روبوتات الدردشة المدعمة بالذكاء الاصطناعي مثل Bard من Google (الذي تم افتتاحه رسميًا بالأمس فقط للمراهقين)، وChatGPT، وToddle AI. وحذرت المنظمة من احتمال حدوث تحيز في هذه الروبوتات أيضًا، خاصة بالنسبة للمستخدمين ذوي “الخلفيات واللهجات المتنوعة”. ويمكنهم أيضًا إنتاج معلومات غير دقيقة – أو هلوسة الذكاء الاصطناعي – وتعزيز الصور النمطية. وحذرت مؤسسة Common Sense من أن المعلومات الكاذبة التي ينتجها الذكاء الاصطناعي يمكن أن تشكل وجهات نظر المستخدمين حول العالم وتزيد من صعوبة فصل الحقيقة عن الخيال.
كانت منتجات الذكاء الاصطناعي الوحيدة التي حصلت على تقييمات جيدة هي خدمة Ello’s AI للقراءة وتسليم الكتب، وKhanmingo (من أكاديمية خان)، وKyron Learning’s AI tutor – وكلها منتجات ذكاء اصطناعي مصممة للأغراض التعليمية. وهم أقل شهرة من غيرهم. (و، كما قد يجادل بعض الأطفال، أقل متعة). ومع ذلك، نظرًا لأن الشركات صممتها مع وضع استخدام الأطفال في الاعتبار، فإنها تميل إلى استخدام ممارسات الذكاء الاصطناعي المسؤولة وتركز على العدالة والتمثيل المتنوع واعتبارات التصميم الملائمة للأطفال. كما كانوا أيضًا أكثر شفافية بشأن سياسات خصوصية البيانات الخاصة بهم.
تقول شركة Common Sense Media إنها ستستمر في نشر التقييمات والمراجعات لمنتجات الذكاء الاصطناعي الجديدة على أساس متجدد، وتأمل أن تساعد في إعلام الآباء والأسر ليس فقط، ولكن أيضًا المشرعين والمنظمين.
قال جيمس بي. ستاير، المؤسس والرئيس التنفيذي لشركة Common Sense Media، في بيان: “يجب أن يتمتع المستهلكون بإمكانية الوصول إلى ملصق غذائي واضح لمنتجات الذكاء الاصطناعي التي يمكن أن تعرض سلامة وخصوصية جميع الأمريكيين للخطر، وخاصة الأطفال والمراهقين”. “من خلال معرفة ماهية المنتج، وكيفية عمله، ومخاطره الأخلاقية، وقيوده، وإساءة استخدامه، يمكن للمشرعين والمعلمين وعامة الناس فهم كيف يبدو الذكاء الاصطناعي المسؤول. وأضاف: “إذا فشلت الحكومة في “حماية الأطفال” من الذكاء الاصطناعي، فإن شركات التكنولوجيا ستستفيد من هذا الجو غير المنظم والحر على حساب خصوصية البيانات والرفاهية والديمقراطية بشكل عام”.