تقنية

تتيح شركة Anthropic الآن للأطفال استخدام تقنية الذكاء الاصطناعي الخاصة بها، ضمن حدود


تعمل شركة Anthropic الناشئة للذكاء الاصطناعي على تغيير سياساتها للسماح للقاصرين باستخدام أنظمة الذكاء الاصطناعي التوليدية الخاصة بها – في ظروف معينة، على الأقل.

تم الإعلان في منشور على المدونة الرسمية للشركة يوم الجمعة، أن Anthropic ستبدأ في السماح للمراهقين والمراهقين باستخدام تطبيقات الطرف الثالث (ولكن ليس تطبيقاتها الخاصة، بالضرورة) المدعومة بنماذج الذكاء الاصطناعي الخاصة بها طالما أن مطوري هذه التطبيقات ينفذون ميزات أمان محددة و الكشف للمستخدمين عن التقنيات الإنسانية التي يستفيدون منها.

في مقالة دعم، تسرد Anthropic العديد من إجراءات السلامة التي يجب على المطورين الذين ينشئون تطبيقات مدعومة بالذكاء الاصطناعي للقاصرين أن تشمل، مثل أنظمة التحقق من العمر، والإشراف على المحتوى وتصفيته والموارد التعليمية حول الاستخدام “الآمن والمسؤول” للذكاء الاصطناعي للقاصرين. وتقول الشركة أيضا أن ذلك يمكن إتاحة “التدابير الفنية” التي تهدف إلى تخصيص تجارب منتجات الذكاء الاصطناعي للقاصرين، مثل “مطالبة نظام سلامة الأطفال” التي سيُطلب من المطورين الذين يستهدفون القُصَّر تنفيذها.

سيتعين على المطورين الذين يستخدمون نماذج الذكاء الاصطناعي الخاصة بشركة Anthropic أيضًا الالتزام بلوائح سلامة الأطفال وخصوصية البيانات “المطبقة” مثل قانون حماية خصوصية الأطفال عبر الإنترنت (COPPA)، وهو القانون الفيدرالي الأمريكي الذي يحمي خصوصية الأطفال دون سن 13 عامًا عبر الإنترنت. وتقول Anthropic إنها تخطط لذلك لمراجعة التطبيقات “بشكل دوري” للتأكد من امتثالها، وتعليق أو إنهاء حسابات أولئك الذين ينتهكون متطلبات الامتثال بشكل متكرر، وتفويض المطورين “بالإعلان بوضوح” على المواقع العامة أو الوثائق أنهم ملتزمون.

“هناك حالات استخدام معينة حيث يمكن لأدوات الذكاء الاصطناعي أن تقدم فوائد كبيرة للمستخدمين الأصغر سنا، مثل الإعداد للاختبار أو دعم الدروس الخصوصية”، كتب أنثروبيك في المنشور. “مع أخذ هذا في الاعتبار، تسمح سياستنا المحدثة للمؤسسات بدمج واجهة برمجة التطبيقات (API) الخاصة بنا في منتجاتها المخصصة للقاصرين.”

يأتي التغيير في سياسة Anthropic في الوقت الذي يتجه فيه الأطفال والمراهقون بشكل متزايد إلى أدوات الذكاء الاصطناعي التوليدية للمساعدة ليس فقط في الواجبات المدرسية ولكن أيضًا في المشكلات الشخصية، ومع قيام بائعي الذكاء الاصطناعي التوليدي المنافسين – بما في ذلك Google وOpenAI – باستكشاف المزيد من حالات الاستخدام التي تستهدف الأطفال. هذا العام، شكلت OpenAI فريقًا جديدًا لدراسة سلامة الأطفال وأعلنت عن شراكة مع Common Sense Media للتعاون في إرشادات الذكاء الاصطناعي الملائمة للأطفال. وجعلت Google برنامج chatbot Bard الخاص بها، والذي تم تغيير علامته التجارية منذ ذلك الحين إلى Gemini، متاحًا للمراهقين باللغة الإنجليزية في مناطق مختارة.

وفقًا لاستطلاع أجراه مركز الديمقراطية والتكنولوجيا، أفاد 29% من الأطفال أنهم استخدموا الذكاء الاصطناعي التوليدي مثل ChatGPT من OpenAI للتعامل مع القلق أو مشكلات الصحة العقلية، و22% للمشاكل مع الأصدقاء، و16% للنزاعات العائلية.

في الصيف الماضي، سارعت المدارس والكليات إلى حظر تطبيقات الذكاء الاصطناعي التوليدية – وخاصة ChatGPT – بسبب مخاوف من الانتحال والمعلومات المضللة. منذ ذلك الحين، قام البعض بإلغاء الحظر. ولكن ليس الجميع مقتنعين بإمكانية الذكاء الاصطناعي التوليدي لتحقيق الخير، مشيرين إلى استطلاعات مثل مركز الإنترنت الأكثر أمانًا في المملكة المتحدة، والذي وجد أن أكثر من نصف الأطفال (53٪) أفادوا أنهم رأوا أشخاصًا في نفس عمرهم يستخدمون الذكاء الاصطناعي التوليدي بطريقة سلبية – على سبيل المثال إنشاء معلومات أو صور كاذبة يمكن تصديقها تُستخدم لإزعاج شخص ما (بما في ذلك الصور الإباحية العميقة).

تتزايد الدعوات لوضع إرشادات حول استخدام الأطفال للذكاء الاصطناعي التوليدي.

وفي أواخر العام الماضي، حثت منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) الحكومات على تنظيم استخدام الذكاء الاصطناعي التوليدي في التعليم، بما في ذلك تطبيق حدود عمرية للمستخدمين وحواجز حماية بشأن حماية البيانات وخصوصية المستخدم. وقالت أودري أزولاي، المديرة العامة لليونسكو، في بيان صحفي: “يمكن أن يكون الذكاء الاصطناعي التوليدي فرصة هائلة للتنمية البشرية، لكنه يمكن أن يسبب أيضًا الأذى والتحيز”. “لا يمكن دمجها في التعليم دون مشاركة الجمهور والضمانات واللوائح اللازمة من الحكومات.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى