تقنية

تشكل OpenAI فريقًا جديدًا لدراسة سلامة الأطفال


تحت تدقيق النشطاء – وأولياء الأمور – شكلت OpenAI فريقًا جديدًا لدراسة طرق منع إساءة استخدام أدوات الذكاء الاصطناعي الخاصة بها أو إساءة استخدامها من قبل الأطفال.

وفي قائمة وظائف جديدة على صفحتها المهنية، تكشف OpenAI عن وجود فريق سلامة الطفل، والذي تقول الشركة إنه يعمل مع سياسة النظام الأساسي والمجموعات القانونية والتحقيقات داخل OpenAI بالإضافة إلى شركاء خارجيين لإدارة “العمليات والحوادث والمراجعات”. “المتعلقة بالمستخدمين القاصرين.

يبحث الفريق حاليًا عن تعيين متخصص في إنفاذ سلامة الأطفال، والذي سيكون مسؤولاً عن تطبيق سياسات OpenAI في سياق المحتوى الذي ينشئه الذكاء الاصطناعي والعمل على عمليات المراجعة المتعلقة بالمحتوى “الحساس” (الذي من المفترض أن يكون متعلقًا بالأطفال).

يخصص بائعو التكنولوجيا من حجم معين قدرًا لا بأس به من الموارد للامتثال لقوانين مثل قاعدة حماية خصوصية الأطفال عبر الإنترنت في الولايات المتحدة، والتي تفرض ضوابط على ما يمكن للأطفال – وما لا يمكنهم – الوصول إليه على الويب بالإضافة إلى أنواع شركات البيانات. يمكن أن تجمع عليها. لذا فإن حقيقة تعيين OpenAI لخبراء في مجال سلامة الأطفال لا تشكل مفاجأة كاملة، خاصة إذا كانت الشركة تتوقع وجود قاعدة كبيرة من المستخدمين دون السن القانونية في يوم من الأيام. (تتطلب شروط الاستخدام الحالية لـ OpenAI موافقة الوالدين للأطفال الذين تتراوح أعمارهم بين 13 و18 عامًا وتحظر الاستخدام للأطفال دون سن 13 عامًا.)

لكن تشكيل الفريق الجديد، الذي يأتي بعد عدة أسابيع من إعلان OpenAI عن شراكة مع Common Sense Media للتعاون في إرشادات الذكاء الاصطناعي الملائمة للأطفال والحصول على أول عميل تعليمي لها، يشير أيضًا إلى الحذر من جانب OpenAI من مخالفة السياسات المتعلقة بالأطفال. استخدام القاصرين للذكاء الاصطناعي – والصحافة السلبية.

يلجأ الأطفال والمراهقون بشكل متزايد إلى أدوات GenAI للمساعدة ليس فقط في الواجبات المدرسية ولكن أيضًا في المشكلات الشخصية. وفقًا لاستطلاع أجراه مركز الديمقراطية والتكنولوجيا، أفاد 29% من الأطفال أنهم استخدموا ChatGPT للتعامل مع مشاكل القلق أو الصحة العقلية، و22% للمشاكل مع الأصدقاء، و16% للنزاعات العائلية.

ويرى البعض أن هذا خطر متزايد.

في الصيف الماضي، سارعت المدارس والكليات إلى حظر ChatGPT بسبب مخاوف الانتحال والمعلومات المضللة. منذ ذلك الحين، قام البعض بإلغاء الحظر. ولكن ليس الجميع مقتنعين بقدرة GenAI على تحقيق الخير، مشيرين إلى استطلاعات مثل مركز الإنترنت الأكثر أمانًا في المملكة المتحدة، والذي وجد أن أكثر من نصف الأطفال (53٪) أفادوا أنهم رأوا أشخاصًا في سنهم يستخدمون GenAI بطريقة سلبية – على سبيل المثال إنشاء معلومات كاذبة يمكن تصديقها. المعلومات أو الصور المستخدمة لإزعاج شخص ما.

في سبتمبر، نشرت OpenAI وثائق لـ ChatGPT في الفصول الدراسية مع مطالبات وأسئلة شائعة لتقديم إرشادات للمعلمين حول استخدام GenAI كأداة تعليمية. في إحدى مقالات الدعم، أقرت OpenAI أن أدواتها، وتحديدًا ChatGPT، “قد تنتج مخرجات غير مناسبة لجميع الجماهير أو جميع الأعمار” ونصحت “بالحذر” عند التعرض للأطفال – حتى أولئك الذين يستوفون متطلبات العمر.

تتزايد الدعوات للحصول على إرشادات حول استخدام الأطفال لـ GenAI.

وفي أواخر العام الماضي، حثت منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) الحكومات على تنظيم استخدام GenAI في التعليم، بما في ذلك تطبيق حدود عمرية للمستخدمين وحواجز حماية بشأن حماية البيانات وخصوصية المستخدم. وقالت أودري أزولاي، المديرة العامة لليونسكو، في بيان صحفي: “يمكن أن يكون الذكاء الاصطناعي التوليدي فرصة هائلة للتنمية البشرية، لكنه يمكن أن يسبب أيضًا الأذى والتحيز”. “لا يمكن دمجها في التعليم دون مشاركة الجمهور والضمانات واللوائح اللازمة من الحكومات.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى