تقنية

مجلس مراقبة ميتا ينقض قرار إزالة الفيلم الوثائقي عن إساءة معاملة الأطفال في باكستان


أبطل مجلس الرقابة، المجموعة الاستشارية الخارجية التابعة لشركة ميتا، قرار شركة وسائل التواصل الاجتماعي بإزالة فيلم وثائقي إخباري يكشف عن هويات الأطفال ضحايا الاعتداء الجنسي والقتل في باكستان – وهي حالة استثنائية تعتمد على الجدارة الإخبارية.

تم الإبلاغ عن الفيلم الوثائقي الذي تبلغ مدته 11 دقيقة، والذي نشرته إذاعة صوت أمريكا (VOA) باللغة الأردية على صفحتها على فيسبوك في يناير 2022، من قبل 67 مستخدمًا حتى يوليو 2023 بسبب تفاصيل مزعجة عن الجرائم التي ارتكبها جاويد إقبال، الذي قتل واعتدى جنسيًا على 100 طفل في باكستان في التسعينيات. واحتوت على صور لمقاطع صحفية تظهر وجوه الأطفال الضحايا بأسمائهم وأشخاصًا يذرفون الدموع.

في البداية، لم تجد ميتا أن هذا انتهاك بعد المراجعات الآلية والبشرية. ومع ذلك، تمت إزالة المنشور، الذي تمت مشاهدته حوالي 21.8 مليون مرة وتمت مشاركته حوالي 18000 مرة حتى تم سحبه، لاحقًا بواسطة فريق سياسة Meta لانتهاكه سياسة الاستغلال الجنسي للأطفال والإساءة إليهم وعُريهم بعد أن تم تصعيدها داخليًا ووضع علامة عليها بشكل منفصل من قبل مسؤول الشركة الأعلى. نظام عمليات المراجعة المبكرة للمخاطرة بسبب احتمالات انتشاره الفيروسية.

على الرغم من انتهاك معايير المجتمع الخاصة بالاستغلال الجنسي للأطفال وإساءة معاملتهم والعُري، وجدت أغلبية مجلس الرقابة أنه يجب السماح بالمحتوى على المنصة بعد أن أحالت شركة Meta القضية إلى مجلس الإدارة.

وقال مجلس الرقابة في تدوينة يوم الثلاثاء موضحًا قراره الاستثنائي: “بالنسبة للأغلبية، فإن المصلحة العامة في الإبلاغ عن جرائم إساءة معاملة الأطفال هذه تفوق الأضرار المحتملة للضحايا وعائلاتهم”.

وأشارت إلى أن الفيلم الوثائقي تم إنتاجه للتوعية وليس لإثارة التفاصيل البشعة للجرائم التي وقعت قبل نحو 25 عاما، ولم ينجو أي من الضحايا.

“إن مرور الوقت هو العامل الأكثر أهمية لأنه يعني أن الأضرار المباشرة المحتملة التي قد تلحق بالأطفال الضحايا قد تضاءلت. وفي الوقت نفسه، فإن المصلحة العامة في إساءة معاملة الأطفال لا تزال قائمة.

وأشار مجلس الإدارة إلى أن Meta قررت سحب المحتوى بعد أن كان متاحًا على المنصة لأكثر من 18 شهرًا. بالإضافة إلى ذلك، فإنه يشكك في مدى كفاية موارد ميتا لمقاطع الفيديو باللغة الأردية.

في حين فضل معظم أعضاء مجلس الإدارة إلغاء قرار الإزالة، اقترحت أقلية جعل المحتوى غير متاح، حيث كان من الممكن مناقشة القضايا المثارة في الفيديو دون الكشف عن أسماء الضحايا ووجوههم.

يوصي مجلس الرقابة بأن تقوم Meta بإنشاء قسم ضمن كل معيار مجتمعي يصف الاستثناءات والبدلات المطبقة. وقال مجلس الإدارة إن الشركة يجب أن تدرج مبرراتها لعدم السماح ببعض الاستثناءات التي تنطبق على سياسات أخرى (مثل التقارير الإخبارية أو رفع الوعي) في القسم الجديد عند استخدامها.

“على الرغم من أن بدل الجدارة الإخبارية الذي نادرًا ما يستخدم – وهو استثناء عام لا يمكن تطبيقه إلا من قبل فرق خبراء Meta – كان ذا صلة هنا، إلا أن مجلس الإدارة يشير إلى أنه لا توجد استثناءات محددة في السياسة، مثل زيادة الوعي أو الإبلاغ عنها، متاحة فيما يتعلق بالاستغلال الجنسي للأطفال. سياسة الإساءة والعُري. وأشار مجلس الإدارة إلى أن Meta يجب أن توفر المزيد من الوضوح للمستخدمين حول هذا الأمر. “بالإضافة إلى ذلك، يمكن أن يكون أكثر وضوحًا للأشخاص في اللغة العامة لهذه السياسة ما يؤهل لتحديد الضحايا المزعومين “بالاسم أو الصورة”.

واعترفت شركة ميتا بأنها أخطأت في إزالة المحتوى بسبب الأضرار الجسيمة التي ألحقتها بالضحايا وعائلاتهم على الرغم من أن الأحداث وقعت قبل أكثر من عقدين من الزمن. كما رحبت بقرار مجلس الرقابة وستعيد المحتوى في غضون سبعة أيام.

وقد حكم المجلس، الذي بدأ عمله في عام 2020 بعد أن وضع الرئيس التنفيذي لشركة ميتا مارك زوكربيرج تصور تشكيله في عام 2018، في بعض قضايا الرقابة المهمة، بما في ذلك تلك التي تنتقد فيسبوك لحظر الرئيس السابق دونالد ترامب “إلى أجل غير مسمى”. وفي فبراير من هذا العام، دعت شركة ميتا إلى إصلاح قواعدها “غير المتماسكة” بشأن مقاطع الفيديو المعدلة.


اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading