تقنية

تُظهر معركة شركة Uber Eats ضد تحيز الذكاء الاصطناعي أن تحقيق العدالة بموجب قانون المملكة المتحدة أمر صعب


يوم الثلاثاء، ذكرت هيئة الإذاعة البريطانية (بي بي سي) أن با إدريسا مانجانج، وهو ساعي خدمة أوبر إيتس، وهو أسود، تلقى تعويضًا من أوبر بعد أن منعته فحوصات التعرف على الوجه “التمييز العنصري” من الوصول إلى التطبيق، الذي كان يستخدمه منذ نوفمبر 2019 لالتقاط الصور. وظائف توصيل الطعام على منصة أوبر.

تثير الأخبار تساؤلات حول مدى ملاءمة قانون المملكة المتحدة للتعامل مع الاستخدام المتزايد لأنظمة الذكاء الاصطناعي. على وجه الخصوص، اندفع الافتقار إلى الشفافية حول الأنظمة الآلية إلى السوق، مع وعد بتعزيز سلامة المستخدم و/أو كفاءة الخدمة، الأمر الذي قد يؤدي إلى المخاطرة بتوسيع نطاق الأضرار الفردية، حتى لو كان تحقيق الإنصاف للمتضررين من التحيز القائم على الذكاء الاصطناعي قد يستغرق وقتا طويلا. سنين.

جاءت الدعوى القضائية في أعقاب عدد من الشكاوى حول فشل فحوصات التعرف على الوجه منذ أن نفذت أوبر نظام التحقق من الهوية في الوقت الحقيقي في المملكة المتحدة في أبريل 2020. ويتطلب نظام التعرف على الوجه من أوبر – المستند إلى تقنية التعرف على الوجه من مايكروسوفت – من صاحب الحساب تقديم صورة شخصية مباشرة تم فحصها مقابل صورة لهم محفوظة في ملف للتحقق من هويتهم.

فشل عمليات التحقق من الهوية

في شكوى بير مانجانغ، قام أوبر بتعليق حسابه ثم إنهائه بعد فشل التحقق من الهوية والعملية الآلية اللاحقة، مدعيًا أنه وجد “عدم تطابق مستمر” في صور وجهه التي التقطها بغرض الوصول إلى المنصة. رفعت مانجانغ دعاوى قانونية ضد أوبر في أكتوبر 2021، بدعم من لجنة المساواة وحقوق الإنسان (EHRC) واتحاد سائقي التطبيقات وشركات النقل (ADCU).

تبع ذلك سنوات من التقاضي، مع فشل أوبر في إلغاء مطالبة مانجانغ أو طلب إيداع لمواصلة القضية. ويبدو أن هذا التكتيك قد ساهم في تضييق نطاق الدعوى القضائية، حيث وصفت لجنة حقوق الإنسان الأوروبية القضية بأنها لا تزال في “المراحل الأولية” في خريف عام 2023، مشيرة إلى أن القضية تظهر “تعقيد المطالبة التي تتعامل مع تكنولوجيا الذكاء الاصطناعي”. وكان من المقرر عقد جلسة الاستماع النهائية لمدة 17 يومًا في نوفمبر 2024.

لن يتم عقد جلسة الاستماع هذه الآن بعد أن عرضت أوبر – وقبلت مانجانج – مبلغًا للتسوية، مما يعني عدم نشر التفاصيل الكاملة حول الخطأ الذي حدث بالضبط ولماذا لن يتم نشره على الملأ. ولم يتم الكشف عن شروط التسوية المالية أيضًا. لم تقدم أوبر تفاصيل عندما سألناها، ولم تقدم تعليقًا على الخطأ الذي حدث بالضبط.

لقد اتصلنا أيضًا بشركة Microsoft للرد على نتيجة الحالة، لكن الشركة رفضت التعليق.

على الرغم من التسوية مع مانجانج، فإن أوبر لا تقبل علنًا أن أنظمتها أو عملياتها كانت على خطأ. وينفي بيانها حول التسوية أنه يمكن إنهاء حسابات البريد السريع نتيجة لتقييمات الذكاء الاصطناعي وحدها، حيث تدعي أن فحوصات التعرف على الوجه يتم إيقافها من خلال “مراجعة بشرية قوية”.

وقالت الشركة في بيان: “تم تصميم فحص الهوية في الوقت الفعلي لدينا للمساعدة في الحفاظ على أمان كل من يستخدم تطبيقنا، ويتضمن مراجعة بشرية قوية للتأكد من أننا لا نتخذ قرارات بشأن معيشة شخص ما في فراغ، دون إشراف”. . “لم يكن التحقق الآلي من الوجه هو السبب وراء فقدان السيد مانجانغ مؤقتًا إمكانية الوصول إلى حساب البريد السريع الخاص به.”

من الواضح، رغم ذلك، أن شيئًا ما قد حدث خطأً كبيرًا في عمليات التحقق من هوية أوبر في قضية مانجانج.

تمكنت منظمة Worker Info Exchange (WIE)، وهي منظمة للدفاع عن الحقوق الرقمية للعمال والتي دعمت أيضًا شكوى Manjang، من الحصول على جميع صوره الشخصية من Uber، عبر طلب الوصول إلى الموضوع بموجب قانون حماية البيانات في المملكة المتحدة، وتمكنت من إظهار أن جميع الصور كان قد قدم لفحص التعرف على الوجه صورًا له بالفعل.

“بعد إقالته، أرسل با العديد من الرسائل إلى أوبر لتصحيح المشكلة، وطلب تحديدًا من أحد الأشخاص مراجعة طلباته. في كل مرة يُقال لوالدك: “لم نتمكن من التأكد من أن الصور المقدمة كانت لك بالفعل، وبسبب عدم التطابق المستمر، اتخذنا القرار النهائي بشأن إنهاء شراكتنا معك”. تقرير أوسع يبحث في “الاستغلال المعتمد على البيانات في اقتصاد الوظائف المؤقتة”.

استنادًا إلى تفاصيل شكوى Manjang التي تم الإعلان عنها، يبدو من الواضح أن فحوصات التعرف على الوجه في Uber و فشل نظام المراجعة البشرية الذي أنشأته كشبكة أمان للقرارات الآلية في هذه الحالة.

قانون المساواة بالإضافة إلى حماية البيانات

تثير هذه القضية تساؤلات حول مدى ملاءمة قانون المملكة المتحدة للغرض عندما يتعلق الأمر بتنظيم استخدام الذكاء الاصطناعي.

تمكنت مانجانج أخيرًا من الحصول على تسوية من أوبر عبر عملية قانونية تستند إلى قانون المساواة – على وجه التحديد، دعوى تمييز بموجب قانون المساواة في المملكة المتحدة لعام 2006، الذي يدرج العرق باعتباره خاصية محمية.

وكتبت في بيان لها أن البارونة كيشور فالكنر، رئيسة لجنة EHRC، انتقدت حقيقة اضطرار شركة توصيل أوبر إيتس إلى رفع دعوى قانونية “من أجل فهم العمليات الغامضة التي أثرت على عمله”.

“إن الذكاء الاصطناعي معقد ويطرح تحديات فريدة لأصحاب العمل والمحامين والمنظمين. وكتبت: “من المهم أن نفهم أنه مع زيادة استخدام الذكاء الاصطناعي، يمكن أن تؤدي التكنولوجيا إلى التمييز وانتهاكات حقوق الإنسان”. “نحن نشعر بالقلق بشكل خاص من أن السيد مانجانج لم يكن على علم بأن حسابه كان في طور التعطيل، ولم يقدم أي طريق واضح وفعال لتحدي التكنولوجيا. يجب بذل المزيد من الجهود لضمان شفافية أصحاب العمل وانفتاحهم مع القوى العاملة لديهم حول متى وكيف يستخدمون الذكاء الاصطناعي.

قانون حماية البيانات في المملكة المتحدة هو التشريع الآخر ذو الصلة هنا. على الورق، ينبغي أن توفر حماية قوية ضد عمليات الذكاء الاصطناعي المبهمة.

تم الحصول على بيانات الصور الشخصية ذات الصلة بمطالبة Manjang باستخدام حقوق الوصول إلى البيانات الواردة في اللائحة العامة لحماية البيانات في المملكة المتحدة. ولو لم يتمكن من الحصول على مثل هذا الدليل الواضح على فشل عمليات التحقق من هوية أوبر، فربما لم تكن الشركة قد اختارت التسوية على الإطلاق. إن إثبات أن نظام الملكية معيب دون السماح للأفراد بالوصول إلى البيانات الشخصية ذات الصلة من شأنه أن يزيد من تكديس الاحتمالات لصالح المنصات الأكثر ثراءً بالموارد.

فجوات التنفيذ

إلى جانب حقوق الوصول إلى البيانات، من المفترض أن توفر السلطات الأخرى في القانون العام لحماية البيانات في المملكة المتحدة للأفراد ضمانات إضافية. يتطلب القانون أساسًا قانونيًا لمعالجة البيانات الشخصية، ويشجع ناشري النظام على أن يكونوا استباقيين في تقييم الأضرار المحتملة من خلال إجراء تقييم تأثير حماية البيانات. ومن شأن ذلك أن يفرض المزيد من الفحوصات ضد أنظمة الذكاء الاصطناعي الضارة.

ومع ذلك، هناك حاجة إلى التنفيذ حتى يكون لهذه الحماية تأثيرها، بما في ذلك تأثير رادع ضد نشر أنظمة الذكاء الاصطناعي المتحيزة.

في حالة المملكة المتحدة، فشل الجهة المنفذة ذات الصلة، مكتب مفوض المعلومات (ICO)، في التدخل والتحقيق في الشكاوى ضد أوبر، على الرغم من الشكاوى حول عمليات فحص الهوية غير الصحيحة التي يعود تاريخها إلى عام 2021.

ويشير جون بينز، أحد كبار المتخصصين في حماية البيانات في شركة المحاماة Mishcon de Reya، إلى أن “الافتقار إلى التنفيذ المناسب” من قبل ICO أدى إلى تقويض الحماية القانونية للأفراد.

يقول لـ TechCrunch: “لا ينبغي لنا أن نفترض أن الأطر القانونية والتنظيمية الحالية غير قادرة على التعامل مع بعض الأضرار المحتملة من أنظمة الذكاء الاصطناعي”. “في هذا المثال، يذهلني… أن مفوض المعلومات سيكون له بالتأكيد السلطة القضائية للنظر في كل من الحالة الفردية، ولكن أيضًا على نطاق أوسع، ما إذا كانت المعالجة التي يتم إجراؤها قانونية بموجب اللائحة العامة لحماية البيانات في المملكة المتحدة.

“أشياء مثل – هل المعالجة عادلة؟ هل هناك أساس قانوني؟ هل يوجد شرط من المادة 9 (مع الأخذ في الاعتبار أنه تتم معالجة فئات خاصة من البيانات الشخصية)؟ ولكن أيضًا، وبشكل حاسم، هل كان هناك تقييم قوي لتأثير حماية البيانات قبل تنفيذ تطبيق التحقق؟

ويضيف، متسائلًا عن عدم تدخل الجهة التنظيمية: “لذا، نعم، يجب أن يكون الطرح الأولي للعملة أكثر استباقية”.

لقد اتصلنا بـ ICO بشأن قضية Manjang، وطلبنا منه تأكيد ما إذا كان يبحث في استخدام Uber للذكاء الاصطناعي للتحقق من الهوية في ضوء الشكاوى أم لا. لم يرد متحدث باسم الهيئة الرقابية بشكل مباشر على أسئلتنا، لكنه أرسل بيانًا عامًا يؤكد على حاجة المنظمات إلى “معرفة كيفية استخدام التكنولوجيا البيومترية بطريقة لا تتعارض مع حقوق الأشخاص”.

وجاء في بيانها أيضًا: “أحدث توجيهاتنا البيومترية واضحة أنه يجب على المؤسسات تخفيف المخاطر التي تأتي مع استخدام البيانات البيومترية، مثل الأخطاء في تحديد الأشخاص بدقة والتحيز داخل النظام”، مضيفًا: “إذا كان لدى أي شخص مخاوف بشأن كيفية التعامل مع بياناته”. يتم التعامل معها، ويمكنهم الإبلاغ عن هذه المخاوف إلى ICO.

وفي الوقت نفسه، تعمل الحكومة على تخفيف قانون حماية البيانات من خلال مشروع قانون لإصلاح البيانات بعد خروج بريطانيا من الاتحاد الأوروبي.

بالإضافة إلى ذلك، أكدت الحكومة أيضًا في وقت سابق من هذا العام أنها لن تقدم تشريعات مخصصة لسلامة الذكاء الاصطناعي في هذا الوقت، على الرغم من أن رئيس الوزراء ريشي سوناك قدم ادعاءات ملفتة للنظر حول كون سلامة الذكاء الاصطناعي مجالًا ذا أولوية لإدارته.

وبدلا من ذلك، أكدت اقتراحا – ورد في ورقتها البيضاء في مارس 2023 بشأن الذكاء الاصطناعي – تعتزم فيه الاعتماد على القوانين الحالية والهيئات التنظيمية التي تعمل على توسيع نطاق نشاط الرقابة لتغطية مخاطر الذكاء الاصطناعي التي قد تنشأ في مجالها. كان أحد التعديلات على النهج الذي أعلنته في فبراير هو تقديم مبلغ صغير من التمويل الإضافي (10 ملايين جنيه إسترليني) للجهات التنظيمية، والذي اقترحت الحكومة أنه يمكن استخدامه للبحث في مخاطر الذكاء الاصطناعي وتطوير أدوات لمساعدتهم على فحص أنظمة الذكاء الاصطناعي.

ولم يتم تقديم جدول زمني لصرف هذا المبلغ الصغير من الأموال الإضافية. يوجد هنا العديد من الهيئات التنظيمية، لذلك إذا كان هناك تقسيم متساوي للأموال بين هيئات مثل ICO، وEHRC ووكالة تنظيم الأدوية ومنتجات الرعاية الصحية، على سبيل المثال لا الحصر ثلاثة من أصل 13 جهة تنظيمية وإدارة كتبها وزير خارجية المملكة المتحدة حتى الشهر الماضي عندما طلبوا منهم نشر تحديث حول “نهجهم الاستراتيجي تجاه الذكاء الاصطناعي”، يمكن أن يحصل كل منهم على أقل من مليون جنيه إسترليني لزيادة الميزانيات لمعالجة مخاطر الذكاء الاصطناعي سريعة النطاق.

بصراحة، يبدو أن مستوى الموارد الإضافية منخفض بشكل لا يصدق بالنسبة للهيئات التنظيمية المنهكة بالفعل إذا كانت سلامة الذكاء الاصطناعي هي في الواقع أولوية حكومية. وهذا يعني أيضًا أنه لا يزال هناك صفر أموال أو رقابة نشطة على أضرار الذكاء الاصطناعي التي تقع بين شقوق الخليط التنظيمي الحالي في المملكة المتحدة، كما أشار منتقدو نهج الحكومة من قبل.

قد يرسل قانون جديد لسلامة الذكاء الاصطناعي إشارة أقوى للأولوية – على غرار إطار أضرار الذكاء الاصطناعي القائم على المخاطر في الاتحاد الأوروبي والذي يتسارع نحو اعتماده كقانون صارم من قبل الكتلة. ولكن يجب أيضًا أن تكون هناك إرادة لإنفاذها فعليًا. ويجب أن تأتي هذه الإشارة من الأعلى.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى