تقنية

تعمل منظمة Mutale Nkonde غير الربحية على جعل الذكاء الاصطناعي أقل تحيزًا


لمنح الأكاديميات اللاتي يركزن على الذكاء الاصطناعي وغيرهن من الوقت المستحق – والمتأخر – في دائرة الضوء، تطلق TechCrunch سلسلة من المقابلات التي تركز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي. سنقوم بنشر العديد من المقالات على مدار العام مع استمرار ازدهار الذكاء الاصطناعي، مع تسليط الضوء على الأعمال الرئيسية التي غالبًا ما لا يتم التعرف عليها. اقرأ المزيد من الملفات الشخصية هنا.

موتال نكوندي هو الرئيس التنفيذي المؤسس لمنظمة AI For the People (AFP) غير الربحية، التي تسعى إلى زيادة عدد الأصوات السوداء في مجال التكنولوجيا. وقبل ذلك، ساعدت في تقديم قانون الخوارزميات والخوارزميات المزيفة العميقة، بالإضافة إلى قانون عدم وجود حواجز بيومترية أمام الإسكان، إلى مجلس النواب الأمريكي. وهي حاليًا زميلة زائرة في مجال السياسات في معهد أكسفورد للإنترنت.

باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟

بدأت أشعر بالفضول بشأن كيفية عمل وسائل التواصل الاجتماعي بعد أن نشر أحد أصدقائي أن صور Google، التي كانت بمثابة مقدمة لصور Google، صنفت شخصين من السود على أنهما غوريلا في عام 2015. لقد شاركت مع الكثير من دوائر “السود في مجال التكنولوجيا”، و لقد شعرنا بالغضب، لكنني لم أبدأ في فهم أن هذا كان بسبب التحيز الخوارزمي حتى نشر كتاب أسلحة الدمار الرياضي في عام 2016. وقد ألهمني هذا لبدء التقدم بطلب للحصول على زمالات حيث يمكنني دراسة هذا الأمر بشكل أكبر وانتهى الأمر بدوري كمساعد مشارك. مؤلف تقرير بعنوان o تعزيز محو الأمية العنصرية في مجال التكنولوجيا، والذي تم نشره في عام 2019. وقد لاحظ ذلك الأشخاص في مؤسسة ماك آرثر وبدأ المرحلة الحالية من مسيرتي المهنية.

لقد انجذبت إلى الأسئلة حول العنصرية والتكنولوجيا لأنها بدت غير مدروسة بشكل كافٍ وغير بديهية. أحب أن أفعل أشياء لا يفعلها الآخرون، لذا فإن تعلم المزيد ونشر هذه المعلومات داخل وادي السيليكون يبدو أمرًا ممتعًا للغاية. منذ النهوض بمحو الأمية العنصرية في مجال التكنولوجيا. لقد أنشأت منظمة غير ربحية تسمى AI for the People والتي تركز على الدعوة إلى سياسات وممارسات للحد من التعبير عن التحيز الخوارزمي.

ما هو العمل الذي تفتخر به أكثر (في مجال الذكاء الاصطناعي)؟

أنا فخور حقًا بكوني المدافع الرئيسي عن قانون المساءلة الخوارزمية، والذي تم تقديمه لأول مرة إلى مجلس النواب في عام 2019. وقد أسس الذكاء الاصطناعي للشعب كقائد فكري رئيسي حول كيفية تطوير البروتوكولات لتوجيه التصميم والنشر والنشر. وحوكمة أنظمة الذكاء الاصطناعي التي تتوافق مع قوانين عدم التمييز المحلية. وقد أدى ذلك إلى إدراجنا في قنوات Schumer AI Insights Channels كجزء من مجموعة استشارية لمختلف الوكالات الفيدرالية وبعض الأعمال المثيرة القادمة على Hill.

كيف يمكنك التغلب على تحديات صناعة التكنولوجيا التي يهيمن عليها الذكور، وبالتالي، صناعة الذكاء الاصطناعي التي يهيمن عليها الذكور؟

لقد واجهت بالفعل المزيد من المشكلات مع حراس البوابة الأكاديمية. تم تكليف معظم الرجال الذين أعمل معهم في شركات التكنولوجيا بتطوير أنظمة للاستخدام على السود وغيرهم من السكان غير البيض، ولذلك كان من السهل جدًا العمل معهم. ويرجع ذلك أساسًا إلى أنني أعمل كخبير خارجي يمكنه التحقق من صحة الممارسات الحالية أو تحديها.

ما هي النصيحة التي تقدمها للنساء الراغبات في دخول مجال الذكاء الاصطناعي؟

ابحث عن مجال مناسب ثم أصبح أحد أفضل الأشخاص في العالم فيه. كان لدي شيئين ساعداني على بناء مصداقيتي، الأول هو أنني كنت أدافع عن سياسات للحد من التحيز الخوارزمي، بينما بدأ الناس في الأوساط الأكاديمية بمناقشة هذه القضية. وقد منحني هذا ميزة الريادة في “مجال الحلول” وجعل الذكاء الاصطناعي من أجل الشعب مرجعًا في مجلس النواب قبل خمس سنوات من صدور الأمر التنفيذي. الشيء الثاني الذي أود قوله هو النظر إلى أوجه القصور لديك ومعالجتها. يبلغ عمر برنامج AI for the People أربع سنوات وقد اكتسبت المؤهلات الأكاديمية التي أحتاجها لضمان عدم طردي من مجالات قادة الفكر. لا أستطيع الانتظار حتى أتخرج بدرجة الماجستير من جامعة كولومبيا في شهر مايو، وأتمنى مواصلة البحث في هذا المجال.

ما هي بعض القضايا الأكثر إلحاحًا التي تواجه الذكاء الاصطناعي أثناء تطوره؟

أفكر مليًا في الاستراتيجيات التي يمكن اتباعها لإشراك المزيد من السود والأشخاص الملونين في بناء النماذج التأسيسية واختبارها وتعليقها. وذلك لأن التقنيات تكون جيدة بقدر جودة بيانات التدريب الخاصة بها، فكيف يمكننا إنشاء مجموعات بيانات شاملة في الوقت الذي تتعرض فيه DEI للهجوم، وتتم مقاضاة صناديق المشاريع السوداء لاستهداف المؤسسين السود والنساء، ويتعرض الأكاديميون السود للهجوم العلني ، من سيقوم بهذا العمل في الصناعة؟

ما هي بعض المشكلات التي يجب على مستخدمي الذكاء الاصطناعي معرفتها؟

أعتقد أننا يجب أن نفكر في تطوير الذكاء الاصطناعي باعتباره قضية جيوسياسية وكيف يمكن للولايات المتحدة أن تصبح رائدة في مجال الذكاء الاصطناعي القابل للتطوير حقًا من خلال إنشاء منتجات ذات معدلات فعالية عالية على الأشخاص في كل مجموعة ديموغرافية. وذلك لأن الصين هي المنتج الكبير الوحيد الآخر للذكاء الاصطناعي، لكنها تنتج منتجات ضمن مجموعة سكانية متجانسة إلى حد كبير، وعلى الرغم من أن لها بصمة كبيرة في أفريقيا. ويمكن لقطاع التكنولوجيا الأمريكي أن يهيمن على تلك السوق إذا تم إجراء استثمارات قوية في تطوير تقنيات مناهضة للتحيز.

ما هي أفضل طريقة لبناء الذكاء الاصطناعي بشكل مسؤول؟

يجب أن يكون هناك نهج متعدد الجوانب، ولكن الشيء الوحيد الذي يجب مراعاته هو متابعة الأسئلة البحثية التي تركز على الأشخاص الذين يعيشون على هامش الهوامش. أسهل طريقة للقيام بذلك هي تدوين الملاحظات حول الاتجاهات الثقافية ثم التفكير في كيفية تأثير ذلك على التطور التكنولوجي. على سبيل المثال، طرح أسئلة مثل كيف يمكننا تصميم تقنيات بيومترية قابلة للتطوير في مجتمع حيث يتم تحديد عدد أكبر من الأشخاص على أنهم متحولين جنسيًا أو غير ثنائيي الجنس؟

كيف يمكن للمستثمرين الدفع بشكل أفضل نحو الذكاء الاصطناعي المسؤول؟

يجب على المستثمرين أن ينظروا إلى الاتجاهات الديموغرافية ثم يسألوا أنفسهم هل ستكون هذه الشركات قادرة على البيع لسكان أصبحوا على نحو متزايد أكثر سودًا وبنيًا بسبب انخفاض معدلات المواليد بين السكان الأوروبيين في جميع أنحاء العالم؟ وينبغي أن يدفعهم هذا إلى طرح أسئلة حول التحيز الخوارزمي أثناء عملية العناية الواجبة، حيث سيصبح هذا مشكلة بالنسبة للمستهلكين بشكل متزايد.

هناك الكثير من العمل الذي يتعين القيام به لإعادة تأهيل القوى العاملة لدينا في الوقت الذي تقوم فيه أنظمة الذكاء الاصطناعي بمهام منخفضة المخاطر لتوفير العمالة. كيف يمكننا التأكد من أن الأشخاص الذين يعيشون على هامش مجتمعنا مشمولون في هذه البرامج؟ ما هي المعلومات التي يمكن أن يقدموها لنا حول كيفية عمل أنظمة الذكاء الاصطناعي وعدم العمل بها، وكيف يمكننا استخدام هذه الأفكار للتأكد من أن الذكاء الاصطناعي هو حقًا للناس؟

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى