تقنية

المرأة في الذكاء الاصطناعي: ساندرا واتشر، أستاذة أخلاقيات البيانات في جامعة أكسفورد


لمنح الأكاديميات اللاتي يركزن على الذكاء الاصطناعي وغيرهن من الوقت المستحق – والمتأخر – في دائرة الضوء، تطلق TechCrunch سلسلة من المقابلات التي تركز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي. سنقوم بنشر العديد من المقالات على مدار العام مع استمرار ازدهار الذكاء الاصطناعي، مع تسليط الضوء على الأعمال الرئيسية التي غالبًا ما لا يتم التعرف عليها. اقرأ المزيد من الملفات الشخصية هنا.

ساندرا واشتر هي أستاذة وباحثة أولى في أخلاقيات البيانات والذكاء الاصطناعي والروبوتات والخوارزميات والتنظيم في معهد أكسفورد للإنترنت. وهي أيضًا زميلة سابقة في معهد آلان تورينج، المعهد الوطني في المملكة المتحدة لعلوم البيانات والذكاء الاصطناعي.

أثناء وجوده في معهد تورينج، قام واتشر بتقييم الجوانب الأخلاقية والقانونية لعلم البيانات، وسلط الضوء على الحالات التي أصبحت فيها الخوارزميات المبهمة عنصرية ومتحيزة جنسيًا. ونظرت أيضًا في طرق تدقيق الذكاء الاصطناعي لمعالجة المعلومات المضللة وتعزيز العدالة.

سؤال وجواب

باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟

لا أتذكر وقتًا في حياتي لم أكن أعتقد فيه أن الابتكار والتكنولوجيا لديهما إمكانات مذهلة لتحسين حياة الناس. ومع ذلك، فأنا أعلم أيضًا أن التكنولوجيا يمكن أن يكون لها عواقب مدمرة على حياة الناس. ولذلك كنت دائمًا مدفوعًا – لأسباب ليس أقلها إحساسي القوي بالعدالة – لإيجاد طريقة لضمان تلك الأرضية الوسطى المثالية. تمكين الابتكار مع حماية حقوق الإنسان.

لقد شعرت دائمًا أن القانون له دور مهم جدًا ليلعبه. يمكن للقانون أن يكون بمثابة أرضية وسطية تمكينية تحمي الناس ولكنها تمكن الابتكار في نفس الوقت. لقد جاء القانون كنظام طبيعي جدًا بالنسبة لي. أحب التحديات، وأحب أن أفهم كيفية عمل النظام، وأرى كيف يمكنني التلاعب به، والعثور على الثغرات ثم إغلاقها لاحقًا.

الذكاء الاصطناعي هو قوة تحويلية بشكل لا يصدق. ويتم تنفيذه في مجالات التمويل والتوظيف والعدالة الجنائية والهجرة والصحة والفن. وهذا يمكن أن تكون جيدة وسيئة. وسواء كان الأمر جيدًا أم سيئًا، فهذه مسألة تصميم وسياسة. لقد انجذبت إليه بطبيعة الحال لأنني شعرت أن القانون يمكن أن يقدم مساهمة ذات معنى في ضمان استفادة أكبر عدد ممكن من الناس من الابتكار.

ما هو العمل الذي تفتخر به أكثر (في مجال الذكاء الاصطناعي)؟

أعتقد أن العمل الذي أفتخر به حاليًا هو مقال شارك في تأليفه برنت ميتلشتات (فيلسوف)، وكريس راسل (عالم كمبيوتر) وأنا المحامي.

لقد كشف عملنا الأخير حول التحيز والعدالة، بعنوان “ظلم التعلم الآلي العادل”، عن التأثير الضار الناجم عن فرض العديد من تدابير “عدالة المجموعة” في الممارسة العملية. وعلى وجه التحديد، يتم تحقيق العدالة من خلال “التسوية”، أو جعل الجميع في وضع أسوأ، بدلاً من مساعدة الفئات المحرومة. يمثل هذا النهج مشكلة كبيرة في سياق قانون عدم التمييز في الاتحاد الأوروبي والمملكة المتحدة، فضلاً عن كونه مثيراً للقلق من الناحية الأخلاقية. في مقال نشرته مجلة Wired، ناقشنا كيف يمكن أن يكون التخفيض ضارًا في الممارسة العملية – في مجال الرعاية الصحية، على سبيل المثال، قد يعني فرض عدالة المجموعة فقدان المزيد من حالات السرطان أكثر من اللازم تمامًا، مع جعل النظام أيضًا أقل دقة بشكل عام.

بالنسبة لنا كان هذا مرعبًا وشيء من المهم أن نعرفه للأشخاص العاملين في مجال التكنولوجيا والسياسة وكل إنسان حقًا. في الواقع، لقد تعاملنا مع الهيئات التنظيمية في المملكة المتحدة والاتحاد الأوروبي وشاركنا نتائجنا المثيرة للقلق معهم. وآمل بشدة أن يمنح هذا صناع السياسات النفوذ اللازم لتنفيذ سياسات جديدة تمنع الذكاء الاصطناعي من التسبب في مثل هذه الأضرار الجسيمة.

كيف يمكنك التغلب على تحديات صناعة التكنولوجيا التي يهيمن عليها الذكور، وبالتالي، صناعة الذكاء الاصطناعي التي يهيمن عليها الذكور

والشيء المثير للاهتمام هو أنني لم أر قط التكنولوجيا شيئًا “ملكيًا” للذكور. فقط عندما بدأت الدراسة، أخبرني المجتمع أن التكنولوجيا ليس لديها مكان لأشخاص مثلي. ما زلت أتذكر أنه عندما كنت في العاشرة من عمري، كان المنهج يفرض على الفتيات القيام بالحياكة والخياطة بينما كان الأولاد يبنون بيوت الطيور. كنت أرغب أيضًا في بناء بيت للطيور وطلبت نقلي إلى صف الأولاد، لكن معلمي أخبروني أن “الفتيات لا يفعلن ذلك”. حتى أنني ذهبت إلى مدير المدرسة محاولًا إلغاء القرار ولكن للأسف فشلت في ذلك الوقت.

من الصعب جدًا محاربة الصورة النمطية التي تقول إنه لا ينبغي عليك أن تكون جزءًا من هذا المجتمع. أتمنى أن أقول إن مثل هذه الأشياء لم تعد تحدث ولكن هذا للأسف غير صحيح.

ومع ذلك، كنت محظوظًا للغاية بالعمل مع حلفاء مثل برنت ميتلشتات وكريس راسل. لقد حظيت بشرف وجود مرشدين رائعين مثل درجة الدكتوراه. لدينا أنا والمشرف شبكة متنامية من الأشخاص ذوي التفكير المماثل من جميع الأجناس الذين يبذلون قصارى جهدهم لتوجيه المسار إلى الأمام لتحسين الوضع لكل من يهتم بالتكنولوجيا.

ما هي النصيحة التي تقدمها للنساء الراغبات في دخول مجال الذكاء الاصطناعي؟

قبل كل شيء، حاول العثور على أشخاص وحلفاء ذوي تفكير مماثل. يعد العثور على الأشخاص ودعم بعضهم البعض أمرًا بالغ الأهمية. لقد كان عملي الأكثر تأثيرًا يأتي دائمًا من التحدث مع أشخاص منفتحين من خلفيات وتخصصات أخرى لحل المشكلات الشائعة التي نواجهها. إن الحكمة المقبولة وحدها لا يمكنها حل المشاكل الجديدة، لذا فإن النساء والمجموعات الأخرى التي واجهت تاريخيا عوائق تحول دون دخول الذكاء الاصطناعي وغيره من مجالات التكنولوجيا تمتلك الأدوات اللازمة للابتكار وتقديم شيء جديد حقا.

ما هي بعض القضايا الأكثر إلحاحًا التي تواجه الذكاء الاصطناعي أثناء تطوره؟

أعتقد أن هناك مجموعة واسعة من القضايا التي تحتاج إلى دراسة قانونية وسياسية جادة. على سبيل المثال لا الحصر، يعاني الذكاء الاصطناعي من البيانات المتحيزة التي تؤدي إلى نتائج تمييزية وغير عادلة. إن الذكاء الاصطناعي بطبيعته غامض ويصعب فهمه، ومع ذلك فهو مكلف بتحديد من يحصل على قرض، ومن يحصل على الوظيفة، ومن يجب أن يذهب إلى السجن ومن يُسمح له بالذهاب إلى الجامعة.

لدى الذكاء الاصطناعي التوليدي مشكلات ذات صلة ولكنه يساهم أيضًا في نشر المعلومات المضللة، ومليء بالهلوسة، وينتهك حماية البيانات وحقوق الملكية الفكرية، ويعرض وظائف الأشخاص للخطر، ويساهم في تغير المناخ أكثر من صناعة الطيران.

ليس لدينا وقت نضيعه؛ نحن بحاجة إلى معالجة هذه القضايا بالأمس.

ما هي بعض المشكلات التي يجب على مستخدمي الذكاء الاصطناعي معرفتها؟

أعتقد أن هناك ميلًا إلى تصديق رواية معينة على غرار “الذكاء الاصطناعي موجود هنا وهناك ليبقى، أو ينضم أو يتخلف عن الركب”. أعتقد أنه من المهم التفكير في من يدفع بهذه الرواية ومن يستفيد منها. من المهم أن تتذكر أين تكمن القوة الفعلية. القوة ليست في أيدي أولئك الذين يبتكرون، بل في أيدي أولئك الذين يشترون الذكاء الاصطناعي ويطبقونه.

لذا، ينبغي للمستهلكين والشركات أن يسألوا أنفسهم: “هل تساعدني هذه التكنولوجيا حقاً وفي أي مجال؟” تحتوي فرشاة الأسنان الكهربائية الآن على تقنية الذكاء الاصطناعي (AI) مدمجة فيها. لمن هذا؟ من يحتاج هذا؟ ما الذي يتم تحسينه هنا؟

بمعنى آخر، اسأل نفسك ما الذي تم كسره وما الذي يحتاج إلى إصلاح وما إذا كان الذكاء الاصطناعي يمكنه إصلاحه بالفعل.

وهذا النوع من التفكير سوف يغير قوة السوق، ونأمل أن يتجه الابتكار نحو اتجاه يركز على فائدة المجتمع بدلاً من مجرد الربح.

ما هي أفضل طريقة لبناء الذكاء الاصطناعي بشكل مسؤول؟

وجود قوانين معمول بها تتطلب الذكاء الاصطناعي المسؤول. وهنا أيضاً يميل السرد غير المفيد وغير الصحيح إلى الهيمنة: وهو أن التنظيم يخنق الابتكار. هذا ليس صحيحا. التنظيم يخنق ضار ابتكار. القوانين الجيدة تعزز وتغذي الابتكار الأخلاقي؛ ولهذا السبب لدينا سيارات وطائرات وقطارات وجسور آمنة. المجتمع لا يخسر إذا منع التنظيم
خلق الذكاء الاصطناعي الذي ينتهك حقوق الإنسان.

وقيل أيضاً إن لوائح المرور والسلامة الخاصة بالسيارات “تخنق الابتكار” و”تحد من الاستقلالية”. تمنع هذه القوانين الأشخاص من القيادة بدون تراخيص، وتمنع دخول السيارات التي لا تحتوي على أحزمة أمان ووسائد هوائية إلى السوق، وتعاقب الأشخاص الذين لا يقودون وفق السرعة المحددة. تخيل كيف قد يبدو سجل السلامة في صناعة السيارات لو لم تكن لدينا قوانين لتنظيم حركة المركبات والسائقين. ويمر الذكاء الاصطناعي حاليا بنقطة انعطاف مماثلة، كما أن الضغوط التي تمارسها الصناعات الثقيلة والضغوط السياسية تعني أنه لا يزال من غير الواضح المسار الذي سيتخذه.

كيف يمكن للمستثمرين الدفع بشكل أفضل نحو الذكاء الاصطناعي المسؤول؟

لقد كتبت بحثًا قبل بضع سنوات بعنوان “كيف يمكن للذكاء الاصطناعي العادل أن يجعلنا أكثر ثراءً”. أنا أؤمن بشدة بأن الذكاء الاصطناعي الذي يحترم حقوق الإنسان ويكون غير متحيز وقابل للتفسير ومستدام ليس فقط الشيء الصحيح الذي ينبغي القيام به من الناحية القانونية والأخلاقية والمعنوية، ولكنه يمكن أن يكون مربحًا أيضًا.

آمل حقاً أن يفهم المستثمرون أنهم إذا كانوا يدفعون باتجاه البحث والابتكار المسؤولين فإنهم سيحصلون أيضاً على منتجات أفضل. تؤدي البيانات السيئة والخوارزميات السيئة وخيارات التصميم السيئة إلى منتجات أسوأ. حتى لو لم أتمكن من إقناعك بأنه يجب عليك القيام بالشيء الأخلاقي لأنه هو الشيء الصحيح الذي ينبغي القيام به، آمل أن ترى أن الشيء الأخلاقي هو أيضًا أكثر ربحية. وينبغي النظر إلى الأخلاقيات باعتبارها استثمارا، وليست عقبة يجب التغلب عليها.


اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading