تقنية

المرأة في الذكاء الاصطناعي: رشيدة ريتشاردسون، مستشارة أولى في Mastercard تركز على الذكاء الاصطناعي والخصوصية


لمنح الأكاديميات اللاتي يركزن على الذكاء الاصطناعي وغيرهن من الوقت المستحق – والمتأخر – في دائرة الضوء، تطلق TechCrunch سلسلة من المقابلات التي تركز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي. سنقوم بنشر العديد من المقالات على مدار العام مع استمرار ازدهار الذكاء الاصطناعي، مع تسليط الضوء على الأعمال الرئيسية التي غالبًا ما لا يتم التعرف عليها. اقرأ المزيد من الملفات الشخصية هنا.

رشيدة ريتشاردسون هي مستشارة أولى في Mastercard، حيث يقع نطاق اختصاصها على المسائل القانونية المتعلقة بالخصوصية وحماية البيانات بالإضافة إلى الذكاء الاصطناعي

كان ريتشاردسون سابقًا مديرًا لأبحاث السياسات في معهد الذكاء الاصطناعي الآن، وهو معهد الأبحاث الذي يدرس الآثار الاجتماعية للذكاء الاصطناعي، ومستشارًا أول لسياسات البيانات والديمقراطية في مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا، وكان أستاذًا مساعدًا في القانون. والعلوم السياسية في جامعة نورث إيسترن منذ عام 2021. وهي متخصصة في العرق والتقنيات الناشئة.

رشيدة ريتشاردسون، مستشارة أولى للذكاء الاصطناعي في Mastercard

باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟

خلفيتي هي محامية حقوق مدنية، حيث عملت على مجموعة من القضايا بما في ذلك الخصوصية والمراقبة وإلغاء الفصل العنصري في المدارس والإسكان العادل وإصلاح العدالة الجنائية. أثناء العمل على هذه القضايا، شهدت المراحل الأولى من اعتماد الحكومة وتجريبها للتكنولوجيات القائمة على الذكاء الاصطناعي. وفي بعض الحالات، كانت المخاطر والمخاوف واضحة، وقد ساعدت في قيادة عدد من جهود سياسات التكنولوجيا في ولاية نيويورك ومدينة نيويورك لخلق قدر أكبر من الرقابة والتقييم أو غيرها من الضمانات. وفي حالات أخرى، كنت متشككا بطبيعتي في فوائد أو ادعاءات فعالية الحلول المرتبطة بالذكاء الاصطناعي، وخاصة تلك التي يتم تسويقها لحل أو تخفيف القضايا الهيكلية مثل إلغاء الفصل العنصري في المدارس أو الإسكان العادل.

كما أن تجربتي السابقة جعلتني شديد الوعي بالثغرات الموجودة في السياسات والتنظيمات. وسرعان ما لاحظت وجود عدد قليل من الأشخاص في مجال الذكاء الاصطناعي ممن يتمتعون بخلفيتي وخبرتي، أو الذين يقدمون التحليل والتدخلات المحتملة التي كنت أقوم بتطويرها في مناصرتي للسياسات وعملي الأكاديمي. لذلك أدركت أن هذا هو المجال والمساحة التي يمكنني من خلالها تقديم مساهمات ذات معنى وكذلك البناء على تجربتي السابقة بطرق فريدة.

قررت أن أركز ممارستي القانونية وعملي الأكاديمي على الذكاء الاصطناعي، وتحديدًا القضايا السياسية والقانونية المتعلقة بتطويرها واستخدامها.

ما هو العمل الذي تفتخر به أكثر (في مجال الذكاء الاصطناعي)؟

ويسعدني أن هذه القضية تحظى أخيرًا بمزيد من الاهتمام من جميع أصحاب المصلحة، ولكن بشكل خاص من صناع السياسات. هناك تاريخ طويل في الولايات المتحدة من القانون الذي يلعب دور اللحاق بالركب أو لا يعالج بشكل كافٍ قضايا سياسة التكنولوجيا، ومنذ 5 إلى 6 سنوات مضت، شعرت أن هذا قد يكون مصير الذكاء الاصطناعي، لأنني أتذكر التعامل مع صناع السياسات، سواء في في الإعدادات الرسمية مثل جلسات الاستماع في مجلس الشيوخ الأمريكي أو المنتديات التعليمية، تعامل معظم صناع السياسات مع القضية على أنها غامضة أو شيء لا يتطلب إلحاحًا على الرغم من الاعتماد السريع للذكاء الاصطناعي عبر القطاعات. ومع ذلك، في العام الماضي أو نحو ذلك، كان هناك تحول كبير حيث أصبح الذكاء الاصطناعي سمة ثابتة للخطاب العام، ويقدر صناع السياسات بشكل أفضل المخاطر والحاجة إلى اتخاذ إجراءات مستنيرة. وأعتقد أيضًا أن أصحاب المصلحة في جميع القطاعات، بما في ذلك الصناعة، يدركون أن الذكاء الاصطناعي يشكل فوائد ومخاطر فريدة قد لا يتم حلها من خلال الممارسات التقليدية، لذلك هناك المزيد من الاعتراف – أو على الأقل التقدير – للتدخلات السياسية.

كيف يمكنك التغلب على تحديات صناعة التكنولوجيا التي يهيمن عليها الذكور، وبالتالي، صناعة الذكاء الاصطناعي التي يهيمن عليها الذكور؟

باعتباري امرأة سوداء، اعتدت أن أكون أقلية في العديد من المجالات، وبينما تعتبر صناعات الذكاء الاصطناعي والتكنولوجيا مجالات متجانسة للغاية، إلا أنها ليست جديدة أو تختلف عن المجالات الأخرى ذات القوة والثروة الهائلة، مثل التمويل والثروة. مهنة المحاماة. لذلك أعتقد أن عملي السابق وخبرتي الحياتية ساعدت في إعدادي لهذه الصناعة، لأنني على دراية تامة بالتصورات المسبقة التي قد يتعين علي التغلب عليها والديناميكيات الصعبة التي من المحتمل أن أواجهها. أعتمد على خبرتي في التنقل، لأن لدي خلفية ومنظورًا فريدًا من نوعه حيث عملت في مجال الذكاء الاصطناعي في جميع الصناعات – الأوساط الأكاديمية والصناعة والحكومة والمجتمع المدني.

ما هي بعض المشكلات التي يجب على مستخدمي الذكاء الاصطناعي معرفتها؟

هناك مسألتان رئيسيتان يجب على مستخدمي الذكاء الاصطناعي الانتباه إليهما، وهما: (1) فهم أكبر لقدرات وقيود تطبيقات ونماذج الذكاء الاصطناعي المختلفة، و(2) مدى عدم اليقين الكبير فيما يتعلق بقدرة القوانين الحالية والمستقبلية على حل النزاعات أو بعض المخاوف. فيما يتعلق باستخدام الذكاء الاصطناعي.

فيما يتعلق بالنقطة الأولى، هناك خلل في الخطاب العام والفهم فيما يتعلق بفوائد وإمكانات تطبيقات الذكاء الاصطناعي وقدراتها الفعلية وقيودها. وتتفاقم هذه المشكلة بسبب حقيقة أن مستخدمي الذكاء الاصطناعي قد لا يقدرون الفرق بين تطبيقات ونماذج الذكاء الاصطناعي. نما الوعي العام بالذكاء الاصطناعي مع إصدار ChatGPT وغيره من أنظمة الذكاء الاصطناعي التوليدية المتاحة تجاريًا، ولكن نماذج الذكاء الاصطناعي هذه تختلف عن الأنواع الأخرى من نماذج الذكاء الاصطناعي التي تفاعل معها المستهلكون لسنوات، مثل أنظمة التوصية. عندما تكون المحادثة حول الذكاء الاصطناعي مشوشة – حيث يتم التعامل مع التكنولوجيا باعتبارها متجانسة – فإنها تميل إلى تشويه الفهم العام لما يمكن أن يفعله كل نوع من التطبيقات أو النماذج في الواقع، والمخاطر المرتبطة بقيودها أو عيوبها.

فيما يتعلق بالنقطة الثانية، فإن القانون والسياسة المتعلقة بتطوير الذكاء الاصطناعي واستخدامه آخذة في التطور. على الرغم من وجود مجموعة متنوعة من القوانين (مثل الحقوق المدنية، وحماية المستهلك، والمنافسة، والإقراض العادل) التي تنطبق بالفعل على استخدام الذكاء الاصطناعي، إلا أننا في المراحل الأولى من رؤية كيفية تطبيق هذه القوانين وتفسيرها. نحن أيضًا في المراحل الأولى من تطوير السياسات المصممة خصيصًا للذكاء الاصطناعي – ولكن ما لاحظته من الممارسة القانونية وبحثي هو أن هناك مجالات لا تزال دون حل من خلال هذا الخليط القانوني ولن يتم حلها إلا عندما يكون هناك المزيد الدعاوى القضائية المتعلقة بتطوير واستخدام الذكاء الاصطناعي. بشكل عام، لا أعتقد أن هناك فهمًا كبيرًا للوضع الحالي للقانون والذكاء الاصطناعي، وكيف أن عدم اليقين القانوني فيما يتعلق بالقضايا الرئيسية مثل المسؤولية يمكن أن يعني أن بعض المخاطر والأضرار والنزاعات قد تظل دون تسوية حتى سنوات من التقاضي بين الشركات أو بين الهيئات التنظيمية. والشركات تنتج سابقة قانونية قد توفر بعض الوضوح.

ما هي أفضل طريقة لبناء الذكاء الاصطناعي بشكل مسؤول؟

يكمن التحدي في بناء الذكاء الاصطناعي بشكل مسؤول في أن العديد من الركائز الأساسية للذكاء الاصطناعي المسؤول، مثل العدالة والسلامة، تعتمد على قيم معيارية – لا يوجد لها تعريفات أو فهم مشترك لهذه المفاهيم. لذا فمن الممكن أن يتصرف المرء بمسؤولية ويتسبب رغم ذلك في إحداث الأذى، أو قد يتصرف بشكل ضار ويعتمد على حقيقة مفادها أنه لا توجد معايير مشتركة لهذه المفاهيم لادعاء العمل بحسن نية. وإلى أن تكون هناك معايير عالمية أو إطار عمل مشترك لما هو المقصود من بناء الذكاء الاصطناعي بشكل مسؤول، فإن أفضل طريقة يمكن للمرء من خلالها تحقيق هذا الهدف هي أن يكون لديه مبادئ وسياسات وتوجيهات ومعايير واضحة لتطوير واستخدام الذكاء الاصطناعي المسؤول، والتي يتم فرضها من خلال الرقابة الداخلية. المقارنة المرجعية وممارسات الحوكمة الأخرى.

كيف يمكن للمستثمرين الدفع بشكل أفضل نحو الذكاء الاصطناعي المسؤول؟

يمكن للمستثمرين القيام بعمل أفضل في تحديد أو على الأقل توضيح ما يشكل التطوير أو الاستخدام المسؤول للذكاء الاصطناعي، واتخاذ الإجراءات عندما لا تتوافق ممارسات الجهات الفاعلة في مجال الذكاء الاصطناعي. في الوقت الحالي، يعد الذكاء الاصطناعي “المسؤول” أو “الجدير بالثقة” بمثابة مصطلحات تسويقية فعالة لأنه لا توجد معايير واضحة لتقييم ممارسات الجهات الفاعلة في مجال الذكاء الاصطناعي. في حين أن بعض اللوائح التنظيمية الناشئة مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي ستضع بعض متطلبات الحوكمة والرقابة، فلا تزال هناك مجالات حيث يمكن تحفيز الجهات الفاعلة في مجال الذكاء الاصطناعي من قبل المستثمرين لتطوير ممارسات أفضل تركز على القيم الإنسانية أو الصالح المجتمعي. ومع ذلك، إذا كان المستثمرون غير راغبين في التصرف عندما يكون هناك اختلال أو أدلة على وجود جهات فاعلة سيئة، فلن يكون هناك حافز كبير لتعديل السلوك أو الممارسات.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى