تقنية

النساء في الذكاء الاصطناعي: تقول براندي نونيكي من جامعة كاليفورنيا في بيركلي إنه يجب على المستثمرين الإصرار على ممارسات الذكاء الاصطناعي المسؤولة


لمنح الأكاديميات اللاتي يركزن على الذكاء الاصطناعي وغيرهن من الوقت المستحق – والمتأخر – في دائرة الضوء، تطلق TechCrunch سلسلة من المقابلات التي تركز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي. سنقوم بنشر العديد من المقالات على مدار العام مع استمرار ازدهار الذكاء الاصطناعي، مع تسليط الضوء على الأعمال الرئيسية التي غالبًا ما لا يتم التعرف عليها. اقرأ المزيد من الملفات الشخصية هنا.

براندي نونيكي هو المدير المؤسس لمختبر سياسات CITRIS، ومقره في جامعة كاليفورنيا في بيركلي، والذي يدعم الأبحاث متعددة التخصصات لمعالجة الأسئلة حول دور التنظيم في تشجيع الابتكار. تشارك نونيكي أيضًا في إدارة مركز بيركلي للقانون والتكنولوجيا، حيث تقود مشاريع حول الذكاء الاصطناعي والمنصات والمجتمع، ومركز سياسات الذكاء الاصطناعي بجامعة كاليفورنيا في بيركلي، وهي مبادرة لتدريب الباحثين على تطوير أطر حوكمة وسياسات الذكاء الاصطناعي الفعالة.

في وقت فراغها، تستضيف Nonnecke سلسلة مقاطع فيديو وبودكاست، TecHype، التي تحلل سياسات التكنولوجيا الناشئة واللوائح والقوانين، وتقدم رؤى حول الفوائد والمخاطر وتحدد الاستراتيجيات لتسخير التكنولوجيا من أجل الخير.

سؤال وجواب

باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟

لقد عملت في مجال الحوكمة المسؤولة للذكاء الاصطناعي منذ ما يقرب من عقد من الزمن. لقد جذبني تدريبي في مجال التكنولوجيا والسياسة العامة وتداخلها مع التأثيرات المجتمعية إلى هذا المجال. إن الذكاء الاصطناعي منتشر بالفعل وله تأثير عميق في حياتنا – للأفضل وللأسوأ. من المهم بالنسبة لي أن أساهم بشكل هادف في قدرة المجتمع على تسخير هذه التكنولوجيا من أجل الخير بدلاً من الوقوف على الهامش.

ما هو العمل الذي تفتخر به أكثر (في مجال الذكاء الاصطناعي)؟

أنا فخور حقًا بشيئين أنجزناهما. أولاً، كانت جامعة كاليفورنيا أول جامعة ترسي مبادئ الذكاء الاصطناعي المسؤولة وهيكل الإدارة لضمان المشتريات المسؤولة واستخدام الذكاء الاصطناعي بشكل أفضل. نحن نأخذ التزامنا بخدمة الجمهور بطريقة مسؤولة على محمل الجد. لقد كان لي شرف المشاركة في رئاسة فريق العمل الرئاسي لجامعة كاليفورنيا بشأن الذكاء الاصطناعي ومجلس الذكاء الاصطناعي الدائم التابع له. في هذه الأدوار، تمكنت من اكتساب خبرة مباشرة في التفكير من خلال كيفية تفعيل مبادئ الذكاء الاصطناعي المسؤولة لدينا بشكل أفضل من أجل حماية أعضاء هيئة التدريس والموظفين والطلاب والمجتمعات الأوسع التي نخدمها. ثانياً، أعتقد أنه من الأهمية بمكان أن يفهم الجمهور التقنيات الناشئة وفوائدها ومخاطرها الحقيقية. لقد أطلقنا TecHype، وهي سلسلة من مقاطع الفيديو والبودكاست التي تزيل الغموض عن التكنولوجيات الناشئة وتوفر التوجيه بشأن التدخلات الفنية والسياسية الفعالة.

كيف يمكنك التغلب على تحديات صناعة التكنولوجيا التي يهيمن عليها الذكور، وبالتالي، صناعة الذكاء الاصطناعي التي يهيمن عليها الذكور؟

كن فضوليًا ومثابرًا ولا تردعك متلازمة المحتال. لقد وجدت أنه من الضروري البحث عن مرشدين يدعمون التنوع والشمول، وتقديم نفس الدعم للآخرين الذين يدخلون هذا المجال. لقد كان بناء مجتمعات شاملة في مجال التكنولوجيا وسيلة قوية لتبادل الخبرات والمشورة والتشجيع.

ما هي النصيحة التي تقدمها للنساء الراغبات في دخول مجال الذكاء الاصطناعي؟

بالنسبة للنساء اللاتي يدخلن مجال الذكاء الاصطناعي، نصيحتي هي: ابحثي عن المعرفة بلا هوادة، لأن الذكاء الاصطناعي هو مجال سريع التطور. احتضن التواصل، لأن الاتصالات ستفتح الأبواب أمام الفرص وتقدم دعمًا لا يقدر بثمن. ودافع عن نفسك والآخرين، لأن صوتك ضروري في تشكيل مستقبل شامل وعادل للذكاء الاصطناعي. تذكر أن وجهات نظرك وخبراتك الفريدة تثري المجال وتحفز الابتكار.

ما هي بعض القضايا الأكثر إلحاحًا التي تواجه الذكاء الاصطناعي أثناء تطوره؟

أعتقد أن إحدى المشكلات الأكثر إلحاحًا التي تواجه الذكاء الاصطناعي أثناء تطوره هي عدم التعلق بأحدث دورات الضجيج. ونحن نرى هذا الآن مع الذكاء الاصطناعي التوليدي. من المؤكد أن الذكاء الاصطناعي التوليدي يقدم تطورات كبيرة وسيكون له تأثير هائل، سواء كان جيدًا أو سيئًا. ولكن هناك أشكال أخرى من التعلم الآلي قيد الاستخدام اليوم والتي تتخذ خلسة قرارات تؤثر بشكل مباشر على قدرة كل شخص على ممارسة حقوقه. بدلاً من التركيز على أحدث روائع التعلم الآلي، من المهم أن نركز على كيفية ومكان تطبيق التعلم الآلي بغض النظر عن براعته التكنولوجية.

ما هي بعض المشكلات التي يجب على مستخدمي الذكاء الاصطناعي معرفتها؟

يجب أن يكون مستخدمو الذكاء الاصطناعي على دراية بالقضايا المتعلقة بخصوصية البيانات وأمنها، واحتمال التحيز في صنع القرار في مجال الذكاء الاصطناعي وأهمية الشفافية في كيفية عمل أنظمة الذكاء الاصطناعي واتخاذ القرارات. إن فهم هذه المشكلات يمكن أن يمكّن المستخدمين من المطالبة بأنظمة ذكاء اصطناعي أكثر مساءلة وإنصافًا.

ما هي أفضل طريقة لبناء الذكاء الاصطناعي بشكل مسؤول؟

يتضمن بناء الذكاء الاصطناعي بشكل مسؤول دمج الاعتبارات الأخلاقية في كل مرحلة من مراحل التطوير والنشر. ويشمل ذلك مشاركة متنوعة لأصحاب المصلحة، ومنهجيات شفافة، واستراتيجيات إدارة التحيز، وتقييمات التأثير المستمرة. إن إعطاء الأولوية للصالح العام وضمان تطوير تقنيات الذكاء الاصطناعي مع وضع حقوق الإنسان والعدالة والشمولية في جوهرها أمر أساسي.

كيف يمكن للمستثمرين الدفع بشكل أفضل نحو الذكاء الاصطناعي المسؤول؟

هذا سؤال مهم! لفترة طويلة لم نناقش صراحة دور المستثمرين. لا أستطيع التعبير بما فيه الكفاية عن مدى تأثير المستثمرين! أعتقد أن العبارة المجازية التي تقول إن “التنظيم يخنق الابتكار” مبالغ فيها وغالباً ما تكون غير صحيحة. وبدلاً من ذلك، أعتقد اعتقادًا راسخًا أن الشركات الصغيرة يمكنها تجربة ميزة التحرك المتأخر والتعلم من شركات الذكاء الاصطناعي الأكبر حجمًا التي تعمل على تطوير ممارسات مسؤولة في مجال الذكاء الاصطناعي والإرشادات الصادرة عن الأوساط الأكاديمية والمجتمع المدني والحكومة. يتمتع المستثمرون بالقدرة على تشكيل اتجاه الصناعة من خلال جعل ممارسات الذكاء الاصطناعي المسؤولة عاملاً حاسماً في قراراتهم الاستثمارية. ويشمل ذلك دعم المبادرات التي تركز على معالجة التحديات الاجتماعية من خلال الذكاء الاصطناعي، وتعزيز التنوع والشمول داخل القوى العاملة في مجال الذكاء الاصطناعي، والدعوة إلى حوكمة قوية واستراتيجيات تقنية تساعد على ضمان استفادة تقنيات الذكاء الاصطناعي من المجتمع ككل.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى