تقنية

المرأة في الذكاء الاصطناعي: تبحث أورفاشي أنيجا في التأثير الاجتماعي للذكاء الاصطناعي في الهند


لمنح الأكاديميات اللاتي يركزن على الذكاء الاصطناعي وغيرهن من الوقت المستحق – والمتأخر – في دائرة الضوء، تطلق TechCrunch سلسلة من المقابلات التي تركز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي. سنقوم بنشر العديد من المقالات على مدار العام مع استمرار ازدهار الذكاء الاصطناعي، لتسليط الضوء على الأعمال الرئيسية التي غالبًا ما لا يتم التعرف عليها. اقرأ المزيد من الملفات الشخصية هنا.

أورفاشي أنيجا هو المدير المؤسس لمختبر Digital Futures Lab، وهو جهد بحثي متعدد التخصصات يسعى إلى فحص التفاعل بين التكنولوجيا والمجتمع في الجنوب العالمي. وهي أيضًا زميلة مشاركة في برنامج آسيا والمحيط الهادئ في تشاتام هاوس، وهو معهد سياسي مستقل مقره في لندن.

يركز بحث أنيجا الحالي على التأثير المجتمعي لأنظمة اتخاذ القرار الخوارزمية في الهند، حيث تقيم، وحوكمة المنصات. قامت أنيجا مؤخرًا بتأليف دراسة حول الاستخدامات الحالية للذكاء الاصطناعي في الهند، حيث قامت بمراجعة حالات الاستخدام عبر القطاعات بما في ذلك الشرطة والزراعة.

سؤال وجواب

باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟

لقد بدأت مسيرتي المهنية في مجال البحث والمشاركة في السياسات في القطاع الإنساني. لعدة سنوات، قمت بدراسة استخدام التقنيات الرقمية في الأزمات الممتدة في سياقات منخفضة الموارد. لقد تعلمت بسرعة أن هناك خطًا رفيعًا بين الابتكار والتجريب، خاصة عند التعامل مع الفئات السكانية الضعيفة. لقد جعلتني الدروس المستفادة من هذه التجربة قلقة للغاية بشأن السرديات التقنية حول إمكانات التقنيات الرقمية، وخاصة الذكاء الاصطناعي. وفي الوقت نفسه، أطلقت الهند مهمة الهند الرقمية والاستراتيجية الوطنية للذكاء الاصطناعي. لقد انزعجت من السرديات السائدة التي ترى في الذكاء الاصطناعي حلاً سحريًا لمشاكل الهند الاجتماعية والاقتصادية المعقدة، والغياب التام للخطاب الانتقادي حول هذه القضية.

ما هو العمل الذي تفتخر به أكثر (في مجال الذكاء الاصطناعي)؟

أنا فخور بأننا تمكنا من لفت الانتباه إلى الاقتصاد السياسي لإنتاج الذكاء الاصطناعي بالإضافة إلى الآثار الأوسع على العدالة الاجتماعية وعلاقات العمل والاستدامة البيئية. في كثير من الأحيان تركز الروايات حول الذكاء الاصطناعي على مكاسب تطبيقات محددة، وفي أفضل الأحوال، على فوائد ومخاطر هذا التطبيق. لكن هذا يتجاهل الغابة – فالعدسة الموجهة نحو المنتج تحجب التأثيرات الهيكلية الأوسع مثل مساهمة الذكاء الاصطناعي في الظلم المعرفي، وتقليل مهارات العمل، وإدامة السلطة غير الخاضعة للمساءلة في عالم الأغلبية. أنا فخور أيضًا بأننا تمكنا من ترجمة هذه المخاوف إلى سياسات وتنظيمات ملموسة – سواء من خلال تصميم إرشادات المشتريات لاستخدام الذكاء الاصطناعي في القطاع العام أو تقديم الأدلة في الإجراءات القانونية ضد شركات التكنولوجيا الكبرى في الجنوب العالمي.

كيف يمكنك التغلب على تحديات صناعة التكنولوجيا التي يهيمن عليها الذكور، وبالتالي، صناعة الذكاء الاصطناعي التي يهيمن عليها الذكور؟

من خلال السماح لعملي بالتحدث. وبالسؤال المستمر: لماذا؟

ما هي النصيحة التي تقدمها للنساء الراغبات في دخول مجال الذكاء الاصطناعي؟

تطوير معرفتك وخبرتك. تأكد من أن فهمك الفني للقضايا سليم، ولكن لا تركز بشكل ضيق فقط على الذكاء الاصطناعي. بدلًا من ذلك، ادرس على نطاق واسع حتى تتمكن من إقامة روابط عبر المجالات والتخصصات. لا يوجد عدد كافٍ من الناس يفهمون الذكاء الاصطناعي باعتباره نظامًا اجتماعيًا وتقنيًا هو نتاج التاريخ والثقافة.

ما هي بعض القضايا الأكثر إلحاحًا التي تواجه الذكاء الاصطناعي أثناء تطوره؟

أعتقد أن القضية الأكثر إلحاحاً هي تركيز السلطة في أيدي عدد قليل من شركات التكنولوجيا. على الرغم من أن هذه المشكلة ليست جديدة، إلا أنها تتفاقم بسبب التطورات الجديدة في نماذج اللغات الكبيرة والذكاء الاصطناعي التوليدي. وتعمل العديد من هذه الشركات الآن على إثارة المخاوف بشأن المخاطر الوجودية للذكاء الاصطناعي. وهذا لا يشكل إلهاءً عن الأضرار الحالية فحسب، بل إنه يضع هذه الشركات أيضًا على أنها ضرورية لمعالجة الأضرار المرتبطة بالذكاء الاصطناعي. ومن نواحٍ عديدة، فإننا نفقد بعضًا من زخم “الهجوم التكنولوجي” الذي نشأ في أعقاب حادثة كامبريدج أناليتيكا. وفي أماكن مثل الهند، أشعر بالقلق أيضا من أن الذكاء الاصطناعي يتم وضعه باعتباره ضروريا للتنمية الاجتماعية والاقتصادية، مما يوفر فرصة لتجاوز التحديات المستمرة. ولا يؤدي هذا إلى المبالغة في إمكانات الذكاء الاصطناعي فحسب، بل يتجاهل أيضا نقطة مفادها أنه من غير الممكن تجاوز التطوير المؤسسي اللازم لتطوير الضمانات. هناك قضية أخرى لا نفكر فيها بجدية كافية وهي التأثيرات البيئية للذكاء الاصطناعي، فمن المرجح أن يكون المسار الحالي غير مستدام. في النظام البيئي الحالي، من غير المرجح أن يكون الأشخاص الأكثر عرضة لتأثيرات تغير المناخ هم المستفيدون من ابتكار الذكاء الاصطناعي.

ما هي بعض المشكلات التي يجب على مستخدمي الذكاء الاصطناعي معرفتها؟

يجب أن يدرك المستخدمون أن الذكاء الاصطناعي ليس سحرًا، ولا أي شيء قريب من الذكاء البشري. إنه شكل من أشكال الإحصائيات الحسابية التي لها العديد من الاستخدامات المفيدة، ولكنها في النهاية مجرد تخمين احتمالي يعتمد على أنماط تاريخية أو سابقة. أنا متأكد من أن هناك العديد من المشكلات الأخرى التي يحتاج المستخدمون أيضًا إلى معرفتها، ولكن أريد التنبيه إلى أننا يجب أن نكون حذرين من محاولات تحويل المسؤولية إلى المستخدمين. أرى هذا مؤخرًا مع استخدام أدوات الذكاء الاصطناعي التوليدية في سياقات منخفضة الموارد في معظم دول العالم – فبدلاً من توخي الحذر بشأن هذه التقنيات التجريبية وغير الموثوقة، غالبًا ما يتحول التركيز إلى كيفية قيام المستخدمين النهائيين، مثل المزارعين أو العاملين في الخطوط الأمامية يحتاج العاملون في مجال الصحة إلى رفع مستوى مهاراتهم.

ما هي أفضل طريقة لبناء الذكاء الاصطناعي بشكل مسؤول؟

ويجب أن يبدأ هذا بتقييم الحاجة إلى الذكاء الاصطناعي في المقام الأول. هل هناك مشكلة يمكن للذكاء الاصطناعي حلها بشكل فريد أم أن هناك وسائل أخرى ممكنة؟ وإذا أردنا بناء الذكاء الاصطناعي، فهل من الضروري وجود نموذج معقد للصندوق الأسود، أم أن النموذج الأبسط القائم على المنطق سيفي بالغرض أيضًا؟ نحتاج أيضًا إلى إعادة تركيز المعرفة بالمجال في بناء الذكاء الاصطناعي. في ظل الهوس بالبيانات الضخمة، ضحينا بالنظرية – نحن بحاجة إلى بناء نظرية للتغيير تعتمد على المعرفة بالمجال، ويجب أن يكون هذا أساس النماذج التي نبنيها، وليس فقط البيانات الضخمة وحدها. هذا بالطبع بالإضافة إلى القضايا الرئيسية مثل المشاركة والفرق الشاملة وحقوق العمال وما إلى ذلك.

كيف يمكن للمستثمرين الدفع بشكل أفضل نحو الذكاء الاصطناعي المسؤول؟

يحتاج المستثمرون إلى النظر في دورة حياة إنتاج الذكاء الاصطناعي بأكملها – وليس فقط مخرجات أو نتائج تطبيقات الذكاء الاصطناعي. وهذا يتطلب النظر في مجموعة من القضايا مثل ما إذا كان يتم تقييم العمالة بشكل عادل، والآثار البيئية، ونموذج أعمال الشركة (أي هل يعتمد على المراقبة التجارية؟) وتدابير المساءلة الداخلية داخل الشركة. يحتاج المستثمرون أيضًا إلى المطالبة بأدلة أفضل وأكثر صرامة حول الفوائد المفترضة للذكاء الاصطناعي.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى