تقنية

ينضم Yann Lecun من Meta إلى 70 آخرين في الدعوة إلى مزيد من الانفتاح في تطوير الذكاء الاصطناعي


وفي نفس اليوم الذي جمعت فيه المملكة المتحدة بعض قادة الشركات والقادة السياسيين في العالم في نفس الغرفة في بلتشلي بارك لحضور قمة سلامة الذكاء الاصطناعي، وضع أكثر من 70 موقعًا أسماءهم على رسالة تدعو إلى اتباع نهج أكثر انفتاحًا لتطوير الذكاء الاصطناعي.

وجاء في الرسالة التي نشرتها موزيلا: “نحن في منعطف حرج في حوكمة الذكاء الاصطناعي”. “للتخفيف من الأضرار الحالية والمستقبلية الناجمة عن أنظمة الذكاء الاصطناعي، نحتاج إلى تبني الانفتاح والشفافية والوصول على نطاق واسع. وهذا يجب أن يكون أولوية عالمية.”

مثلما حدث في مجال البرمجيات الأوسع على مدى العقود القليلة الماضية، كانت الخلفية الرئيسية لثورة الذكاء الاصطناعي المزدهرة هي الانفتاح مقابل الملكية – وإيجابيات وسلبيات كل منهما. خلال عطلة نهاية الأسبوع، قال يان ليكون، كبير علماء الذكاء الاصطناعي في الشركة الأم لفيسبوك أخذت إلى X لانتقاد الجهود التي تبذلها بعض الشركات، بما في ذلك OpenAI وDeepMind التابعة لشركة Google، لتأمين “الاستحواذ التنظيمي على صناعة الذكاء الاصطناعي” من خلال الضغط ضد البحث والتطوير المفتوح في مجال الذكاء الاصطناعي.

كتب ليكون: “إذا نجحت حملات الترويج للخوف، فإنها ستؤدي *حتمًا* إلى ما نعتبره أنا وأنت كارثة: عدد قليل من الشركات سيسيطر على الذكاء الاصطناعي”.

وهذا هو الموضوع الذي يستمر في التغلغل من خلال جهود الحوكمة المتزايدة الناشئة عن أمثال الأمر التنفيذي للرئيس بايدن وقمة سلامة الذكاء الاصطناعي التي استضافتها المملكة المتحدة هذا الأسبوع. من ناحية، يحذر رؤساء شركات الذكاء الاصطناعي الكبرى من التهديدات الوجودية التي يشكلها الذكاء الاصطناعي، بحجة أن الذكاء الاصطناعي مفتوح المصدر يمكن التلاعب به من قبل الجهات الفاعلة السيئة لصنع أسلحة كيميائية بسهولة أكبر (على سبيل المثال)، في حين تفترض الحجج المضادة من ناحية أخرى وأن مثل هذا التخويف يهدف فقط إلى المساعدة في تركيز السيطرة في أيدي عدد قليل من الشركات الحمائية.

السيطرة الملكية

ربما تكون الحقيقة أكثر دقة إلى حد ما من ذلك، ولكن في ظل هذه الخلفية وضع العشرات من الأشخاص أسمائهم في رسالة مفتوحة اليوم، مطالبين بمزيد من الانفتاح.

تقول الرسالة: “نعم، النماذج المتاحة بشكل مفتوح تأتي مع مخاطر ونقاط ضعف – يمكن إساءة استخدام نماذج الذكاء الاصطناعي من قبل جهات ضارة أو نشرها من قبل مطورين غير مجهزين”. “ومع ذلك، فقد رأينا مرارًا وتكرارًا أن الأمر نفسه ينطبق على التقنيات المملوكة – وأن زيادة الوصول العام والتدقيق يجعل التكنولوجيا أكثر أمانًا، وليس أكثر خطورة. إن فكرة أن السيطرة الصارمة والملكية على نماذج الذكاء الاصطناعي الأساسية هي السبيل الوحيد لحمايتنا من الأذى على نطاق المجتمع هي فكرة ساذجة في أحسن الأحوال، وخطيرة في أسوأ الأحوال.

قام باحث الذكاء الاصطناعي المحترم Lecun – الذي انضم إلى Meta قبل 10 سنوات – بإرفاق اسمه بالرسالة، إلى جانب العديد من الأسماء البارزة الأخرى بما في ذلك المؤسس المشارك لـ Google Brain وCoursera Andrew Ng؛ Hugging Face المؤسس المشارك ومدير التكنولوجيا التنفيذي جوليان شوموند؛ والتقني الشهير بريان بهليندورف من مؤسسة Linux.

على وجه التحديد، تحدد الرسالة ثلاثة مجالات رئيسية حيث يمكن للانفتاح أن يساعد في تطوير الذكاء الاصطناعي بشكل آمن، بما في ذلك من خلال تمكين المزيد من البحث والتعاون المستقل؛ وزيادة التدقيق العام والمساءلة؛ وخفض الحواجز أمام دخول الوافدين الجدد إلى مجال الذكاء الاصطناعي.

وتشير الرسالة إلى أن “التاريخ يبين لنا أن الاندفاع السريع نحو النوع الخاطئ من التنظيم يمكن أن يؤدي إلى تركيز السلطة بطرق تضر بالمنافسة والابتكار”. “يمكن للنماذج المفتوحة أن تثري النقاش المفتوح وتحسن عملية صنع السياسات. إذا كانت أهدافنا هي السلامة والأمن والمساءلة، فإن الانفتاح والشفافية عنصران أساسيان للوصول إلى هناك.




اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading