تقنية

يشرح a16z VC Martin Casado سبب كون العديد من لوائح الذكاء الاصطناعي خاطئة جدًا


تكمن المشكلة في معظم محاولات تنظيم الذكاء الاصطناعي حتى الآن في أن المشرعين يركزون على بعض تجارب الذكاء الاصطناعي المستقبلية الأسطورية، بدلاً من الفهم الحقيقي للمخاطر الجديدة التي يقدمها الذكاء الاصطناعي بالفعل.

هكذا جادل أندريسن هورويتز، الشريك العام لـ VC Martin Casado، أمام حشد من الحضور في TechCrunch Disrupt 2024 الأسبوع الماضي. كاسادو، الذي يقود ممارسات البنية التحتية لشركة a16z البالغة قيمتها 1.25 مليار دولار، استثمر في شركات ناشئة في مجال الذكاء الاصطناعي مثل World Labs وCursor وIdeogram وBraintrust.

“لقد كانت التقنيات والتنظيمات التحويلية هي الخطاب المستمر لعقود من الزمن، أليس كذلك؟ لذا فإن الأمر في كل خطاب الذكاء الاصطناعي هو أنه يبدو وكأنه جاء من العدم”. “إنهم يحاولون نوعًا ما استحضار لوائح تنظيمية جديدة دون الاستفادة من تلك الدروس”.

على سبيل المثال، قال: “هل رأيت بالفعل تعريفات الذكاء الاصطناعي في هذه السياسات؟ مثل أننا لا نستطيع حتى تحديد ذلك.

كان كاسادو من بين بحر من الأصوات في وادي السيليكون الذين ابتهجوا عندما استخدم حاكم ولاية كاليفورنيا جافين نيوسوم حق النقض ضد قانون حوكمة الذكاء الاصطناعي في الولاية، SB 1047. أراد القانون وضع ما يسمى بمفتاح الإيقاف في نماذج الذكاء الاصطناعي الضخمة للغاية – ويعرف أيضًا باسم شيء من شأنه أن إيقاف تشغيلها. قال أولئك الذين عارضوا مشروع القانون إن صياغته سيئة للغاية لدرجة أنه بدلاً من إنقاذنا من وحش الذكاء الاصطناعي المستقبلي الخيالي، كان من شأنه ببساطة أن يربك ويعرقل مشهد تطوير الذكاء الاصطناعي الساخن في كاليفورنيا.

“أسمع بشكل روتيني أن المؤسسين يرفضون الانتقال إلى هنا بسبب ما يشير إليه ذلك بشأن موقف كاليفورنيا من الذكاء الاصطناعي – وهو أننا نفضل التشريعات السيئة القائمة على مخاوف الخيال العلمي بدلاً من المخاطر الملموسة”. لقد نشر على X قبل أسبوعين من نقض مشروع القانون.

على الرغم من أن قانون الولاية هذا قد مات، إلا أن حقيقة وجوده لا تزال تزعج كاسادو. وهو يشعر بالقلق من أن المزيد من مشاريع القوانين، التي تم صياغتها بنفس الطريقة، يمكن أن تتحقق إذا قرر السياسيون إرضاء مخاوف عامة السكان من الذكاء الاصطناعي، بدلا من التحكم في ما تفعله التكنولوجيا في الواقع.

إنه يفهم تكنولوجيا الذكاء الاصطناعي بشكل أفضل من معظم الأشخاص. قبل انضمامه إلى شركة رأس المال الاستثماري الشهيرة، أسس كاسادو شركتين أخريين، بما في ذلك شركة البنية التحتية للشبكات، Nicira، التي باعها لشركة VMware مقابل 1.26 مليار دولار قبل ما يزيد قليلاً عن عقد من الزمن. وقبل ذلك، كان كاسادو خبيرًا في أمن الكمبيوتر في مختبر لورانس ليفرمور الوطني.

ويقول إن العديد من لوائح الذكاء الاصطناعي المقترحة لم تأت من، ولم تدعم من قبل، العديد من الذين يفهمون تكنولوجيا الذكاء الاصطناعي بشكل أفضل، بما في ذلك الأكاديميون والقطاع التجاري الذي يبني منتجات الذكاء الاصطناعي.

“يجب أن يكون لديك فكرة مختلفة عن المخاطر الهامشية. مثل، كيف يختلف الذكاء الاصطناعي اليوم عن شخص يستخدم جوجل؟ كيف يختلف الذكاء الاصطناعي اليوم عن شخص يستخدم الإنترنت فقط؟ وقال: “إذا كان لدينا نموذج لكيفية اختلاف الأمر، فستكون لديك فكرة ما عن المخاطر الهامشية، ومن ثم يمكنك تطبيق السياسات التي تعالج تلك المخاطر الهامشية”.

“أعتقد أننا مازلنا مبكرين بعض الشيء قبل أن نبدأ في الكآبة [onto] يقول: “مجموعة من التنظيم لفهم ما سنقوم بتنظيمه حقًا”.

وكانت الحجة المضادة – والتي طرحها العديد من الحضور – هي أن العالم لم ير حقًا أنواع الأضرار التي يمكن أن يحدثها الإنترنت أو وسائل التواصل الاجتماعي قبل أن تقع علينا تلك الأضرار. عندما تم إطلاق شركتي جوجل وفيسبوك، لم يكن أحد يعلم أنهما سيهيمنان على الإعلانات عبر الإنترنت أو سيجمعان الكثير من البيانات عن الأفراد. لم يكن أحد يفهم أشياء مثل التنمر عبر الإنترنت أو غرف الصدى عندما كانت وسائل التواصل الاجتماعي حديثة.

ويشير المدافعون عن تنظيم الذكاء الاصطناعي الآن في كثير من الأحيان إلى هذه الظروف الماضية ويقولون إنه كان ينبغي تنظيم هذه التقنيات في وقت مبكر.

رد كاسادو؟

“هناك نظام تنظيمي قوي قائم اليوم تم تطويره على مدار 30 عامًا”، وهو مجهز جيدًا لبناء سياسات جديدة للذكاء الاصطناعي وغيره من التقنيات. هذا صحيح، على المستوى الفيدرالي وحده، تشمل الهيئات التنظيمية كل شيء بدءًا من لجنة الاتصالات الفيدرالية وحتى لجنة مجلس النواب للعلوم والفضاء والتكنولوجيا. عندما سأل موقع TechCrunch كاسادو يوم الأربعاء بعد الانتخابات عما إذا كان متمسكًا بهذا الرأي – وهو أن تنظيم الذكاء الاصطناعي يجب أن يتبع المسار الذي حددته بالفعل الهيئات التنظيمية القائمة – قال إنه فعل ذلك.

لكنه يعتقد أيضًا أنه لا ينبغي استهداف الذكاء الاصطناعي بسبب مشكلات تتعلق بالتقنيات الأخرى. يجب استهداف التقنيات التي تسببت في حدوث المشكلات بدلاً من ذلك.

وقال: “إذا أخطأنا في وسائل التواصل الاجتماعي، فلا يمكنك إصلاحه عن طريق وضعه على الذكاء الاصطناعي”. “إن الأشخاص الذين ينظمون الذكاء الاصطناعي يقولون: “أوه، لقد أخطأنا في التعامل مع وسائل التواصل الاجتماعي، لذلك سنصحح الأمر في الذكاء الاصطناعي”، وهو تصريح لا معنى له. دعنا نذهب لإصلاح الأمر على وسائل التواصل الاجتماعي.




اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading