يكشف ملف الاكتتاب العام الأولي لشركة Rubrik عن وجود لجنة حوكمة للذكاء الاصطناعي. اعتد عليه.

كان هناك كتلة صلبة في ملف الاكتتاب العام الأولي لشركة Rubrik هذا الأسبوع – بين الأجزاء المتعلقة بعدد الموظفين وبيانات التكلفة – التي تكشف كيف تفكر شركة إدارة البيانات في الذكاء الاصطناعي التوليدي والمخاطر التي تصاحب التكنولوجيا الجديدة: أنشأ Rubrik بهدوء لجنة حوكمة للإشراف على كيفية تطبيق الذكاء الاصطناعي في أعمالها.
وفقًا للنموذج S-1، تضم لجنة حوكمة الذكاء الاصطناعي الجديدة مديرين من فرق الهندسة والمنتجات والشؤون القانونية وأمن المعلومات في شركة Rubrik. ستقوم الفرق معًا بتقييم المخاطر القانونية والأمنية والتجارية المحتملة لاستخدام أدوات الذكاء الاصطناعي التوليدية والتفكير في “الخطوات التي يمكن اتخاذها للتخفيف من أي من هذه المخاطر”، كما جاء في الملف.
لكي نكون واضحين، فإن شركة Rubrik ليست شركة ذكاء اصطناعي في جوهرها – فمنتجها الوحيد للذكاء الاصطناعي، وهو برنامج دردشة يسمى Ruby تم إطلاقه في نوفمبر 2023، مبني على Microsoft وOpenAI APIs. ولكن مثل كثيرين آخرين، تفكر شركة روبيريك (ومستثمروها الحاليون والمستقبليون) في مستقبل يلعب فيه الذكاء الاصطناعي دورًا متزايدًا في أعمالها. لهذا السبب قد تصبح حوكمة الذكاء الاصطناعي هي الوضع الطبيعي الجديد.
تزايد التدقيق التنظيمي
تتبنى بعض الشركات أفضل ممارسات الذكاء الاصطناعي لأخذ زمام المبادرة، ولكن سيتم دفع شركات أخرى للقيام بذلك من خلال لوائح مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي.
ويحظر هذا التشريع التاريخي، الذي يُطلق عليه “أول قانون شامل للذكاء الاصطناعي في العالم”، ومن المتوقع أن يصبح قانونًا عبر الكتلة في وقت لاحق من هذا العام، بعض حالات استخدام الذكاء الاصطناعي التي تعتبر أنها تجلب “مخاطر غير مقبولة”، ويحدد التطبيقات الأخرى “عالية المخاطر”. ويحدد مشروع القانون أيضًا قواعد الحوكمة التي تهدف إلى الحد من المخاطر التي قد تؤدي إلى توسيع نطاق الأضرار مثل التحيز والتمييز. من المرجح أن يتم اعتماد نهج تصنيف المخاطر هذا على نطاق واسع من قبل الشركات التي تبحث عن طريقة منطقية للمضي قدمًا في اعتماد الذكاء الاصطناعي.
ويتوقع محامي الخصوصية وحماية البيانات إدواردو أوستاران، وهو شريك في شركة Hogan Lovells International LLP، أن يؤدي قانون الذكاء الاصطناعي للاتحاد الأوروبي وعدد لا يحصى من التزاماته إلى تضخيم الحاجة إلى حوكمة الذكاء الاصطناعي، الأمر الذي سيتطلب بدوره لجانًا. وقال: “بصرف النظر عن دورها الاستراتيجي في وضع برنامج حوكمة الذكاء الاصطناعي والإشراف عليه، فمن منظور تشغيلي، تعد لجان حوكمة الذكاء الاصطناعي أداة رئيسية في معالجة المخاطر وتقليلها إلى الحد الأدنى”. “وهذا لأنه بشكل جماعي، يجب أن تكون اللجنة المنشأة بشكل صحيح والمزودة بالموارد قادرة على توقع جميع مجالات المخاطر والعمل مع الشركة للتعامل معها قبل أن تتحقق. بمعنى ما، ستعمل لجنة حوكمة الذكاء الاصطناعي كأساس لجميع جهود الحوكمة الأخرى وستوفر الطمأنينة التي تشتد الحاجة إليها لتجنب فجوات الامتثال.
وفي ورقة سياسات حديثة حول آثار قانون الذكاء الاصطناعي للاتحاد الأوروبي على حوكمة الشركات، اتفقت كاثرينا ميلر، مستشارة الامتثال والحوكمة البيئية والاجتماعية والحوكمة، على توصية الشركات بإنشاء لجان لحوكمة الذكاء الاصطناعي كإجراء للامتثال.
التدقيق القانوني
لا يقتصر المقصود من الامتثال على إرضاء المنظمين. أشارت شركة المحاماة البريطانية الأمريكية نورتون روز فولبرايت إلى أن قانون الاتحاد الأوروبي للذكاء الاصطناعي له قوة، وأن “العقوبات المفروضة على عدم الامتثال لقانون الذكاء الاصطناعي كبيرة”.
ويمتد نطاقها أيضًا إلى ما هو أبعد من أوروبا. وحذرت شركة المحاماة من أن “الشركات العاملة خارج أراضي الاتحاد الأوروبي قد تخضع لأحكام قانون الذكاء الاصطناعي إذا قامت بأنشطة متعلقة بالذكاء الاصطناعي تشمل مستخدمي الاتحاد الأوروبي أو بياناتهم”. إذا كان الأمر مثل اللائحة العامة لحماية البيانات، فسيكون للتشريع تأثير دولي، خاصة وسط التعاون المتزايد بين الاتحاد الأوروبي والولايات المتحدة في مجال الذكاء الاصطناعي.
يمكن لأدوات الذكاء الاصطناعي أن تضع الشركة في مشكلة تتجاوز تشريعات الذكاء الاصطناعي. رفضت شركة Rubrik مشاركة التعليقات مع TechCrunch، على الأرجح بسبب فترة الهدوء في الاكتتاب العام، لكن ملف الشركة يذكر أن لجنة حوكمة الذكاء الاصطناعي الخاصة بها تقوم بتقييم مجموعة واسعة من المخاطر.
تتضمن معايير الاختيار والتحليل النظر في كيفية استخدام أدوات الذكاء الاصطناعي التوليدية التي يمكن أن تثير قضايا تتعلق بالمعلومات السرية والبيانات الشخصية والخصوصية وبيانات العملاء والالتزامات التعاقدية والبرمجيات مفتوحة المصدر وحقوق النشر وحقوق الملكية الفكرية الأخرى والشفافية ودقة المخرجات والموثوقية. ، و الامن.
ضع في اعتبارك أن رغبة Rubrik في تغطية القواعد القانونية قد تكون نتيجة لمجموعة متنوعة من الأسباب الأخرى. يمكن، على سبيل المثال، أن تكون هناك أيضًا لإظهار أنها تتوقع المشكلات بشكل مسؤول، وهو أمر بالغ الأهمية نظرًا لأن شركة Rubrik لم تتعامل في السابق مع تسرب البيانات والاختراق فحسب، بل تعاملت أيضًا مع قضايا الملكية الفكرية.
مسألة البصريات
وغني عن القول أن الشركات لن تنظر إلى الذكاء الاصطناعي من خلال عدسة الوقاية من المخاطر فحسب. ستكون هناك فرص لا يريدون تفويتها، ولا يفعل ذلك عملاؤهم أيضًا. وهذا أحد الأسباب وراء تنفيذ أدوات الذكاء الاصطناعي التوليدية على الرغم من وجود عيوب واضحة مثل “الهلوسة” (أي الميل إلى تلفيق المعلومات).
سيكون توازنًا جيدًا بالنسبة للشركات. من ناحية، فإن التفاخر باستخدامهم للذكاء الاصطناعي يمكن أن يعزز تقييماتهم، بغض النظر عن مدى حقيقة الاستخدام المذكور أو الفرق الذي يحدثه في أرباحهم النهائية. ومن ناحية أخرى، سيتعين عليهم أن يريحوا عقولهم بشأن المخاطر المحتملة.
“نحن في هذه المرحلة الرئيسية من تطور الذكاء الاصطناعي، حيث يعتمد مستقبل الذكاء الاصطناعي بشكل كبير على ما إذا كان الجمهور سيثق في أنظمة الذكاء الاصطناعي والشركات التي تستخدمها”، كتب مستشار الخصوصية لمزود برامج الخصوصية والأمن OneTrust، Adomas Siudika، في مقال. بلوق وظيفة حول هذا الموضوع.
من المرجح أن يكون إنشاء لجان حوكمة الذكاء الاصطناعي طريقة واحدة على الأقل لمحاولة المساعدة على جبهة الثقة.