تقنية

تريد فيرا استخدام الذكاء الاصطناعي للقضاء على أسوأ سلوكيات النماذج التوليدية


تقوم ليز أوسوليفان بمهمة جعل الذكاء الاصطناعي “أكثر أمانًا إلى حد ما”، على حد تعبيرها.

بصفته عضوًا في اللجنة الاستشارية الوطنية للذكاء الاصطناعي، التي تتولى صياغة التوصيات المقدمة إلى البيت الأبيض والكونغرس حول كيفية تعزيز اعتماد الذكاء الاصطناعي مع تنظيم مخاطره، أمضى أوسوليفان 12 عامًا في الجانب التجاري للشركات الناشئة في مجال الذكاء الاصطناعي حيث أشرف على تصنيف البيانات والعمليات ونجاح العملاء. . وفي عام 2019، حصلت على وظيفة في مشروع مراقبة تكنولوجيا المراقبة، حيث شنت حملات لحماية الحريات المدنية لسكان نيويورك، وشاركت في تأسيس Arthur AI، وهي شركة ناشئة تتعاون مع المجتمع المدني والأكاديميات لتسليط الضوء على “الصندوق الأسود” للذكاء الاصطناعي.

الآن، تستعد أوسوليفان لفعلها التالي مع شركة Vera، وهي شركة ناشئة تعمل على بناء مجموعة أدوات تسمح للشركات بوضع “سياسات استخدام مقبولة” للذكاء الاصطناعي التوليدي – وهو نوع نماذج الذكاء الاصطناعي التي تولد النصوص والصور والموسيقى والمزيد – و فرض هذه السياسات عبر النماذج مفتوحة المصدر والنماذج المخصصة.

أنهت Vera اليوم جولة تمويل بقيمة 2.7 مليون دولار بقيادة Differential Venture Partners بمشاركة Essence VC وEverywhere VC وBetaworks وGreycroft وATP Ventures. ويقول أوسوليفان إنه ليصل إجمالي مبلغ Vera إلى 3.3 مليون دولار، سيتم تخصيص الأموال الجديدة لتنمية فريق Vera المكون من خمسة أشخاص، والبحث والتطوير وتوسيع نطاق نشر المؤسسات.

قال أوسوليفان: “تأسست شركة Vera لأننا رأينا بشكل مباشر قوة الذكاء الاصطناعي في معالجة المشكلات الحقيقية، تمامًا كما رأينا الطرق الجامحة والغريبة التي يمكن أن تتسبب بها في إلحاق الضرر بالشركات والجمهور والعالم”. TechCrunch في مقابلة عبر البريد الإلكتروني. “نحن بحاجة إلى رعاية هذه التكنولوجيا بشكل مسؤول في العالم، وبينما تتسابق الشركات لتحديد استراتيجيات الذكاء الاصطناعي التوليدية الخاصة بها، فإننا ندخل عصرًا حيث من الأهمية بمكان أن نتجاوز مبادئ الذكاء الاصطناعي ونضعها موضع التنفيذ. فيرا فريق يمكنه المساعدة بالفعل.

شارك أوسوليفان في تأسيس Vera في عام 2021 مع جاستن نورمان، عالم أبحاث سابق في Cisco، وعالم بيانات رئيسي في مختبر أبحاث الذكاء الاصطناعي التابع لشركة Cloudera ونائب رئيس علوم البيانات في Yelp. وفي سبتمبر، تم تعيين نورمان عضوًا في إدارة مجلس العلوم والتكنولوجيا البحرية، الذي يقدم المشورة والمشورة للبحرية الأمريكية بشأن المسائل والسياسات المتعلقة بالوظائف العلمية والتقنية والمهام ذات الصلة.

تحاول منصة Vera تحديد المخاطر في مدخلات النموذج – على سبيل المثال، مطالبة مثل “كتابة خطاب تقديمي لدور هندسة البرمجيات” إلى نموذج إنشاء النص – وحظر أو تنقيح أو تحويل الطلبات التي قد تحتوي على أشياء مثل معلومات التعريف الشخصية وبيانات الاعتماد الأمنية والملكية الفكرية وهجمات الحقن السريع. (غالبًا ما تُستخدم هجمات الحقن الفوري، وهي في الأساس موجهات خبيثة مصاغة بعناية، “لخداع” النماذج لتجاوز مرشحات الأمان.)

تضع فيرا أيضًا قيودًا على ما يمكن أن “تقوله” النماذج استجابةً للمحفزات، وفقًا لأوسوليفان، مما يمنح الشركات سيطرة أكبر على سلوك نماذجها في الإنتاج.

كيف تحقق فيرا ذلك؟ من خلال استخدام ما وصفه أوسوليفان بـ “نماذج اللغة والرؤية الخاصة” التي تقع بين المستخدمين والنماذج الداخلية أو نماذج الطرف الثالث (مثل OpenAI’s GPT-4) واكتشاف المحتوى الإشكالي. يمكن لـ Vera حظر المطالبات “غير المناسبة” – أو الإجابات من عارضة الأزياء بأي شكل من الأشكال، كما يدعي أوسوليفان، سواء كان نصًا أو رمزًا أو صورة أو فيديو.

وقال أوسوليفان: “إن نهجنا التكنولوجي العميق في تطبيق السياسات يتجاوز الأشكال السلبية للتوثيق وقوائم المراجعة لمعالجة النقاط المباشرة التي تحدث فيها هذه المخاطر”. “الحل الذي نقدمه… يمنع الاستجابات الأكثر خطورة والتي قد تتضمن مواد إجرامية أو تشجع المستخدمين على إيذاء أنفسهم.”

من المؤكد أن الشركات تواجه تحديات – تتعلق في المقام الأول بالامتثال – في تبني نماذج الذكاء الاصطناعي التوليدية لتحقيق أغراضها. إنهم قلقون بشأن وصول بياناتهم السرية إلى المطورين الذين قاموا بتدريب النماذج على بيانات المستخدم، على سبيل المثال؛ في الأشهر الأخيرة، منعت الشركات الكبرى بما في ذلك Apple وWalmart وVerizon الموظفين من استخدام أدوات مثل ChatGPT من OpenAI.

ومن الواضح أن النماذج المسيئة سيئة للدعاية. لا توجد علامة تجارية تريد أن يقوم نموذج إنشاء النصوص بتشغيل برنامج الدردشة الآلي الخاص بخدمة العملاء، على سبيل المثال، بإطلاق صفات عنصرية أو تقديم نصائح مدمرة للذات.

لكن هذا المراسل يتساءل عما إذا كان نهج فيرا موثوقًا به كما يقترح أوسوليفان.

لا يوجد نموذج مثالي – ولا حتى نموذج Vera – وقد ثبت مرارًا وتكرارًا أن نماذج الإشراف على المحتوى عرضة لمجموعة كاملة من التحيزات. ترى بعض نماذج الذكاء الاصطناعي التي تم تدريبها على اكتشاف السمية في النص أن العبارات باللغة الإنجليزية العامية الأمريكية الأفريقية، وهي القواعد النحوية غير الرسمية التي يستخدمها بعض الأمريكيين السود، تعتبر “سامة” بشكل غير متناسب. وفي الوقت نفسه، تم العثور على بعض خوارزميات الرؤية الحاسوبية لتسمية موازين الحرارة التي يحملها الأشخاص السود على أنها “بنادق” بينما تُصنف موازين الحرارة التي يحملها الأشخاص ذوو البشرة الفاتحة على أنها “أجهزة إلكترونية”.

ولكي نكون منصفين مع أوسوليفان، فهي لا تدعي أن نماذج فيرا مضادة للرصاص – ولكنها فقط قادرة على التخلص من أسوأ سلوكيات نماذج الذكاء الاصطناعي التوليدية. قد يكون هناك بعض الحقيقة في ذلك (اعتمادًا على النموذج، على الأقل) – والدرجة التي قامت بها فيرا بتكرار نماذجها الخاصة وتحسينها.

وقال أوسوليفان: “إن دورة الضجيج حول الذكاء الاصطناعي اليوم تحجب المخاطر الخطيرة والحاضرة للغاية التي تؤثر على البشر على قيد الحياة اليوم”. “عندما يبالغ الذكاء الاصطناعي في الوعود، نرى أناسًا حقيقيين يتضررون من سلوكيات نموذجية غير متوقعة وضارة وسامّة ومن المحتمل أن تكون إجرامية… الذكاء الاصطناعي أداة قوية، ومثل أي أداة قوية، يجب التحكم فيها بشكل فعال بحيث تفوق فوائدها هذه المخاطر، وهذا هو سبب وجود Vera.” “.

وبغض النظر عن عيوب Vera المحتملة، فإن الشركة لديها منافسة في السوق الناشئة لتقنية تعديل النماذج.

على غرار Vera، تحاول NeMo Guardrails من Nvidia وEinstein Trust Layer من Salesforce منع النماذج المولدة للنص من الاحتفاظ بالبيانات الحساسة أو استرجاعها، مثل طلبات شراء العملاء وأرقام الهواتف. توفر Microsoft خدمة الذكاء الاصطناعي لإدارة محتوى النص والصور، بما في ذلك النماذج. وفي أماكن أخرى، تعمل الشركات الناشئة مثل HiddenLayer وDynamoFL وProtect AI على إنشاء أدوات للدفاع عن نماذج الذكاء الاصطناعي التوليدية ضد الهجمات الهندسية السريعة.

بقدر ما أستطيع أن أقول، فإن القيمة المقترحة لـ Vera هي أنها تعالج مجموعة كاملة من تهديدات الذكاء الاصطناعي التوليدية في وقت واحد – أو تعد بذلك على أقل تقدير. بافتراض أن التكنولوجيا تعمل كما هو معلن عنها، فمن المحتم أن يكون ذلك جذابًا للشركات التي تبحث عن مركز شامل للإشراف على المحتوى، ومتجر لمكافحة هجمات نموذج الذكاء الاصطناعي.

في الواقع، يقول أوسوليفان إن شركة فيرا لديها بالفعل عدد قليل من العملاء. قائمة الانتظار للمزيد تفتح اليوم.

وقال أوسوليفان: “يكافح مديرو التكنولوجيا ومديرو تكنولوجيا المعلومات ومديرو تكنولوجيا المعلومات في جميع أنحاء العالم لتحقيق التوازن المثالي بين الإنتاجية المعززة بالذكاء الاصطناعي والمخاطر التي تمثلها هذه النماذج”. “تفتح Vera قدرات الذكاء الاصطناعي التوليدي من خلال تطبيق السياسات التي يمكن نقلها ليس فقط إلى نماذج اليوم، ولكن إلى النماذج المستقبلية دون تقييد البائع الذي يحدث عندما تختار نموذجًا واحدًا أو نهجًا واحدًا يناسب الجميع للذكاء الاصطناعي التوليدي “.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى