تقنية

يدعو المدافعون عن سلامة الذكاء الاصطناعي المؤسسين إلى التباطؤ


من المؤسف أن عبارة “تحرك بحذر وأشياء الفريق الأحمر” ليست جذابة مثل عبارة “تحرك بسرعة وكسر الأشياء”. لكن ثلاثة من المدافعين عن سلامة الذكاء الاصطناعي أوضحوا لمؤسسي الشركات الناشئة أن المضي بسرعة كبيرة يمكن أن يؤدي إلى مشكلات أخلاقية على المدى الطويل.

قالت سارة مايرز ويست، المدير التنفيذي المشارك لمعهد AI Now، على خشبة المسرح في TechCrunch Disrupt 2024: “نحن عند نقطة انعطاف حيث يتم نقل الكثير من الموارد إلى هذا الفضاء”. “أنا قلقة حقًا من ذلك الآن هناك مثل هذا الاندفاع لطرح المنتج في العالم، دون التفكير في هذا السؤال القديم حول ما هو العالم الذي نريد حقًا أن نعيش فيه، وبأي طرق تعمل التكنولوجيا التي يتم إنتاجها في خدمة هذا العالم أو الإضرار به بشكل فعال.”

تأتي هذه المحادثة في وقت تبدو فيه مسألة سلامة الذكاء الاصطناعي أكثر إلحاحًا من أي وقت مضى. في أكتوبر/تشرين الأول، رفعت عائلة طفل مات منتحرًا دعوى قضائية ضد شركة Chatbot Character.AI لدورها المزعوم في وفاة الطفل.

وقال مايرز ويست: “توضح هذه القصة حقًا المخاطر العميقة للانتشار السريع للغاية الذي شهدناه للتقنيات القائمة على الذكاء الاصطناعي”. “بعض هذه المشاكل طويلة الأمد، وشبه مستعصية على الحل، تتعلق بالإشراف على محتوى إساءة الاستخدام عبر الإنترنت.

ولكن بعيدًا عن قضايا الحياة أو الموت هذه، تظل مخاطر الذكاء الاصطناعي عالية، بدءًا من التضليل إلى انتهاك حقوق الطبع والنشر.

قال جينغنا تشانغ، مؤسس منصة كارا الاجتماعية للفنانين: “نحن نبني شيئًا يتمتع بقدر كبير من القوة والقدرة على التأثير حقًا في حياة الناس”. “عندما تتحدث عن شيء مثل Character.AI، الذي يتفاعل عاطفيًا مع شخص ما، فمن المنطقي أن أعتقد أنه يجب أن تكون هناك حواجز حماية حول كيفية بناء المنتج.”

انطلقت منصة Cara الخاصة بـ Zhang بعد أن أوضحت Meta أنها تستطيع استخدام المنشورات العامة لأي مستخدم لتدريب الذكاء الاصطناعي الخاص بها. وبالنسبة للفنانين مثل تشانغ نفسها، فإن هذه السياسة تعتبر صفعة على الوجه. يحتاج الفنانون إلى نشر أعمالهم عبر الإنترنت لبناء قاعدة عملاء محتملة وتأمينهم، ولكن من خلال القيام بذلك، يمكن استخدام عملهم لتشكيل نماذج الذكاء الاصطناعي ذاتها التي يمكن أن تؤدي إلى توقفهم عن العمل في يوم من الأيام.

قال تشانغ: “حقوق الطبع والنشر هي ما يحمينا ويسمح لنا بكسب لقمة العيش”. إذا كان العمل الفني متاحًا عبر الإنترنت، فهذا لا يعني أنه مجاني في حد ذاته – على سبيل المثال، يتعين على منشورات الأخبار الرقمية ترخيص الصور من المصورين لاستخدامها. “عندما بدأ الذكاء الاصطناعي التوليدي يصبح أكثر انتشارًا، ما نراه هو أنه لا يعمل مع ما اعتدنا عليه عادةً، وهذا ما ينص عليه القانون. وإذا أرادوا استخدام عملنا، فيجب عليهم ترخيصه”.

وألكساندرا بيدراسزيوسكا، سلامة الذكاء الاصطناعي، ElevenLabs؛ وسارة مايرز ويست، المدير التنفيذي لمعهد الذكاء الاصطناعي الآن؛ وجينغنا تشانغ، المؤسس والرئيس التنفيذي لشركة Cara في TechCrunch Disrupt 2024 يوم الأربعاء 30 أكتوبر 2024.اعتمادات الصورة:تصوير كاتلين تاكر / سلافا بليزر

يمكن أن يتأثر الفنانون أيضًا بمنتجات مثل ElevenLabs، وهي شركة استنساخ صوت تعمل بالذكاء الاصطناعي تبلغ قيمتها أكثر من مليار دولار. بصفتها رئيسة قسم السلامة في ElevenLabs، يقع على عاتق Aleksandra Pedraszewska التأكد من عدم اختيار التكنولوجيا المتطورة للشركة في عمليات التزييف العميق غير الرضائية، من بين أمور أخرى.

“أعتقد أن نماذج الفريق الأحمر، وفهم السلوكيات غير المرغوب فيها، والعواقب غير المقصودة لأي إطلاق جديد تقوم به شركة ذكاء اصطناعي مولدة، أصبحت مرة أخرى [a top priority]قالت. “يمتلك ElevenLabs 33 مليون مستخدم اليوم. هذا مجتمع ضخم يتأثر بأي تغيير نجريه في منتجنا.”

قالت بيدراسزيوسكا إن إحدى الطرق التي يمكن للأشخاص في دورها أن يكونوا أكثر استباقية بشأن الحفاظ على أمان المنصات هي إقامة علاقة أوثق مع مجتمع المستخدمين.

“لا يمكننا أن نعمل فقط بين طرفين متطرفين، أحدهما مناهض تمامًا للذكاء الاصطناعي ومناهض لـGenAI، والآخر، يحاول بشكل فعال إقناع التنظيم الصفري للفضاء. وقالت: أعتقد أننا بحاجة إلى الاجتماع في المنتصف عندما يتعلق الأمر بالتنظيم.

لدى TechCrunch رسالة إخبارية تركز على الذكاء الاصطناعي! قم بالتسجيل هنا للحصول عليه في بريدك الوارد كل يوم أربعاء.


اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading