تقنية

يشكل Google DeepMind مؤسسة جديدة تركز على سلامة الذكاء الاصطناعي


إذا طلبت من جيميني، نموذج GenAI الرائد في جوجل، أن يكتب محتوى مخادعًا حول الانتخابات الرئاسية الأمريكية المقبلة، فسوف يفعل ذلك، إذا تلقيت التوجيه المناسب. اسأل عن لعبة Super Bowl المستقبلية وسوف تخترع طريقة لعب تلو الأخرى. أو اسأل عن الانفجار الداخلي لغواصة تيتان وسيقدم معلومات مضللة، مكتملة باستشهادات مقنعة ولكنها غير صحيحة.

لا داعي لقول إنها نظرة سيئة لجوجل – وتثير حفيظة صناع السياسات، الذين أعربوا عن استيائهم من السهولة التي يمكن بها تسخير أدوات GenAI للتضليل والتضليل بشكل عام.

لذا، ردًا على ذلك، تعمل شركة جوجل – التي خفّت آلاف الوظائف عما كانت عليه في الربع المالي الماضي – على توجيه الاستثمارات نحو سلامة الذكاء الاصطناعي. على الأقل، هذه هي القصة الرسمية.

هذا الصباح، أعلن Google DeepMind، قسم البحث والتطوير في مجال الذكاء الاصطناعي وراء Gemini والعديد من مشاريع GenAI الأحدث من Google، عن تشكيل منظمة جديدة، AI Safety and Alignment – تتكون من فرق حالية تعمل على سلامة الذكاء الاصطناعي ولكنها توسعت أيضًا لتشمل فرقًا جديدة، مجموعات متخصصة من الباحثين والمهندسين GenAI.

وبعيدًا عن قوائم الوظائف الموجودة على موقع DeepMind، لم تذكر Google عدد الموظفين الذين سينتجون عن تشكيل المنظمة الجديدة. لكنها كشفت أن AI Safety and Alignment ستشمل فريقًا جديدًا يركز على السلامة حول الذكاء العام الاصطناعي (AGI)، أو الأنظمة الافتراضية التي يمكنها أداء أي مهمة يستطيع الإنسان القيام بها.

على غرار مهمة فريق OpenAI المنافس لقسم Superalignment والذي تم تشكيله في يوليو الماضي، سيعمل الفريق الجديد ضمن AI Safety and Alignment جنبًا إلى جنب مع فريق البحث الحالي الذي يركز على سلامة الذكاء الاصطناعي التابع لشركة DeepMind في لندن، Scalable Alignment – والذي يستكشف أيضًا حلولاً للتحدي التقني المتمثل في التحكم الذكاء الاصطناعي الفائق الذي لم يتم تحقيقه بعد.

لماذا تعمل مجموعتان على نفس المشكلة؟ سؤال صحيح – ويدعو إلى التكهنات نظرًا لإحجام Google عن الكشف عن الكثير من التفاصيل في هذه المرحلة. ولكن يبدو من الجدير بالملاحظة أن الفريق الجديد – الفريق الموجود ضمن AI Safety and Alignment – يقع في الولايات المتحدة وليس عبر البركة، وهو قريب من المقر الرئيسي لشركة Google في وقت تتحرك فيه الشركة بقوة لمواكبة منافسي الذكاء الاصطناعي أثناء محاولتها إبراز شخصية مسؤولة. ، النهج المقاس للذكاء الاصطناعي.

تتولى الفرق الأخرى التابعة لمنظمة AI Safety and Alignment مسؤولية تطوير ودمج ضمانات ملموسة في نماذج Gemini من Google، الحالية وقيد التطوير. السلامة هي نطاق واسع. ولكن بعض تركيزات المنظمة على المدى القريب سوف تركز على منع النصائح الطبية السيئة، وضمان سلامة الأطفال، و”منع تضخيم التحيز وغيره من أشكال الظلم”.

ستقود الفريق أنكا دراجان، وهي عالمة أبحاث سابقة في فريق Waymo وأستاذة علوم الكمبيوتر في جامعة كاليفورنيا في بيركلي.

“عملنا [at the AI Safety and Alignment organization] “يهدف إلى تمكين النماذج من فهم التفضيلات والقيم البشرية بشكل أفضل وأكثر قوة،” قال دراجان لـ TechCrunch عبر البريد الإلكتروني، “لمعرفة ما لا يعرفونه، والعمل مع الأشخاص لفهم احتياجاتهم والحصول على رقابة مستنيرة، ليكونوا أكثر قوة ضد الهجمات العدائية ومراعاة التعددية والطبيعة الديناميكية للقيم ووجهات النظر الإنسانية.

قد يثير العمل الاستشاري الذي أجراه Dragan مع Waymo بشأن أنظمة السلامة بالذكاء الاصطناعي الدهشة، مع الأخذ في الاعتبار سجل القيادة الصخري لمشروع السيارات ذاتية القيادة من Google في الآونة الأخيرة.

وكذلك الأمر بالنسبة لقرارها بتقسيم الوقت بين DeepMind وجامعة كاليفورنيا في بيركلي، حيث ترأس مختبرًا يركز على خوارزميات التفاعل بين الإنسان والذكاء الاصطناعي والروبوتات. قد يفترض المرء أن قضايا خطيرة مثل سلامة الذكاء الاصطناعي العام – والمخاطر طويلة المدى التي تنوي منظمة سلامة الذكاء الاصطناعي والمواءمة دراستها، بما في ذلك منع الذكاء الاصطناعي في “مساعدة الإرهاب” و”زعزعة استقرار المجتمع” – تتطلب اهتمام المدير بدوام كامل.

ومع ذلك، تصر دراغان على أن أبحاث مختبرها في جامعة كاليفورنيا في بيركلي وأبحاث ديب مايند مترابطتان ومتكاملتان.

“لقد عملت أنا ومختبري على… محاذاة القيمة تحسبًا لتطوير قدرات الذكاء الاصطناعي، [and] الدكتوراه الخاصة بي. وقالت: “كان الأمر يتعلق بالروبوتات التي تستنتج الأهداف البشرية وتتسم بالشفافية فيما يتعلق بأهدافها الخاصة للبشر، ومن هنا بدأ اهتمامي بهذا المجال”. “أعتقد أن السبب [DeepMind CEO] ديميس هاسابيس و [chief AGI scientist] كان شين ليغ متحمسًا لإحضاري جزئيًا بسبب هذه الخبرة البحثية وجزئيًا موقفي من أن معالجة المخاوف الحالية والمخاطر الكارثية لا يستبعد بعضها بعضًا – حيث أنه على الجانب الفني غالبًا ما تكون عمليات التخفيف غير واضحة معًا، ويساهم العمل في المدى الطويل يحسن يومنا هذا، والعكس صحيح.

إن القول بأن دراغان قد قطعت عملها بالنسبة لها هو قول بخس.

بلغت الشكوك حول أدوات GenAI أعلى مستوياتها على الإطلاق – لا سيما عندما يتعلق الأمر بالتزييف العميق والمعلومات المضللة. في تصويت من YouGov، قال 85% من الأمريكيين إنهم قلقون للغاية أو قلقون إلى حد ما بشأن انتشار مقاطع الفيديو والصوت المضللة. منفصل استطلاع وجد تقرير من وكالة Associated Press-NORC لأبحاث الشؤون العامة أن ما يقرب من 60% من البالغين يعتقدون أن أدوات الذكاء الاصطناعي ستزيد من حجم المعلومات الكاذبة والمضللة خلال الدورة الانتخابية الأمريكية لعام 2024.

الشركات أيضًا – السمكة الكبيرة التي تأمل شركة جوجل ومنافسوها في جذبها بابتكارات GenAI – تشعر بالقلق من أوجه القصور في التكنولوجيا وتداعياتها.

أجرت شركة Cnvrg.io التابعة لشركة Intel مؤخرًا دراسة استقصائية للشركات التي تعمل على تجربة أو نشر تطبيقات GenAI. ووجدت أن حوالي ربع المشاركين لديهم تحفظات بشأن امتثال GenAI والخصوصية والموثوقية والتكلفة العالية للتنفيذ ونقص المهارات التقنية اللازمة لاستخدام الأدوات على أكمل وجه.

وفي استطلاع منفصل أجرته شركة Riskonnect، وهي شركة تقدم برامج إدارة المخاطر، قال أكثر من نصف المديرين التنفيذيين إنهم يشعرون بالقلق بشأن اتخاذ الموظفين قرارات بناءً على معلومات غير دقيقة من تطبيقات GenAI.

إنهم ليسوا غير مبررين في هذه المخاوف. في الأسبوع الماضي، ذكرت صحيفة وول ستريت جورنال أن مجموعة Copilot من Microsoft، المدعومة بنماذج GenAI المشابهة هندسيًا لـ Gemini، غالبًا ما ترتكب أخطاء في تلبية الملخصات وصيغ جداول البيانات. يقع اللوم على الهلوسة – وهو المصطلح الشامل لميول GenAI التلفيقية – ويعتقد العديد من الخبراء أنه لا يمكن حلها بالكامل أبدًا.

وإدراكًا لصعوبة تحدي سلامة الذكاء الاصطناعي، لا يقدم دراغان أي وعد بنموذج مثالي – مكتفيًا بالقول أن DeepMind تعتزم استثمار المزيد من الموارد في هذا المجال للمضي قدمًا والالتزام بإطار عمل لتقييم مخاطر سلامة نموذج GenAI “قريبًا”.

“أعتقد أن المفتاح هو … [account] بالنسبة للتحيزات المعرفية البشرية المتبقية في البيانات التي نستخدمها للتدريب، تقديرات جيدة لعدم اليقين لمعرفة أين توجد الفجوات، وإضافة مراقبة وقت الاستدلال التي يمكن أن تكتشف حالات الفشل وحوارات التأكيد للقرارات اللاحقة وتتبع أين [a] وأضافت: “تتمثل قدرات النموذج في الانخراط في سلوك يحتمل أن يكون خطيرًا”. “لكن هذا لا يزال يترك مشكلة مفتوحة تتمثل في كيفية التأكد من أن النموذج لن يسيء التصرف في جزء صغير من الوقت الذي يصعب العثور عليه تجريبيًا، ولكنه قد يظهر في وقت النشر”.

لست مقتنعًا بأن العملاء والجمهور والمنظمين سيتفهمون ذلك. أعتقد أن الأمر سيعتمد على مدى فظاعة تلك السلوكيات السيئة، وعلى من يتضرر منها على وجه التحديد.

وقال دراغان: “نأمل أن يختبر مستخدمونا نموذجًا أكثر فائدة وآمنًا بمرور الوقت”. بالفعل.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى