تقنية

المملكة المتحدة تفتتح مكتبًا في سان فرانسيسكو لمعالجة مخاطر الذكاء الاصطناعي


قبل انطلاق قمة سلامة الذكاء الاصطناعي في سيول بكوريا الجنوبية في وقت لاحق من هذا الأسبوع، تعمل المملكة المتحدة، التي تشارك في استضافة القمة، على توسيع جهودها في هذا المجال. قال معهد سلامة الذكاء الاصطناعي – وهو هيئة بريطانية تم إنشاؤها في نوفمبر 2023 بهدف طموح يتمثل في تقييم ومعالجة المخاطر في منصات الذكاء الاصطناعي – إنه سيفتتح موقعًا ثانيًا … في سان فرانسيسكو.

تتمثل الفكرة في الاقتراب مما يعتبر حاليًا مركز تطوير الذكاء الاصطناعي، حيث تعد منطقة الخليج موطن OpenAI وAnthropic وGoogle وMeta، من بين آخرين يقومون ببناء تكنولوجيا الذكاء الاصطناعي التأسيسية.

النماذج التأسيسية هي اللبنات الأساسية لخدمات الذكاء الاصطناعي التوليدية وغيرها من التطبيقات، ومن المثير للاهتمام أنه على الرغم من أن المملكة المتحدة قد وقعت مذكرة تفاهم مع الولايات المتحدة للتعاون بين البلدين في مبادرات سلامة الذكاء الاصطناعي، إلا أن المملكة المتحدة لا تزال تختار الاستثمار في بناء وجود لنفسها في الولايات المتحدة لمعالجة هذه القضية.

وقالت ميشيل دونيلان، وزيرة الدولة البريطانية للعلوم والابتكار والتكنولوجيا، في مقابلة مع موقع TechCrunch: “من خلال وجود أشخاص على الأرض في سان فرانسيسكو، سيتيح لهم ذلك الوصول إلى المقر الرئيسي للعديد من شركات الذكاء الاصطناعي هذه”. “لدى عدد منهم قواعد هنا في المملكة المتحدة، ولكننا نعتقد أنه سيكون من المفيد جدًا أن يكون لدينا قاعدة هناك أيضًا، والوصول إلى مجموعة إضافية من المواهب، وأن نكون قادرين على العمل بشكل أكثر تعاونًا ويدًا بيد. مع الولايات المتحدة.”

جزء من السبب هو أنه بالنسبة للمملكة المتحدة، فإن القرب من هذا المركز مفيد ليس فقط لفهم ما يتم بناؤه، ولكن لأنه يمنح المملكة المتحدة رؤية أكبر مع هذه الشركات – وهو أمر مهم، بالنظر إلى أن الذكاء الاصطناعي والتكنولوجيا بشكل عام ينظر إليهما من قبل الشركات. المملكة المتحدة فرصة كبيرة للنمو الاقتصادي والاستثمار.

ولكن بالنظر إلى أحدث الدراما في OpenAI حول فريق Superalignment الخاص بها، يبدو أنها لحظة مناسبة بشكل خاص لتأسيس وجود هناك.

يعد معهد سلامة الذكاء الاصطناعي، الذي تم إطلاقه في نوفمبر 2023، مؤسسة متواضعة نسبيًا حاليًا. تضم المنظمة اليوم 32 شخصًا فقط يعملون فيها، وهو ما يمثل ديفيد حقيقيًا لجالوت الذكاء الاصطناعي، عندما تفكر في مليارات الدولارات من الاستثمارات التي تعتمد على الشركات التي تبني نماذج الذكاء الاصطناعي، وبالتالي دوافعها الاقتصادية الخاصة لإخراج تقنياتها. الباب وفي أيدي المستخدمين الذين يدفعون.

كان أحد أبرز التطورات التي حققها معهد سلامة الذكاء الاصطناعي هو إطلاق Inspect، في وقت سابق من هذا الشهر، وهي أول مجموعة من الأدوات لاختبار سلامة نماذج الذكاء الاصطناعي الأساسية.

أشار دونيلان اليوم إلى هذا الإصدار على أنه جهد “المرحلة الأولى”: لم يثبت أنه يمثل تحديًا حتى الآن بالنسبة للنماذج القياسية فحسب، بل إن المشاركة في الوقت الحالي هي إلى حد كبير ترتيب اختياري وغير متسق. وكما أشار أحد المصادر في إحدى الهيئات التنظيمية في المملكة المتحدة، فإن الشركات ليست ملزمة قانوناً بفحص نماذجها في هذه المرحلة؛ ليست كل شركة على استعداد لفحص نماذجها قبل الإصدار. وهذا يعني أنه في الحالات التي قد يتم فيها تحديد المخاطر، قد يكون الحصان قد انسحب بالفعل.

وقال دونيلان إن معهد سلامة الذكاء الاصطناعي لا يزال يطور أفضل السبل للتعامل مع شركات الذكاء الاصطناعي لتقييمها. وقالت: “إن عملية التقييم لدينا هي علم ناشئ في حد ذاته”. “وبالتالي، مع كل تقييم، سنقوم بتطوير العملية وتحسينها بشكل أكبر.”

وقال دونيلان إن أحد الأهداف في سيول سيكون تقديم Inspect إلى المنظمين المجتمعين في القمة.

“الآن لدينا نظام التقييم. وقالت: “المرحلة الثانية يجب أن تتعلق أيضًا بجعل الذكاء الاصطناعي آمنًا في المجتمع بأكمله”.

على المدى الطويل، يعتقد دونيلان أن المملكة المتحدة ستضع المزيد من تشريعات الذكاء الاصطناعي، على الرغم من تكرار ما قاله رئيس الوزراء ريشي سوناك حول هذا الموضوع، فإنها ستقاوم القيام بذلك حتى تفهم نطاق مخاطر الذكاء الاصطناعي بشكل أفضل.

وقالت: “نحن لا نؤمن بالتشريع قبل أن يكون لدينا فهم صحيح وفهم كامل”، مشيرة إلى أن التقرير الدولي الأخير لسلامة الذكاء الاصطناعي، الذي نشره المعهد وركز في المقام الأول على محاولة الحصول على صورة شاملة للأبحاث حتى الآن، “سلط الضوء على وأن هناك فجوات كبيرة مفقودة وأننا بحاجة إلى تحفيز وتشجيع المزيد من الأبحاث على مستوى العالم.

“وكذلك التشريع يستغرق حوالي عام في المملكة المتحدة. وإذا كنا قد بدأنا للتو التشريع عندما بدأنا بدلاً من ذلك [organizing] قمة سلامة الذكاء الاصطناعي [held in November last year]ما زلنا نقوم بالتشريع الآن، ولن يكون لدينا في الواقع أي شيء لإظهار ذلك”.

وقال إيان هوغارث، رئيس معهد الذكاء الاصطناعي: “منذ اليوم الأول للمعهد، كنا واضحين بشأن أهمية اتباع نهج دولي لسلامة الذكاء الاصطناعي، ومشاركة الأبحاث، والعمل بشكل تعاوني مع الدول الأخرى لاختبار النماذج وتوقع مخاطر الذكاء الاصطناعي الحدودي”. معهد سلامة الذكاء الاصطناعي. “يمثل اليوم لحظة محورية تسمح لنا بتعزيز هذه الأجندة، ونحن فخورون بتوسيع نطاق عملياتنا في منطقة مليئة بالمواهب التقنية، مما يضيف إلى الخبرة المذهلة التي جلبها موظفونا في لندن منذ البداية.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى