الخبراء لا يعتقدون أن الذكاء الاصطناع

في الشهر الماضي ، أعلنت Google عن “عازف الذكاء الاصطناعي” ، وهو منظمة العفو الدولية التي قالت الشركة إنها مصممة لمساعدة العلماء في إنشاء فرضيات وخطط بحثية. وضعت Google ذلك كوسيلة للكشف عن المعرفة الجديدة ، لكن الخبراء يعتقدون أنه – وأدوات مثلها – لا تقل عن وعود العلاقات العامة.
وقالت سارة بيري ، باحثة رؤية الكمبيوتر في معهد ماساتشوستس للتكنولوجيا ، لـ TechCrunch: “هذه الأداة الأولية ، رغم أنها مثيرة للاهتمام ، لا يبدو أنها تستخدم بشكل خطير”. “لست متأكدًا من أن هناك طلبًا على هذا النوع من نظام توليد الفرضية من المجتمع العلمي.”
Google هي أحدث عملاق تقني لدفع فكرة أن الذكاء الاصطناعى ستعمل بشكل كبير على تسريع الأبحاث العلمية يومًا ما ، وخاصة في مجالات الأدب مثل الطب الحيوي. في مقال في وقت سابق من هذا العام ، قال الرئيس التنفيذي لشركة Openai Sam Altman أن أدوات “SuperIntyligent” AI يمكن أن “تسريع بشكل كبير الاكتشاف العلمي والابتكار”. وبالمثل ، تنبأ الرئيس التنفيذي للأنثروبور داريو أمودي بجرأة بأن الذكاء الاصطناعى يمكن أن يساعد في صياغة علاجات لمعظم أنواع السرطان.
لكن العديد من الباحثين لا يعتبرون منظمة العفو الدولية اليوم مفيدة بشكل خاص في توجيه العملية العلمية. ويبدو أن تطبيقات مثل خبراء الذكاء الاصطناعي من Google يبدو أكثر ضجيجًا من أي شيء آخر ، كما يقولون ، غير مدعوم من البيانات التجريبية.
على سبيل المثال ، في مدونتها التي تصف عازف الذكاء الاصطناعى ، قالت Google إن الأداة قد أظهرت بالفعل إمكانات في مجالات مثل إعادة تشكيل المخدرات لسرطان الدم النخاعي الحاد ، وهو نوع من سرطان الدم الذي يؤثر على نخاع العظام. ومع ذلك ، فإن النتائج غامضة لدرجة أنه “لن يأخذ أي عالم شرعي [them] على محمل الجد “، قالت فافيا دوبيك ، أخصائية علم الأمراض تابعة لمركز شمال غرب الطبي في أريزونا.
“يمكن استخدام هذا كنقطة انطلاق جيدة للباحثين ، ولكن […] وقال دوبيك لـ TechCrunch: “إن الافتقار إلى التفاصيل مقلقة ولا يضفيني على الوثوق به”. “إن الافتقار إلى المعلومات المقدمة يجعل من الصعب حقًا فهم ما إذا كان هذا يمكن أن يكون مفيدًا حقًا.”
ليست هذه هي المرة الأولى التي يتم فيها انتقاد جوجل من قبل المجتمع العلمي لتبديل اختراق الذكاء الاصطناعي المفترض دون توفير وسيلة لإعادة إنتاج النتائج.
في عام 2020 ، ادعت Google أن أحد أنظمة AI المدربة على اكتشاف أورام الثدي حقق نتائج أفضل من علماء الأشعة البشرية. نشر باحثون من هارفارد وستانفورد دحضًا في المجلة طبيعة، قول عدم وجود طرق ورمز مفصل في أبحاث Google “تقوض[d] قيمتها العلمية. “
قام العلماء أيضًا بتقلب Google لتلقي القيود المفروضة على أدوات AI التي تهدف إلى التخصصات العلمية مثل هندسة المواد. في عام 2023 ، قالت الشركة إن حوالي 40 “مواد جديدة” تم تصنيعها بمساعدة أحد أنظمة الذكاء الاصطناعى لها ، والتي تسمى جنوم. ومع ذلك ، لم يجد التحليل الخارجي أحد المواد الواحدة ، في الواقع ، على صافي جديد.
“لن نفهم حقًا نقاط القوة والقيود المفروضة على أدوات مثل” المعلم المشارك “من Google إلى أن يخضعوا لتقييم صارم ومستقل عبر التخصصات العلمية المتنوعة”. “غالبًا ما يؤدي الذكاء الاصطناعى جيدًا في البيئات التي يتم التحكم فيها ولكن قد تفشل عند تطبيقها على نطاق واسع.”
العمليات المعقدة
جزء من التحدي في تطوير أدوات الذكاء الاصطناعى للمساعدة في الاكتشاف العلمي هو توقع عدد لا يحصى من العوامل المربكة. قد تأتي الذكاء الاصطناعى في متناول يدي في المناطق التي يلزم استكشافها الواسع ، مثل تضييق قائمة واسعة من الاحتمالات. لكن من الواضح ما إذا كان الذكاء الاصطناعى قادرًا على حل المشكلات خارج الصندوق والذي يؤدي إلى اختراقات علمية.
وقال خودابوخش: “لقد رأينا طوال التاريخ أن بعضًا من أهم التطورات العلمية ، مثل تطور لقاحات الرنا المرسال ، مدفوعًا بالحدس البشري والمثابرة في مواجهة الشك”. “منظمة العفو الدولية ، كما هي اليوم ، قد لا تكون مناسبة تمامًا لتكرار ذلك.”
تعتقد Lana Sinapayen ، باحثة منظمة العفو الدولية في مختبرات علوم الكمبيوتر في اليابان ، أن الأدوات مثل خبراء الذكاء الاصطناعى في Google تركز على النوع الخاطئ من العمل العلمي.
يرى Sinapayen قيمة حقيقية في الذكاء الاصطناعى يمكن أن تتم أتمتة المهام الصعبة أو الشاقة تقنيًا ، مثل تلخيص الأدب الأكاديمي الجديد أو التنسيق لأعمال التنسيق لتناسب متطلبات طلب المنحة. ولكن لا يوجد الكثير من الطلب داخل المجتمع العلمي بالنسبة لعلماء الذكاء الاصطناعي الذي يولد الفرضيات ، كما تقول-وهي مهمة يستمد منها العديد من الباحثين الوفاء الفكري.
وقال سيناباين لـ TechCrunch: “بالنسبة للعديد من العلماء ، بمن فيهم أنا ، فإن توليد الفرضيات هو الجزء الأكثر متعة في الوظيفة”. “لماذا أرغب في الاستعانة بمصادر خارجية لمرحتي لجهاز كمبيوتر ، ثم أترك العمل الشاق فقط لأقوم بنفسي؟ بشكل عام ، يبدو أن العديد من الباحثين من الذكاء الاصطناعي يسيئون فهم سبب قيام البشر بما يفعلونه ، وينتهي بنا المطاف بمقترحات للمنتجات التي تتم أتمتة الجزء نفسه الذي نحصل عليه. “
أشار بيري إلى أنه في كثير من الأحيان أصعب خطوة في العملية العلمية هي تصميم وتنفيذ الدراسات والتحليلات للتحقق من الفرضية أو دحضها – والتي ليست بالضرورة في متناول أنظمة الذكاء الاصطناعى الحالية. لا يمكن لـ AI استخدام الأدوات المادية لإجراء التجارب ، بالطبع ، وغالبًا ما يكون أداءً أسوأ في المشكلات التي توجد بها بيانات محدودة للغاية.
وقال بيري: “معظم العلم لا يمكن القيام به تمامًا تقريبًا – في كثير من الأحيان هناك عنصر مهم في العملية العلمية جسدية ، مثل جمع البيانات الجديدة وإجراء تجارب في المختبر”. ”قيود كبيرة على الأنظمة [like Google’s AI co-scientist] بالنسبة للعملية العلمية الفعلية ، التي تحد بالتأكيد من قابليتها للاستخدام ، هي سياق عن المختبر والباحث باستخدام النظام وأهدافها البحثية المحددة ، وعملهم السابق ، ومهاراتهم ، والموارد التي يمكنهم الوصول إليها. “
مخاطر الذكاء الاصطناعي
كما أن أوجه القصور والمخاطر الفنية لـ AI – مثل ميلها إلى الهلوسة – تجعل العلماء حذرين من تأييده للعمل الجاد.
يخشى Khudabukhsh أدوات الذكاء الاصطناعي ببساطة توليد الضوضاء في الأدب العلمي ، وليس رفع التقدم.
إنها بالفعل مشكلة. وجدت دراسة حديثة أن “العلم غير المرغوب فيه” الذي تم تصنيعه من الذكاء الاصطناعى يغمر الباحث العلمي من Google ، محرك البحث المجاني من Google للأدب العلمي.
“إن الأبحاث التي تم إنشاؤها بواسطة الذكاء الاصطناعى ، إن لم يتم مراقبتها بعناية ، يمكن أن تغمر المجال العلمي من خلال الدراسات ذات الجودة المنخفضة أو حتى المضللة ، حيث غمرت عملية مراجعة النظراء” ، قال خودابوخ. “تمثل عملية مراجعة النظراء الغارقة بالفعل تحديًا في مجالات مثل علوم الكمبيوتر ، حيث شهدت أفضل المؤتمرات ارتفاعًا كبيرًا في التقديمات”.
وقال سيناباين إن الدراسات التي تم تصميمها جيدًا قد تنتهي ملوثة بسوء تصرف الذكاء الاصطناعي. على الرغم من أنها تحب فكرة الأداة التي يمكن أن تساعد في مراجعة الأدب وتوليفها ، قالت سيناباين إنها لن تثق في منظمة العفو الدولية اليوم لتنفيذ هذا العمل بشكل موثوق.
وقالت سينابايين: “هذه أشياء تدعي أن العديد من الأدوات الحالية ، لكن تلك ليست وظائف سأتركها شخصياً إلى الذكاء الاصطناعي الحالي” ، مضيفة أنها تتعرض للمشاركة في الطريقة التي يتم بها تدريب العديد من أنظمة الذكاء الاصطناعي ومقدار الطاقة التي تستهلكها أيضًا. “حتى لو كانت جميع القضايا الأخلاقية […] تم حلها ، الذكاء الاصطناعى الحالي ليس موثوقًا بما يكفي بالنسبة لي لإعداد عملي على ناتجهم بطريقة أو بأخرى. “