تقنية

تتخذ الأنثروبيك خطوات لمنع المعلومات الخاطئة عن الانتخابات


قبل الانتخابات الرئاسية الأمريكية في عام 2024، تختبر شركة Anthropic، وهي شركة ناشئة تعمل في مجال الذكاء الاصطناعي وممولة بشكل جيد، تقنية للكشف عن الوقت الذي يسأل فيه مستخدمو برنامج الدردشة GenAI الخاص بها عن موضوعات سياسية وإعادة توجيه هؤلاء المستخدمين إلى مصادر “موثوقة” لمعلومات التصويت.

تُظهر هذه التقنية التي تسمى Prompt Shield، والتي تعتمد على مجموعة من نماذج وقواعد اكتشاف الذكاء الاصطناعي، نافذة منبثقة إذا طلب مستخدم Claude، وهو برنامج الدردشة الآلي التابع لشركة Anthropic، معلومات التصويت. تعرض النافذة المنبثقة إعادة توجيه المستخدم إلى TurboVote، وهو مورد من منظمة Democracy Works غير الحزبية، حيث يمكنهم العثور على معلومات تصويت محدثة ودقيقة.

أنثروبيك يقول ذلك الدرع الفوري كان ضروريًا بسبب عيوب كلود في مجال السياسة والمعلومات المتعلقة بالانتخابات. لم يتم تدريب كلود بشكل متكرر بما يكفي لتقديم معلومات في الوقت الفعلي حول انتخابات معينة، كما تعترف الأنثروبيك، وبالتالي فهو عرضة للهلوسة – أي اختراع الحقائق – حول تلك الانتخابات.

قال متحدث باسم TechCrunch عبر البريد الإلكتروني: “لقد وضعنا “درعًا سريعًا” منذ أن أطلقنا Claude – فهو يشير إلى عدد من أنواع الأضرار المختلفة، بناءً على سياسة المستخدم المقبولة لدينا”. “سنطلق تدخلنا السريع الخاص بالانتخابات في الأسابيع المقبلة ونعتزم مراقبة الاستخدام والقيود … لقد تحدثنا إلى مجموعة متنوعة من أصحاب المصلحة بما في ذلك صناع السياسات والشركات الأخرى والمجتمع المدني والوكالات غير الحكومية والهيئات المعنية بالانتخابات. استشاريين [in developing this]”.

يبدو أنه اختبار محدود في الوقت الحالي. لم يقدم كلود النافذة المنبثقة عندما سألته عن كيفية التصويت في الانتخابات المقبلة، وبدلاً من ذلك قام بإخراج دليل تصويت عام. تدعي Anthropic أنها تقوم بضبط Prompt Shield بينما تستعد لتوسيعه ليشمل المزيد من المستخدمين.

تعد Anthropic، التي تحظر استخدام أدواتها في الحملات السياسية وممارسة الضغط، أحدث بائع GenAI لتنفيذ السياسات والتقنيات لمحاولة منع التدخل في الانتخابات.

التوقيت ليس من قبيل الصدفة. هذا العام، على مستوى العالم، سيتوجه عدد أكبر من الناخبين إلى صناديق الاقتراع أكثر من أي وقت مضى في التاريخ، حيث من المقرر أن تجري انتخابات وطنية في 64 دولة على الأقل تمثل مجتمعة حوالي 49٪ من سكان العالم.

في شهر يناير، قالت شركة OpenAI إنها ستمنع الناس من استخدام ChatGPT، برنامج الدردشة الآلي الفيروسي الذي يعمل بالذكاء الاصطناعي، لإنشاء روبوتات تنتحل شخصية مرشحين حقيقيين أو حكومات، أو تحريف كيفية عمل التصويت أو تثبيط الناس عن التصويت. مثل Anthropic، لا تسمح OpenAI حاليًا للمستخدمين بإنشاء تطبيقات باستخدام أدواتها لأغراض الحملات السياسية أو الضغط – وهي سياسة كررتها الشركة الشهر الماضي.

في نهج تقني مشابه لـ Prompt Shield، تستخدم OpenAI أيضًا أنظمة الكشف لتوجيه مستخدمي ChatGPT الذين يطرحون أسئلة لوجستية حول التصويت لموقع ويب غير حزبي، CanIVote.org، الذي تديره الرابطة الوطنية لوزراء الخارجية.

وفي الولايات المتحدة، لم يصدر الكونجرس بعد تشريعًا يسعى إلى تنظيم دور صناعة الذكاء الاصطناعي في السياسة على الرغم من بعض الدعم من الحزبين الجمهوري والديمقراطي. وفي الوقت نفسه، أقرت أكثر من ثلث الولايات الأمريكية أو قدمت مشاريع قوانين لمعالجة التزييف العميق في الحملات السياسية مع تعثر التشريعات الفيدرالية.

وبدلاً من التشريع، تتخذ بعض المنصات – تحت ضغط من الهيئات الرقابية والمنظمين – خطوات لمنع إساءة استخدام GenAI لتضليل الناخبين أو التلاعب بهم.

وقالت جوجل في سبتمبر الماضي إنها ستشترط أن تكون الإعلانات السياسية التي تستخدم GenAI على يوتيوب ومنصاتها الأخرى، مثل بحث جوجل، مصحوبة بإفصاح بارز إذا تم تغيير الصور أو الأصوات بشكل صناعي. منعت ميتا أيضًا الحملات السياسية من استخدام أدوات GenAI – بما في ذلك أدواتها الخاصة – في الإعلان عبر خصائصها.


اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading