تقنية

يحذر خبراء الخصوصية من أن الذكاء الاصطناعي لمسح المكالمات من Google قد يؤدي إلى فرض الرقابة بشكل افتراضي


إن الميزة التي عرضتها Google في مؤتمر I/O بالأمس، باستخدام تقنية الذكاء الاصطناعي التوليدية الخاصة بها لفحص المكالمات الصوتية في الوقت الفعلي بحثًا عن أنماط المحادثة المرتبطة بعمليات الاحتيال المالية، قد أرسلت رجفة جماعية إلى أسفل العمود الفقري لخبراء الخصوصية والأمن الذين يحذرون من الميزة تمثل النهاية الرفيعة للإسفين. ويحذرون من أنه بمجرد إدخال المسح من جانب العميل في البنية التحتية للهاتف المحمول، فقد يؤدي ذلك إلى عصر الرقابة المركزية.

إن العرض التوضيحي الذي تقدمه Google لميزة الكشف عن الاحتيال في المكالمات، والتي قالت شركة التكنولوجيا العملاقة إنها ستدمج في الإصدار المستقبلي من نظام التشغيل Android الخاص بها – والذي من المتوقع أن يعمل على حوالي ثلاثة أرباع الهواتف الذكية في العالم – مدعوم بواسطة Gemini Nano، أصغر برمجياتها. الجيل الحالي من نماذج الذكاء الاصطناعي يهدف إلى العمل بالكامل على الجهاز.

يعد هذا في الأساس فحصًا من جانب العميل: وهي تقنية ناشئة أثارت جدلاً كبيرًا في السنوات الأخيرة فيما يتعلق بالجهود المبذولة لاكتشاف مواد الاعتداء الجنسي على الأطفال (CSAM) أو حتى نشاط الاستمالة على منصات المراسلة.

تخلت شركة Apple عن خطة لنشر المسح من جانب العميل لـ CSAM في عام 2021 بعد رد فعل عنيف كبير فيما يتعلق بالخصوصية. ومع ذلك، واصل صناع السياسات الضغط على صناعة التكنولوجيا لإيجاد طرق للكشف عن الأنشطة غير القانونية التي تحدث على منصاتهم. وبالتالي فإن أي صناعة تتحرك لإنشاء بنية تحتية للمسح الضوئي على الجهاز يمكن أن تمهد الطريق لجميع أنواع فحص المحتوى افتراضيًا – سواء كانت بقيادة الحكومة، أو مرتبطة بأجندة تجارية معينة.

الرد على العرض التوضيحي لمسح مكالمات Google في ملف مشاركة على Xوحذرت ميريديث ويتاكر، رئيسة تطبيق المراسلة المشفرة Signal ومقره الولايات المتحدة، من أن هذا أمر خطير للغاية. فهو يمهد الطريق للمسح المركزي من جانب العميل على مستوى الجهاز.

“من اكتشاف “عمليات الاحتيال” فهي خطوة قصيرة إلى “اكتشاف الأنماط المرتبطة عادةً ببرامج الاحتيال”.[ith] البحث عن رعاية إنجابية” أو “مرتبطة عادة ب[ith] توفير موارد LGBTQ” أو “المرتبطة عادةً بالإبلاغ عن مخالفات العاملين في مجال التكنولوجيا”.

وخبير التشفير ماثيو جرين، والأستاذ بجامعة جونز هوبكنز أيضًا أخذت إلى X لرفع ناقوس الخطر. وحذر قائلاً: “في المستقبل، ستعمل نماذج الذكاء الاصطناعي على الاستدلال على رسائلك النصية ومكالماتك الصوتية لاكتشاف السلوك غير المشروع والإبلاغ عنه”. “لكي تمر بياناتك عبر مقدمي الخدمة، ستحتاج إلى إرفاق دليل على عدم المعرفة بإجراء المسح. سيؤدي هذا إلى حظر العملاء المفتوحين.”

اقترح جرين أن هذا المستقبل البائس للرقابة افتراضيًا لا يبعد سوى بضع سنوات عن كونه ممكنًا من الناحية الفنية. “نحن بعيدون بعض الشيء عن أن تكون هذه التكنولوجيا فعالة بما يكفي لتحقيقها، ولكن بعد سنوات قليلة فقط. واقترح عقدًا على الأكثر.

وسارع خبراء الخصوصية والأمن الأوروبيون أيضًا إلى الاعتراض.

ردا على عرض جوجل على X، رحب Lukasz Olejnik، الباحث المستقل والمستشار في قضايا الخصوصية والأمن المقيم في بولندا، بميزة مكافحة الاحتيال التي تقدمها الشركة، لكنه حذر من إمكانية إعادة استخدام البنية التحتية للمراقبة الاجتماعية. “[T]ويعني هذا أيضًا أن القدرات التقنية قد تم بالفعل أو يجري تطويرها لمراقبة المكالمات أو الإنشاء أو كتابة النصوص أو المستندات، على سبيل المثال، للبحث عن محتوى غير قانوني أو ضار أو يحض على الكراهية أو غير مرغوب فيه أو غير عادل – فيما يتعلق بمعايير شخص ما. هو كتب.

“وللمضي قدمًا، يمكن لمثل هذا النموذج، على سبيل المثال، أن يعرض تحذيرًا. “أو منع القدرة على الاستمرار،” واصل أولينيك بتأكيد. “أو الإبلاغ عنه في مكان ما. التعديل التكنولوجي للسلوك الاجتماعي، أو ما شابه ذلك. ويشكل هذا تهديدًا كبيرًا للخصوصية، ولكنه يمثل أيضًا تهديدًا لمجموعة من القيم والحريات الأساسية. القدرات موجودة بالفعل.”

ولتوضيح مخاوفه بشكل أكبر، قال أولينيك لـ TechCrunch: “لم أر التفاصيل الفنية ولكن Google تؤكد أن الاكتشاف سيتم على الجهاز. وهذا شيء عظيم بالنسبة لخصوصية المستخدم. ومع ذلك، هناك ما هو أكثر بكثير على المحك من الخصوصية. وهذا يسلط الضوء على كيفية تحويل الذكاء الاصطناعي / LLM المضمن في البرامج وأنظمة التشغيل لاكتشاف أشكال مختلفة من النشاط البشري أو التحكم فيها.

وهذا يسلط الضوء على كيفية تحويل الذكاء الاصطناعي / LLM المضمن في البرامج وأنظمة التشغيل لاكتشاف أشكال مختلفة من النشاط البشري أو التحكم فيها.

لوكاش أولينيك

“حتى الآن لحسن الحظ أن الأمر نحو الأفضل. ولكن ماذا سيحدث إذا كانت القدرة التقنية موجودة ومدمجة؟ تشير مثل هذه الميزات القوية إلى مخاطر مستقبلية محتملة تتعلق بقدرة استخدام الذكاء الاصطناعي للتحكم في سلوك المجتمعات على نطاق واسع أو بشكل انتقائي. ربما يكون هذا من بين أخطر قدرات تكنولوجيا المعلومات التي تم تطويرها على الإطلاق. ونحن نقترب من تلك النقطة. كيف نحكم هذا؟ هل نذهب بعيدًا جدًا؟”

أثار مايكل فيل، الأستاذ المشارك في قانون التكنولوجيا في جامعة كاليفورنيا، أيضًا شبح الزحف الوظيفي المتدفق من الذكاء الاصطناعي لمسح المحادثات من Google – محذرًا كرد فعل مشاركة على X أنها “تُنشئ بنية تحتية للفحص من جانب العميل على الجهاز لأغراض أكثر من هذا، والتي سيرغب المنظمون والمشرعون في إساءة استخدامها”.

لدى خبراء الخصوصية في أوروبا سبب خاص للقلق: كان لدى الاتحاد الأوروبي اقتراح تشريعي مثير للجدل بشأن مسح الرسائل على الطاولة، منذ عام 2022، والذي يحذر النقاد – بما في ذلك المشرف على حماية البيانات في الكتلة – من أنه يمثل نقطة تحول للحقوق الديمقراطية في أوروبا. المنطقة لأنها ستجبر المنصات على فحص الرسائل الخاصة بشكل افتراضي.

في حين أن الاقتراح التشريعي الحالي يدعي أنه لا يلتزم بالتكنولوجيا، فمن المتوقع على نطاق واسع أن مثل هذا القانون سيؤدي إلى قيام منصات بنشر المسح من جانب العميل حتى تتمكن من الاستجابة لما يسمى “أمر الكشف” الذي يطالبهم باكتشاف كل من المعلومات المعروفة وغير المعروفة. CSAM وأيضًا التقاط نشاط الاستمالة في الوقت الفعلي.

في وقت سابق من هذا الشهر، كتب المئات من خبراء الخصوصية والأمن رسالة مفتوحة تحذر من أن الخطة قد تؤدي إلى ملايين النتائج الإيجابية الكاذبة يوميًا، حيث لم يتم إثبات تقنيات المسح من جانب العميل التي من المحتمل أن يتم نشرها بواسطة المنصات استجابة لأمر قانوني ، معيبة للغاية وعرضة للهجمات.

تم الاتصال بشركة Google للرد على المخاوف من أن الذكاء الاصطناعي الخاص بمسح المحادثات قد يؤدي إلى تآكل خصوصية الأشخاص، لكنها لم تستجب حتى وقت النشر.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى