تقنية

يحفظ Google محادثاتك مع Gemini لسنوات بشكل افتراضي


لا تكتب أي شيء في Gemini، مجموعة تطبيقات GenAI من Google، يكون بمثابة إدانة – أو لا تريد أن يراها شخص آخر.

هذا هو إعلان الخدمة العامة (من نوع ما) اليوم من Google، والذي يوضح في مستند دعم جديد الطرق التي تجمع بها البيانات من مستخدمي تطبيقات Gemini chatbot للويب وAndroid وiOS.

تلاحظ Google أن المعلقين البشريين يقومون بشكل روتيني بقراءة المحادثات مع Gemini وتصنيفها ومعالجتها – على الرغم من أن المحادثات “منفصلة” عن حسابات Google – لتحسين الخدمة. (ليس من الواضح ما إذا كان هؤلاء المفسرون داخليين أم يتم الاستعانة بمصادر خارجية، وهو ما قد يكون مهمًا عندما يتعلق الأمر بأمن البيانات؛ ولم تذكر جوجل ذلك). ويتم الاحتفاظ بهذه المحادثات لمدة تصل إلى ثلاث سنوات، إلى جانب “البيانات ذات الصلة” مثل اللغات. والأجهزة التي استخدمها المستخدم وموقعها.

الآن، توفر Google للمستخدمين بعض التحكم في البيانات ذات الصلة بالجوزاء التي يتم الاحتفاظ بها – وكيف.

يؤدي إيقاف تشغيل نشاط تطبيقات Gemini في لوحة تحكم نشاطي في Google (يتم تمكينه افتراضيًا) إلى منع حفظ المحادثات المستقبلية مع Gemini في حساب Google للمراجعة (مما يعني أن نافذة الثلاث سنوات لن تنطبق). وفي الوقت نفسه، يمكن حذف المطالبات والمحادثات الفردية مع Gemini من شاشة نشاط تطبيقات Gemini.

لكن جوجل تقول إنه حتى عند إيقاف نشاط تطبيقات Gemini، سيتم حفظ محادثات Gemini في حساب Google لمدة تصل إلى 72 ساعة “للحفاظ على سلامة وأمان تطبيقات Gemini وتحسين تطبيقات Gemini”.

كتبت جوجل: “يُرجى عدم إدخال معلومات سرية في محادثاتك أو أي بيانات لا تريد أن يراها المراجع أو أن يستخدمها Google لتحسين منتجاتنا وخدماتنا وتقنيات التعلم الآلي”.

لكي نكون منصفين، لا تختلف سياسات جمع البيانات والاحتفاظ بها GenAI الخاصة بشركة Google كثيرًا عن تلك الخاصة بمنافسيها. OpenAI، على سبيل المثال، يحفظ جميع الدردشات مع ChatGPT لمدة 30 يومًا بغض النظر عما إذا كانت ميزة سجل المحادثات في ChatGPT معطلة أم لا، باستثناء الحالات التي يشترك فيها المستخدم في خطة على مستوى المؤسسة مع سياسة مخصصة للاحتفاظ بالبيانات.

لكن سياسة جوجل توضح التحديات الكامنة في تحقيق التوازن بين الخصوصية وتطوير نماذج GenAI التي تتغذى على بيانات المستخدم لتحسين الذات.

لقد أدت سياسات الاحتفاظ ببيانات GenAI الليبرالية إلى إقناع البائعين بكيفية التعامل مع المنظمين في الماضي القريب.

في الصيف الماضي، طلبت لجنة التجارة الفيدرالية (FTC) معلومات مفصلة من OpenAI حول كيفية قيام الشركة بفحص البيانات المستخدمة لتدريب نماذجها، بما في ذلك بيانات المستهلك – وكيفية حماية تلك البيانات عند الوصول إليها من قبل أطراف ثالثة. وفي الخارج، قالت هيئة تنظيم خصوصية البيانات الإيطالية، هيئة حماية البيانات الإيطالية، إن OpenAI تفتقر إلى “الأساس القانوني” لجمع وتخزين البيانات الشخصية على نطاق واسع لتدريب نماذج GenAI الخاصة بها.

مع انتشار أدوات GenAI، يزداد قلق المؤسسات بشأن مخاطر الخصوصية.

وجدت دراسة حديثة أجرتها شركة Cisco أن 63% من الشركات قد وضعت قيودًا على البيانات التي يمكن إدخالها في أدوات GenAI. بينما قام 27% بحظر GenAI تمامًا. وكشف الاستطلاع نفسه أن 45% من الموظفين أدخلوا بيانات “إشكالية” في أدوات GenAI بما في ذلك معلومات الموظفين والملفات غير العامة حول صاحب العمل.

تقدم OpenAI وMicrosoft وAmazon وGoogle وغيرها منتجات GenAI الموجهة نحو المؤسسات التي تقدم خدماتها بشكل صريح لا الاحتفاظ بالبيانات لأي مدة زمنية، سواء للتدريب النموذجي أو لأي غرض آخر. على الرغم من ذلك، يحصل المستهلكون – كما هو الحال غالبًا – على الطرف القصير من العصا.


اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading