تقنية

مع تسارع الذكاء الاصطناعي، تتعرض مبادئ الخصوصية الرئيسية في أوروبا للهجوم، كما تحذر EDPS


حذر المشرف الأوروبي على حماية البيانات (EDPS) من أن العناصر الرئيسية لنظام حماية البيانات والخصوصية في الكتلة تتعرض للهجوم من جماعات الضغط في الصناعة وقد تواجه استقبالًا نقديًا من المشرعين في الولاية البرلمانية القادمة.

وحذر فويتشخ فييووروفسكي، الذي يرأس الهيئة التنظيمية: “لدينا هجمات قوية للغاية على المبادئ نفسها”. ويشرف على امتثال مؤسسات الاتحاد الأوروبي لـ قواعد حماية البيانات للكتلة، الثلاثاء. وكان ذلك يرد على أسئلة أعضاء لجنة الحريات المدنية بالبرلمان الأوروبي المعنية بالقضية إن اللائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي معرضة لخطر التخفيف.

“خاصة أنني أقصد [GDPR] مبادئ التقليل والحد من الغرض. سيتم بالتأكيد التشكيك في حدود الغرض في السنوات القادمة.

ومن المقرر إجراء انتخابات البرلمان في يونيو، في حين تنتهي ولاية المفوضية في نهاية عام 2024، لذا فإن التغييرات في السلطة التنفيذية للاتحاد الأوروبي تلوح في الأفق أيضًا. وأي تحول في النهج من قبل المشرعين الجدد يمكن أن يكون له آثار على المستوى العالي لحماية بيانات الأشخاص.

تم وضع اللائحة العامة لحماية البيانات (GDPR) وتشغيلها منذ مايو 2018، لكن فييويوروفسكي، الذي أوضح وجهات نظره بشأن التحديات التنظيمية القادمة خلال مؤتمر صحفي وقت الغداء بعد نشر التقرير السنوي لـ EDPS، قال إن تشكيل البرلمان المقبل سيحتوي على عدد قليل من المشرعين الذين شاركوا في صياغة وتمرير إطار عمل الخصوصية الرئيسي.

واقترح: “يمكننا أن نقول إن هؤلاء الأشخاص الذين سيعملون في البرلمان الأوروبي سيرون القانون العام لحماية البيانات باعتباره حدثًا تاريخيًا”، متوقعًا أنه ستكون هناك شهية بين المجموعة القادمة من البرلمانيين لمناقشة ما إذا كان التشريع التاريخي لا يزال مناسبًا للغرض. على الرغم من أنه قال أيضًا إن إعادة النظر في بعض القوانين السابقة هي عملية متكررة، أي في كل مرة تتغير فيها تركيبة البرلمان المنتخب.

لكنه أبرز بشكل خاص أناالضغط على الصناعة، وخاصة الشكاوى المقدمة من الشركات التي تستهدف مبدأ تحديد الغرض الخاص باللائحة العامة لحماية البيانات. ويرى البعض في المجتمع العلمي أيضًا أن هذا العنصر من القانون يمثل حدًا لأبحاثهملكل فييويوروفسكي.

“هناك نوع من التوقع من البعض [data] وقال: “سيكون بمقدور وحدات التحكم إعادة استخدام البيانات التي تم جمعها للسبب “أ” للعثور على الأشياء التي لا نعرفها حتى والتي سنبحث عنها”. “هناك مقولة قديمة لأحد ممثلي الأعمال قال إن تحديد الغرض من أكبر الجرائم ضد الإنسانية، لأننا سنحتاج إلى هذه البيانات ولا نعرف لأي غرض.

“أنا لا أتفق مع ذلك. لكن لا يمكنني أن أغمض عيني عن حقيقة طرح هذا السؤال”.

إن أي تحول بعيدًا عن حدود غرض اللائحة العامة لحماية البيانات ومبادئ تقليل البيانات يمكن أن يكون له آثار كبيرة على الخصوصية في المنطقة التي كانت أول من قام بتمرير إطار عمل شامل لحماية البيانات. لا يزال الاتحاد الأوروبي يتمتع ببعض أقوى قواعد الخصوصية في أي مكان في العالم، على الرغم من أن اللائحة العامة لحماية البيانات قد ألهمت أطر عمل مماثلة في أماكن أخرى.

يتضمن القانون العام لحماية البيانات التزامًا على أولئك الذين يريدون استخدام البيانات الشخصية لمعالجة الحد الأدنى من المعلومات اللازمة لغرضهم فقط (المعروف أيضًا باسم تقليل البيانات). بالإضافة إلى ذلك، لا يمكن ببساطة إعادة استخدام البيانات الشخصية التي تم جمعها لغرض واحد، طوعًا أو كرها، لأي استخدام آخر يحدث.

يشير مبدأ تحديد غرض اللائحة العامة لحماية البيانات (GDPR) إلى ضرورة ربط عملية البيانات باستخدام محدد. قد يكون من الممكن إجراء المزيد من المعالجة — ولكن، على سبيل المثال، قد يتطلب الأمر الحصول على إذن من الشخص الذي تتضمن معلوماته، أو الحصول على أساس قانوني آخر صحيح. لذا فإن نهج تحديد الغرض يضخ احتكاكًا متعمدًا في عمليات البيانات.

يتطلب هذا العنصر من القانون الوضوح المسبق بشأن الاستخدام المقصود للبيانات الشخصية، بدلاً من جمع معلومات الأشخاص والاحتفاظ بها في حالة حدوث غرض ما في المستقبل. بينما يشجع تقليل البيانات على الاحتفاظ بأقل قدر ممكن من البيانات. ولكن مع الدفع الحالي على مستوى الصناعة لتطوير المزيد والمزيد من أدوات الذكاء الاصطناعي التوليدية القوية، هناك تدافع كبير للبيانات لتدريب نماذج الذكاء الاصطناعي – وهو زخم يتعارض بشكل مباشر مع نهج الاتحاد الأوروبي.

لقد واجهت شركة OpenAI، الشركة المصنعة لـ ChatGPT، مشكلة بالفعل هنا. إنها تواجه مجموعة كبيرة من مشكلات الامتثال للقانون العام لحماية البيانات والتحقيقات – بما في ذلك ما يتعلق بالأساس القانوني المزعوم لمعالجة بيانات الأشخاص للتدريب النموذجي.

لم يلوم Wiewiórowski بشكل صريح الذكاء الاصطناعي التوليدي على قيادة “الهجمات القوية” على مبدأ تحديد الغرض الخاص باللائحة العامة لحماية البيانات. لكنه وصف الذكاء الاصطناعي بأنه أحد التحديات الرئيسية التي تواجه الجهات التنظيمية لحماية البيانات في المنطقة نتيجة للتطورات التقنية سريعة الخطى.

وتنبأ بالتحديات التكنولوجية الناشئة: “ستكون المشكلات المرتبطة بالذكاء الاصطناعي وعلم الأعصاب الجزء الأكثر أهمية في السنوات الخمس المقبلة”.

“إن الجزء التكنولوجي من التحديات التي نواجهها واضح تمامًا في وقت ثورة الذكاء الاصطناعي على الرغم من أن هذه ليست ثورة تكنولوجية إلى هذا الحد. إننا نفضل بالأحرى إضفاء الطابع الديمقراطي على الأدوات. ولكن علينا أن نتذكر أيضًا أنه في أوقات عدم الاستقرار الكبير، مثل تلك التي لدينا الآن – مع حرب روسيا في أوكرانيا – هو الوقت الذي تتطور فيه التكنولوجيا كل أسبوع.

تلعب الحروب دورًا نشطًا في تحفيز استخدام البيانات وتقنيات الذكاء الاصطناعي – كما هو الحال في أوكرانيا حيث يلعب الذكاء الاصطناعي دورًا رئيسيًا في مجالات مثل تحليل صور الأقمار الصناعية والاستخبارات الجغرافية المكانية – حيث يقول Wiewiórowski إن تطبيقات ساحة المعركة تدفع استيعاب الذكاء الاصطناعي في أماكن أخرى من العالم. . وتوقع كذلك أن تنتشر التأثيرات عبر الاقتصاد في السنوات المقبلة.

وفيما يتعلق بعلم الأعصاب، أشار إلى التحديات التنظيمية الناشئة عن حركة ما بعد الإنسانية، والتي تهدف إلى تعزيز القدرات البشرية من خلال ربط الأشخاص فعليًا بأنظمة المعلومات. وأضاف: “هذا ليس خيالاً علمياً”. “[It’s] شيء ما يحدث الآن. وعلينا أن نكون مستعدين لذلك من الناحية القانونية وحقوق الإنسان.

من أمثلة الشركات الناشئة التي تستهدف أفكار ما بعد الإنسانية شركة Neuralink التابعة لشركة Elon Musk والتي تعمل على تطوير شرائح يمكنها قراءة موجات الدماغ. تم الإبلاغ أيضًا عن أن شركة Meta المالكة لفيسبوك تعمل على الذكاء الاصطناعي الذي يمكنه تفسير أفكار الأشخاص.

إن مخاطر الخصوصية في عصر التقارب المتزايد بين أنظمة التكنولوجيا والبيولوجيا البشرية يمكن أن تكون خطيرة بالفعل. لذا فإن أي إضعاف لقوانين حماية البيانات في الاتحاد الأوروبي بسبب الذكاء الاصطناعي على المدى القريب من المرجح أن يكون له عواقب طويلة المدى على حقوق الإنسان للمواطنين.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى