تقنية

ChatGPT ينتهك قوانين الخصوصية في أوروبا، حسبما صرحت DPA الإيطالية لـ OpenAI


تم إخبار شركة OpenAI بأنها مشتبه بها في انتهاكها لخصوصية الاتحاد الأوروبي، بعد تحقيق دام عدة أشهر في برنامج الدردشة الآلي الخاص بها، ChatGPT، من قبل هيئة حماية البيانات الإيطالية.

ولم يتم الكشف عن تفاصيل مسودة النتائج التي توصلت إليها السلطة الإيطالية. لكن ال جارانت قال اليوم أنه تم إخطار OpenAI وتم منحه 30 يومًا للرد بالدفاع ضد هذه المزاعم.

يمكن أن تؤدي الانتهاكات المؤكدة لنظام عموم الاتحاد الأوروبي إلى فرض غرامات تصل إلى 20 مليون يورو، أو ما يصل إلى 4٪ من المبيعات السنوية العالمية. الأمر الأكثر إزعاجًا بالنسبة لشركة عملاقة في مجال الذكاء الاصطناعي مثل OpenAI، هو أن سلطات حماية البيانات (DPAs) يمكنها إصدار أوامر تتطلب إجراء تغييرات على كيفية معالجة البيانات من أجل وضع حد للانتهاكات المؤكدة. لذلك قد تضطر إلى تغيير طريقة عملها. أو سحب خدمتها من الدول الأعضاء في الاتحاد الأوروبي حيث تسعى سلطات الخصوصية إلى فرض تغييرات لا تريدها.

تم الاتصال بـ OpenAI للرد على جارانتإخطار المخالفة. سنقوم بتحديث هذا التقرير إذا أرسلوا بيانًا.

مشروعية تدريب نموذج الذكاء الاصطناعي في الإطار

أثارت السلطة الإيطالية مخاوف بشأن امتثال OpenAI للائحة العامة لحماية البيانات (GDPR) للكتلة في العام الماضي – عندما أمرت بفرض حظر مؤقت على معالجة البيانات المحلية لـ ChatGPT مما أدى إلى تعليق روبوت الدردشة AI مؤقتًا في السوق.

ال جارانتسلط الحكم الصادر في 30 مارس بشأن OpenAI، المعروف أيضًا باسم “سجل التدابير”، الضوء على عدم وجود أساس قانوني مناسب لجمع ومعالجة البيانات الشخصية لغرض تدريب الخوارزميات الأساسية لـ ChatGPT؛ وميل أداة الذكاء الاصطناعي إلى “الهلوسة” (أي قدرتها على إنتاج معلومات غير دقيقة عن الأفراد) – من بين القضايا التي تهمها في تلك المرحلة. كما أشارت إلى سلامة الأطفال باعتبارها مشكلة.

بشكل عام، قالت الهيئة إنها تشتبه في أن ChatGPT ينتهك المواد 5 و6 و8 و13 و25 من اللائحة العامة لحماية البيانات.

على الرغم من تحديد قائمة الغسيل هذه للانتهاكات المشتبه فيها، تمكنت OpenAI من استئناف خدمة ChatGPT في إيطاليا بسرعة نسبية في العام الماضي، بعد اتخاذ خطوات لمعالجة بعض المشكلات التي أثارتها اتفاقية حماية البيانات. لكن السلطات الإيطالية قالت إنها ستواصل التحقيق في الانتهاكات المشتبه بها. لقد تم التوصل الآن إلى استنتاجات أولية مفادها أن الأداة تنتهك قانون الاتحاد الأوروبي.

في حين أن السلطة الإيطالية لم تذكر بعد أي من خروقات ChatGPT المشتبه بها سابقًا والتي تم تأكيدها في هذه المرحلة، فإن الأساس القانوني الذي تطالب به OpenAI لمعالجة البيانات الشخصية لتدريب نماذج الذكاء الاصطناعي الخاصة بها يبدو وكأنه مشكلة جوهرية بشكل خاص.

وذلك لأن ChatGPT تم تطويره باستخدام كميات كبيرة من البيانات المستخرجة من الإنترنت العام – وهي المعلومات التي تتضمن البيانات الشخصية للأفراد. والمشكلة التي تواجهها شركة OpenAI في الاتحاد الأوروبي هي أن معالجة بيانات الأشخاص في الاتحاد الأوروبي تتطلب أن يكون لها أساس قانوني صالح.

يسرد القانون العام لحماية البيانات ستة أسس قانونية محتملة – معظمها ليس له صلة بسياقه. في أبريل الماضي، تم إخبار OpenAI من قبل جارانت لإزالة الإشارات إلى “تنفيذ العقد” للتدريب على نموذج ChatGPT – مما يترك الأمر أمام احتمالين فقط: الموافقة أو المصالح المشروعة.

نظرًا لأن عملاق الذكاء الاصطناعي لم يسعى أبدًا للحصول على موافقة الملايين (أو حتى المليارات) من مستخدمي الويب الذين استوعبت معلوماتهم وعالجتها لبناء نموذج الذكاء الاصطناعي، فإن أي محاولة للادعاء بأنها حصلت على إذن الأوروبيين للمعالجة ستبدو وكأنها محكوم عليها بالفشل. وعندما قامت OpenAI بمراجعة وثائقها بعد جارانتوفي تدخلها العام الماضي بدا أنها تسعى إلى الاعتماد على ادعاء بوجود مصلحة مشروعة. ومع ذلك، لا يزال هذا الأساس القانوني يتطلب من معالج البيانات السماح لأصحاب البيانات بتقديم اعتراض – وإيقاف معالجة معلوماتهم.

كيف يمكن لـ OpenAI القيام بذلك في سياق برنامج الدردشة الآلي الخاص بها هو سؤال مفتوح. (قد يتطلب الأمر، من الناحية النظرية، سحب وتدمير النماذج المدربة بشكل غير قانوني وإعادة تدريب النماذج الجديدة دون بيانات الفرد المعترض في مجموعة التدريب – ولكن، على افتراض أنه يمكنها حتى تحديد جميع البيانات التي تمت معالجتها بشكل غير قانوني على أساس كل فرد، فإنها ستفعل ذلك بحاجة إلى القيام بذلك بالنسبة لبيانات كل شخص من أعضاء الاتحاد الأوروبي المعترضين الذين طلبوا منها التوقف … وهو ما يبدو باهظ الثمن.)

وبعيداً عن هذه القضية الشائكة، هناك سؤال أوسع حول ما إذا كان جارانت سوف نستنتج أخيرًا أن المصالح المشروعة هي أساس قانوني صالح في هذا السياق.

بصراحة، يبدو ذلك غير محتمل. لأن LI ليست مجانية للجميع. فهو يتطلب من معالجي البيانات تحقيق التوازن بين مصالحهم الخاصة وحقوق وحريات الأفراد الذين تتم معالجة بياناتهم – والنظر في أشياء مثل ما إذا كان الأفراد يتوقعون هذا الاستخدام لبياناتهم؛ واحتمال أن يسبب لهم ضررا غير مبرر. (إذا لم يتوقعوا ذلك وكانت هناك مخاطر لحدوث مثل هذا الضرر، فلن يتم العثور على LI كأساس قانوني صالح.)

يجب أن تكون المعالجة ضرورية أيضًا، مع عدم وجود طريقة أخرى أقل تدخلاً لمعالج البيانات لتحقيق هدفه.

والجدير بالذكر أن المحكمة العليا في الاتحاد الأوروبي وجدت سابقًا أن المصالح المشروعة هي أساس غير مناسب لشركة Meta لتنفيذ تتبع وتوصيف الأفراد لإدارة أعمالها الإعلانية السلوكية على شبكاتها الاجتماعية. لذا، هناك علامة استفهام كبيرة حول فكرة وجود نوع آخر من عمالقة الذكاء الاصطناعي الذين يسعون إلى تبرير معالجة بيانات الأشخاص على نطاق واسع لبناء أعمال تجارية مولدة للذكاء الاصطناعي – خاصة عندما تولد الأدوات المعنية جميع أنواع المخاطر الجديدة لأفراد محددين (من التضليل والتشهير وسرقة الهوية والاحتيال، على سبيل المثال لا الحصر).

المتحدث الرسمي باسم جارانت أكدت أن الأساس القانوني لمعالجة بيانات الأشخاص للتدريب النموذجي يظل في مزيج من ما يشتبه في أن ChatGPT ينتهكه.

لكنهم لم يؤكدوا بالضبط المقالة (أو المقالات) التي يشتبه في أن OpenAI قد انتهكتها في هذه المرحلة. كما أن إعلان الهيئة اليوم ليس هو الكلمة النهائية بعد – حيث ستنتظر أيضًا لتلقي رد OpenAI قبل اتخاذ القرار النهائي.

هنا جارانت البيان (الذي قمنا بترجمته من الإيطالية باستخدام الذكاء الاصطناعي):

[Italian Data Protection Authority] أخطرت شركة OpenAI، الشركة التي تدير منصة ChatGPT للذكاء الاصطناعي، إشعارها بالاعتراض على انتهاك لوائح حماية البيانات.

بعد التقييد المؤقت لأمر المعالجة، الذي اعتمده جارانت ضد الشركة في 30 مارس، وفي نتيجة التحقيق الأولي الذي تم إجراؤه، رأت الهيئة أن العناصر المكتسبة قد تشكل واحدًا أو أكثر من الأفعال غير القانونية فيما يتعلق بأحكام لائحة الاتحاد الأوروبي.

سيكون أمام OpenAI 30 يومًا لتقديم ملخصات الدفاع الخاصة بها بشأن الانتهاكات المزعومة.

عند تحديد الإجراءات، ستأخذ Garante في الاعتبار العمل المستمر لفريق العمل الخاص الذي أنشأه مجلس الإدارة والذي يجمع بين سلطات حماية البيانات في الاتحاد الأوروبي (EDPB).

تواجه OpenAI أيضًا تدقيقًا بشأن امتثال ChatGPT للائحة العامة لحماية البيانات في بولندا، بعد شكوى الصيف الماضي والتي ركزت على مثال للأداة التي تنتج معلومات غير دقيقة عن شخص ما واستجابة OpenAI لذلك المشتكي. لا يزال هذا التحقيق المنفصل في اللائحة العامة لحماية البيانات مستمرًا.

وفي الوقت نفسه، استجابت شركة OpenAI للمخاطر التنظيمية المتزايدة في جميع أنحاء الاتحاد الأوروبي من خلال السعي إلى إنشاء قاعدة مادية في أيرلندا؛ والإعلان، في يناير، أن هذا الكيان الأيرلندي سيكون مزود الخدمة لبيانات مستخدمي الاتحاد الأوروبي من الآن فصاعدا.

وستكون آمالها من خلال هذه التحركات هي الحصول على ما يسمى بوضع “المؤسسة الرئيسية” في أيرلندا والتحول إلى تقييم امتثالها للقانون العام لحماية البيانات بقيادة لجنة حماية البيانات الأيرلندية، من خلال آلية الشباك الواحد الخاصة باللائحة – بدلاً من (كما هو الحال الآن). ) من المحتمل أن تخضع أعمالها لرقابة DPA من أي مكان في الاتحاد وأن أدواتها لديها مستخدمين محليين.

ومع ذلك، لم تحصل OpenAI بعد على هذه الحالة، لذلك لا يزال من الممكن أن يواجه ChatGPT تحقيقات أخرى من قبل DPAs في أماكن أخرى من الاتحاد الأوروبي. وحتى إذا حصلت على هذا الوضع، فإن التحقيق الإيطالي والتنفيذ سيستمر لأن معالجة البيانات المعنية تسبق التغيير في هيكل المعالجة الخاص بها.

سعت سلطات حماية البيانات في الاتحاد الأوروبي إلى التنسيق بشأن إشرافها على ChatGPT من خلال إنشاء فريق عمل للنظر في كيفية تطبيق اللائحة العامة لحماية البيانات على chatbot، عبر المجلس الأوروبي لحماية البيانات، بصفته جارانتملاحظات البيان. قد يؤدي هذا الجهد (المستمر) في نهاية المطاف إلى نتائج أكثر انسجاما عبر تحقيقات منفصلة في ChatGPT اللائحة العامة لحماية البيانات – مثل تلك الموجودة في إيطاليا وبولندا.

ومع ذلك تظل السلطات مستقلة ومختصة بإصدار القرارات في أسواقها. لذا، بالمثل، لا توجد ضمانات بأن أيًا من تحقيقات ChatGPT الحالية ستصل إلى نفس الاستنتاجات.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى