تقنية

سوف تموت الخصوصية لتمنحنا جهاز الكمبيوتر الذي يفكر ويعلم


نحن نلقي نظرة أولية مناسبة على “دبوس الذكاء الاصطناعي” الخاص بـ Humane (مهما كان) الذي تم الترويج له كثيرًا في 9 نوفمبر، وستقوم شركة Rewind لبدء تشغيل ذاكرة الذكاء الاصطناعي المخصصة بإطلاق قلادة لتتبع ليس فقط حياتك الرقمية ولكن أيضًا حياتك الجسدية في وقت ما في المستقبل المنظور. تكثر الضجة حول اجتماع Sam Altman من OpenAI مع إله التصميم لدى Apple Jony Ive فيما يتعلق ببناء أداة من نوع ما لأجهزة الذكاء الاصطناعي، وتبشر الهمهمة في قاعات مكاتب VC في كل مكان بقدوم لحظة iPhone للذكاء الاصطناعي بألوان لاهثة.

بالطبع، الإمكانات هائلة: جهاز يأخذ ويوسع ما تمكن ChatGPT من فعله باستخدام الذكاء الاصطناعي التوليدي ليشمل العديد من الجوانب الأخرى في حياتنا – ونأمل أن يكون مع المزيد من الذكاء والتطبيق العملي. لكن التكلفة كبيرة؛ وليس التكلفة المالية، التي هي مجرد المزيد من تحويل الثروة من احتياطيات الفحم للمكاتب العائلية الغنية والأفراد ذوي الثروات العالية إلى النيران النهمة لمعدلات حرق الشركات الناشئة. لا، أنا أتحدث عن الثمن الذي ندفعه في الخصوصية.

لقد تم استدعاء موت الخصوصية وإلغائه ومواجهته وتكراره عدة مرات على مر السنين (فقط ابحث عن العبارة في Google) استجابة لأي عدد من التطورات التكنولوجية، بما في ذلك أشياء مثل المشاركة المباشرة للموقع على الأجهزة المحمولة؛ ظهور الشبكات الاجتماعية وانتشارها في نهاية المطاف وما ينتج عنها من رسوم بيانية اجتماعية؛ ورسم خرائط الأقمار الصناعية والصور عالية الدقة؛ تسريبات ضخمة لبيانات الاعتماد ومعلومات التعريف الشخصية (PII)، وغير ذلك الكثير.

الذكاء الاصطناعي التوليدي – وهو النوع الذي شاعته OpenAI وChatGPT، والنوع الذي يشير إليه معظم الناس عندما يتوقعون موجة قادمة من أدوات الذكاء الاصطناعي – هو عدو لدود آخر لما نعتبره خصوصية، وهو أحد أكثر أشكاله شرهًا ووحشية. القتلة العشوائيين حتى الآن.

في حدث TechCrunch Disrupt الذي عقد مؤخرًا في سان فرانسيسكو، رئيسة شركة Signal ميريديث ويتاكر – واحدة من الشخصيات الرئيسية الوحيدة في مجال التكنولوجيا التي تبدو راغبة ومتلهفة للتعامل مع التهديدات الواقعية المحددة للذكاء الاصطناعي، بدلاً من الإشارة إلى سيناريوهات يوم القيامة في نهاية المطاف لإبقاء أعين الناس من الجائزة – قال إن الذكاء الاصطناعي هو في جوهره “تقنية مراقبة” “تتطلب نموذج أعمال المراقبة” من حيث قدرته وحاجته إلى جمع جميع بياناتنا. كما أنها تستخدم أيضًا كأداة للمراقبة، فيما يتعلق بالتعرف على الصور وتحليل المشاعر وعدد لا يحصى من التطبيقات المماثلة الأخرى.

كل هذه المقايضات تهدف إلى الحصول على نسخة معقولة من جهاز كمبيوتر يفكر ويعرف، ولكن ليس جهازًا يمكنه التفكير والمعرفة فعليًا. من الواضح أن تعريفات هذه الأشياء ستختلف، لكن معظم الخبراء يتفقون على أن شهادات الماجستير التي لدينا اليوم، رغم أنها متقدمة بالتأكيد وقادرة بشكل واضح على تقليد السلوك البشري بشكل مقنع في ظروف معينة محدودة، لا تكرر في الواقع المعرفة أو الفكر البشري.

ولكن حتى لتحقيق هذا المستوى من الأداء، فإن النماذج التي تعتمد عليها أشياء مثل ChatGPT تطلبت إدخال كميات هائلة من البيانات – يمكن القول إن البيانات التي تم جمعها بموافقة أولئك الذين قدموها حيث قاموا بنشرها بحرية على الإنترنت. دون فهم راسخ لما يعنيه ذلك بالنسبة للتجميع وإعادة الاستخدام، ناهيك عن نطاق ربما لم يكن موجودًا بالفعل عندما نشروه في البداية.

وهذا يأخذ في الاعتبار المعلومات الرقمية، والتي هي في حد ذاتها مجموعة موسعة جدًا من البيانات التي ربما تكشف أكثر بكثير مما يمكن أن يشعر به أي منا بشكل فردي. ولكنها لا تتضمن حتى نوع معلومات العالم المادي التي من المقرر أن يتم جمعها بواسطة أجهزة مثل دبوس AI الخاص بـ Humane، وقلادة Rewind وغيرها، بما في ذلك Ray-Ban Meta Smartglasses التي أطلقها مالك Facebook في وقت سابق من هذا الشهر، والتي تم تعيينهم لإضافة ميزات في العام المقبل توفر معلومات عند الطلب حول الأشياء والأماكن في العالم الحقيقي التي تم التقاطها من خلال الكاميرات المدمجة.

توقع بعض العاملين في هذه الفئة الناشئة المخاوف بشأن الخصوصية وقدموا ما يمكنهم من الحماية – تلاحظ شركة Humane أن أجهزتها ستشير دائمًا إلى وقت الالتقاط عبر مؤشر LED أصفر؛ قامت Meta بتجديد ضوء الإشعارات على نظارات Ray-Ban الذكية مقابل التكرار الأول لتعطيل التسجيل فعليًا إذا اكتشفوا تلاعبًا أو تشويشًا في مؤشر LED؛ تقول Rewind إنها تتبع نهج الخصوصية أولاً في جميع استخدامات البيانات على أمل أن يصبح هذا هو المعيار لهذه الصناعة.

ومن غير المرجح أن يصبح هذا هو المعيار لهذه الصناعة. وكان المعيار تاريخياً هو الحد الأدنى الذي تتحمله السوق والجهات التنظيمية ــ وكان كل منهما يميل إلى قبول المزيد من التوغلات بمرور الوقت، سواء ضمناً أو على الأقل من خلال غياب الاعتراض على تغيير الشروط والأحكام وسياسات الخصوصية.

إن القفزة مما لدينا الآن، إلى جهاز كمبيوتر حقيقي التفكير والمعرفة، يمكنه أن يكون بمثابة رفيق افتراضي لديه على الأقل صورة كاملة لحياتنا كما لدينا نحن أنفسنا، سوف يتطلب مصادرة أكبر قدر ممكن من البيانات التي يمكننا أن نأملها. لجمع أو امتلاك – بقدر ما هو شيء يمكن لأي منا أن يمتلكه. وإذا حققنا أهدافنا، فإن حقيقة ما إذا كانت هذه البيانات ستترك أجهزتنا المحلية (والذكاءات الافتراضية التي تعيش فيها) أم لا تصبح في الواقع موضع نقاش إلى حد ما، حيث سيتم بعد ذلك مشاركة معلوماتنا مع شخص آخر – حتى لو كان الآخر في هذا. حالة يحدث ليس لها شكل من لحم ودم.

من المحتمل جدًا أنه بحلول تلك المرحلة، سيكون مفهوم “الخصوصية” كما نفهمه اليوم مفهومًا عفا عليه الزمن أو غير كاف فيما يتعلق بالعالم الذي نجد أنفسنا فيه، وربما يكون لدينا ما يحل محله ويحافظ على خصوصيته. الروح في ضوء هذا النموذج الجديد. وفي كلتا الحالتين، أعتقد أن الطريق إلى لحظة الذكاء الاصطناعي على iPhone يتطلب بالضرورة “موت” الخصوصية كما نعرفها، الأمر الذي يضع الشركات التي تخفي الخصوصية وتثمنها باعتبارها عامل تمييز رئيسي – مثل Apple – في موقف غريب خلال العقد المقبل أو نحو ذلك. .

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى