تقنية

تستشهد تايلور سويفت بـ “المخاوف بشأن الذكاء الاصطناعي” أثناء تأييدها لبطاقة الحزب الديمقراطي


بعد مناظرة رئاسية تاريخية مليئة بالحديث عن أكل الحيوانات الأليفة، أنهت تايلور سويفت الأمسية بضجة كبيرة. يمكن القول إن المغنية وكاتبة الأغاني هي أقوى شخصية في ثقافة البوب ​​الأمريكية، وقد اختارت ليلة المناظرة لتعلن على إنستغرام أنها تخطط للتصويت لكامالا هاريس في الانتخابات الرئاسية.

تأييد سويفت هائل. فهي تتمتع بنفوذ سياسي كافٍ لدفع عشرات الآلاف من الأميركيين إلى التسجيل للتصويت، وذلك ببساطة عن طريق مشاركة رابط. ولكن الأمر الأكثر إثارة للدهشة هو أنها استخدمت إعلانها أيضًا للتعبير عن مخاوفها بشأن التزييف العميق للذكاء الاصطناعي.

وكتبت سويفت على إنستغرام: “لقد علمت مؤخرًا أن الذكاء الاصطناعي الخاص بـ “أنا” الذي يؤيد زوراً ترشح دونالد ترامب للرئاسة قد تم نشره على موقعه. لقد أثار هذا بالفعل مخاوفي بشأن الذكاء الاصطناعي، ومخاطر نشر المعلومات المضللة. لقد أوصلني ذلك إلى استنتاج مفاده أنني بحاجة إلى أن أكون شفافًا للغاية بشأن خططي الفعلية لهذه الانتخابات كناخب. إن أبسط طريقة لمكافحة المعلومات الخاطئة هي الحقيقة.

من خلال الكتابة عن تجربتها في التزييف العميق لإظهار الدعم لمرشح لا تخطط للتصويت له بالفعل، بدا بيان سويفت أكثر شخصية بعض الشيء.

“لقد كان بيانها، في رأيي، مدروسًا للغاية ومكتوبًا بطريقة مقنعة، لكن مقال الذكاء الاصطناعي يمنحها وجهة نظر شخصية لا يمكن لأي شخص آخر أن يمتلكها حول هذه الانتخابات وما يفعله المرشحون”، قالت ليندا بلوس. وقال باوم، أستاذ الجامعة الأمريكية في برنامج الأعمال والترفيه، لـ TechCrunch.

المشاهير، وخاصة المشاهير مثل Swift، معرضون بشكل خاص للتزييف العميق، نظرًا لوجود ما يكفي من الصور ومقاطع الفيديو الخاصة بهم على الإنترنت لاستحضار عمليات مزيفة متطورة خاصة بالذكاء الاصطناعي.

قال نوح داونز، محامي الملكية الفكرية والترفيه، لـ TechCrunch في أغسطس: “أحد الأشياء التي أراها كثيرًا في ممارستي الآن هو ظهور منتحلي الذكاء الاصطناعي في جميع المجالات للحصول على التأييد”. لقد أصبحت تأييدات الذكاء الاصطناعي الزائفة منتشرة على نطاق واسع لدرجة أنه حتى “Shark Tank” اضطر إلى نشر إعلان خدمة عامة لتحذير المعجبين من انتشار عمليات الاحتيال التي تنتحل شخصية مستثمري العرض.

أما بالنسبة لسويفت، فقد كانت الفنانة موضوعًا للمواد الإباحية التي تم إنشاؤها بواسطة الذكاء الاصطناعي، والتي تم نشرها بشكل فيروسي، مما أثار نقاشًا بين المشرعين الذين يسعون إلى سن تشريعات ضد هذا المنتج الثانوي الضار للذكاء الاصطناعي المولد.

قال بلوس باوم: “يحدث هذا بالتأكيد طوال الوقت مع الأشخاص العاديين للأسف، الذين تم تزييف أسمائهم وصورهم وشبههم باستخدام منتجات الذكاء الاصطناعي”.

ولكن عندما يتورط المشاهير مثل سويفت، فإن ذلك يمكن أن يجعل المشرعين يعيرون المزيد من الاهتمام.

وقالت: “باعتباري عضوًا في جماعة ضغط منذ فترة طويلة لصالح صناعة الترفيه، يمكنني أن أخبرك أنك تحظى باهتمام أكبر عندما تذهب إلى الكابيتول هيل مع المشاهير وهم يروون قصصهم”.

عندما تلعب تقنية التزييف العميق دورًا في الانتخابات لأحد أقوى المقاعد في السياسة العالمية، فإن المخاطر تكون أعلى قليلاً من نسخة الوادي الغريبة من لوري جرينير التي تبيع المكملات الغذائية. ولكن مع اقتراب يوم الانتخابات، لا تمتلك الولايات المتحدة سوى القليل من القدرة التشريعية على ردع انتشار هذه المعلومات المضللة عبر وسائل التواصل الاجتماعي، حيث يحصل الناخبون على أخبارهم أكثر من أي وقت مضى.

وقال بلوس باوم: “لسوء الحظ، يلعب الذكاء الاصطناعي دوراً أكبر في هذه الانتخابات، فقط بسبب انتشار التكنولوجيا”. “لقد تعرضنا للمكالمات الآلية في الماضي، ولكن الآن، أصبحت التكنولوجيا جيدة جدًا لدرجة أنه يمكن تزييفها بعمق بطريقة لا يعرف المتصلون بالضرورة أنه ليس المرشح”.

وقالت بلوس باوم إنه بما أن سويفت مقيمة في ولاية تينيسي، فمن المحتمل أن تقاضي الرئيس السابق ترامب بموجب قانون ELVIS. وبما أن القانون جديد جدًا، فليس هناك سوى القليل من السوابق القانونية. وبغض النظر عن ذلك، يعتقد بلوس باوم أن المستهلكين والمشاهير على حد سواء سيكون لديهم المزيد من القوة للدفاع عن أنفسهم إذا تم إقرار التشريع الفيدرالي. وهي ترى أن قانون منع التزييف الذي أقره الحزبان واعد بشكل خاص، لكن من غير المرجح أن يكون هناك أي تغيير تشريعي ذي معنى قبل الانتخابات في أوائل نوفمبر.

قال بلوس-باوم: “هناك أشياء إيجابية تستخدم الحملات الذكاء الاصطناعي من أجلها، أنا متأكد من ذلك، من خلال جمع البيانات والتحليلات، ولكن علينا أن نكون حذرين من أن الذكاء الاصطناعي لا يشوه المرشحين”.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى