تقنية

يبدو أن النموذج الصيني الجديد لإنتاج الفيديو يفرض رقابة على المواضيع الحساسة سياسيا


أصبح نموذج الذكاء الاصطناعي القوي الجديد لتوليد الفيديو متاحًا على نطاق واسع اليوم – ولكن هناك مشكلة: يبدو أن النموذج يفرض رقابة على الموضوعات التي تعتبرها الحكومة في بلده الأصلي، الصين، حساسة للغاية من الناحية السياسية.

تم إطلاق النموذج، Kling، الذي طورته شركة Kuaishou ومقرها بكين، في قائمة الانتظار في وقت سابق من العام للمستخدمين الذين لديهم رقم هاتف صيني. اليوم، تم طرحه لأي شخص يرغب في تقديم بريده الإلكتروني. بعد التسجيل، يمكن للمستخدمين إدخال مطالبات لجعل النموذج يقوم بإنشاء مقاطع فيديو مدتها خمس ثوانٍ لما وصفوه.

يعمل Kling إلى حد كبير كما هو معلن. مقاطع الفيديو بدقة 720 بكسل، والتي يستغرق إنتاجها دقيقة أو دقيقتين، لا تنحرف كثيرًا عن المطالبات. ويبدو أن كلينج يحاكي الفيزياء، مثل حفيف أوراق الشجر والمياه المتدفقة، بالإضافة إلى نماذج توليد الفيديو مثل Runway’s Gen-3 الناشئة في مجال الذكاء الاصطناعي و Sora من OpenAI.

لكن كلينج صريح متعود إنشاء مقاطع حول مواضيع معينة. إن عبارات مثل “الديمقراطية في الصين”، و”الرئيس الصيني شي جين بينج يسير في الشارع”، و”احتجاجات ميدان تيانانمن” تؤدي إلى ظهور رسالة خطأ غير محددة.

اعتمادات الصورة: كوايشو

يبدو أن التصفية تحدث فقط على مستوى الموجه. يدعم Kling تحريك الصور الثابتة، وسيقوم بإنشاء مقطع فيديو لصورة Jinping، على سبيل المثال، دون شكوى، طالما أن المطالبة المصاحبة لا تذكر Jinping بالاسم (على سبيل المثال، “هذا الرجل يلقي خطابًا”).

لقد تواصلنا مع Kuaishou للتعليق.

كلينج آي
اعتمادات الصورة: كوايشو

من المحتمل أن يكون سلوك كلينج الغريب نتيجة للضغط السياسي المكثف من قبل الحكومة الصينية على مشاريع الذكاء الاصطناعي التوليدية في المنطقة.

في وقت سابق من هذا الشهر، ذكرت صحيفة فايننشال تايمز أن نماذج الذكاء الاصطناعي في الصين سيتم اختبارها من قبل الجهة التنظيمية الرائدة للإنترنت في الصين، إدارة الفضاء السيبراني الصينية (CAC)، لضمان أن ردودها على المواضيع الحساسة “تجسد القيم الاشتراكية الأساسية”. سيتم قياس النماذج من قبل مسؤولي CAC لإجاباتهم على مجموعة متنوعة من الاستفسارات، وفقًا لتقرير صحيفة فاينانشيال تايمز – العديد منها يتعلق بجينبينج وانتقاد الحزب الشيوعي.

وبحسب ما ورد، ذهبت CAC إلى حد اقتراح قائمة سوداء بالمصادر التي لا يمكن استخدامها لتدريب نماذج الذكاء الاصطناعي. ويتعين على الشركات التي تقدم نماذج للمراجعة أن تعد عشرات الآلاف من الأسئلة المصممة لاختبار ما إذا كانت النماذج تنتج إجابات “آمنة”.

والنتيجة هي أن أنظمة الذكاء الاصطناعي ترفض الاستجابة للمواضيع التي قد تثير حفيظة الجهات التنظيمية الصينية. في العام الماضي، وجدت هيئة الإذاعة البريطانية (بي بي سي) أن إرني، نموذج الدردشة الرائد القائم على الذكاء الاصطناعي لشركة بايدو الصينية، اعترض وانحرف عندما طرح عليه أسئلة قد يُنظر إليها على أنها مثيرة للجدل سياسيا، مثل “هل شينجيانغ مكان جيد؟” أو “هل التبت مكان جيد؟”

وتهدد السياسات الصارمة بإبطاء تقدم الصين في مجال الذكاء الاصطناعي. فهي لا تتطلب فقط فحص البيانات لإزالة المعلومات الحساسة سياسيًا، ولكنها تتطلب أيضًا استثمار قدر هائل من وقت التطوير في إنشاء حواجز حماية أيديولوجية – حواجز حماية قد تظل فاشلة، كما يوضح كلينج.

ومن وجهة نظر المستخدم، فإن لوائح الذكاء الاصطناعي في الصين تؤدي بالفعل إلى فئتين من النماذج: بعضها معوق بسبب الترشيح المكثف والبعض الآخر أقل إعاقة. هل هذا حقًا أمر جيد للنظام البيئي للذكاء الاصطناعي الأوسع؟

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى