تقنية

تناقش شركة OpenAI موعد إطلاق كاشف الصور المولد بواسطة الذكاء الاصطناعي


لقد “ناقشت OpenAI وناقشت على نطاق واسع جدًا” متى يتم إصدار أداة يمكنها تحديد ما إذا كانت الصورة قد تم إنشاؤها باستخدام DALL-E 3، النموذج الفني للذكاء الاصطناعي التوليدي الخاص بـ OpenAI، أم لا. لكن الشركة الناشئة ليست قريبة من اتخاذ قرار في أي وقت قريب.

هذا وفقًا لـ Sandhini Agarwal، الباحث في OpenAI الذي يركز على السلامة والسياسة، والذي تحدث مع TechCrunch في مقابلة هاتفية هذا الأسبوع. وقالت إنه على الرغم من أن دقة أداة التصنيف “جيدة حقًا” – على الأقل وفقًا لتقديرها – إلا أنها لم تستوف عتبة الجودة الخاصة بـ OpenAI.

وقال أغاروال: “هناك مسألة طرح أداة غير موثوقة إلى حد ما، بالنظر إلى أن القرارات التي يمكن أن تتخذها يمكن أن تؤثر بشكل كبير على الصور، مثل ما إذا كان العمل يُنظر إليه على أنه رسمه فنان أو أنه غير أصيل ومضلل”.

يبدو أن الدقة المستهدفة للأداة من OpenAI عالية للغاية. قالت ميرا موراتي، كبيرة مسؤولي التكنولوجيا في OpenAI، هذا الأسبوع في مؤتمر Tech Live الذي عقدته صحيفة وول ستريت جورنال إن المُصنف موثوق به بنسبة “99%” في تحديد ما إذا كانت الصورة غير المعدلة قد تم إنشاؤها باستخدام DALL-E 3. ربما يكون الهدف هو 100%؛ أغاروال لن يقول.

كشفت مسودة منشور مدونة OpenAI تمت مشاركتها مع TechCrunch عن هذه المعلومة المثيرة للاهتمام:

“[The classifier] تظل دقيقة بنسبة تزيد عن 95% [an] خضعت الصورة لأنواع شائعة من التعديلات، مثل الاقتصاص، أو تغيير الحجم، أو ضغط JPEG، أو عند تركيب نص أو قصاصات من صور حقيقية على أجزاء صغيرة من الصورة التي تم إنشاؤها.

يمكن أن يكون إحجام شركة OpenAI مرتبطًا بالجدل الدائر حول أداة التصنيف العامة السابقة الخاصة بها، والتي تم تصميمها لاكتشاف النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي ليس فقط من نماذج OpenAI، ولكن من نماذج إنشاء النص الصادرة عن بائعي الطرف الثالث. قامت شركة OpenAI بسحب كاشف النصوص المكتوبة بواسطة الذكاء الاصطناعي بسبب “معدل الدقة المنخفض” الذي تعرض لانتقادات واسعة النطاق.

يشير أغاروال إلى أن OpenAI مشغولة أيضًا بالسؤال الفلسفي حول ما الذي يشكل بالضبط الصورة المولدة بواسطة الذكاء الاصطناعي. من الواضح أن العمل الفني الذي تم إنشاؤه من الصفر بواسطة DALL-E 3 مؤهل. ولكن ماذا عن صورة من DALL-E 3 خضعت لعدة جولات من التعديلات، وتم دمجها مع صور أخرى ثم تم تشغيلها من خلال عدد قليل من مرشحات ما بعد المعالجة؟ انها أقل وضوحا.

صورة تم إنشاؤها بواسطة DALL-E 3.

وقال أغاروال: “في تلك المرحلة، هل ينبغي اعتبار تلك الصورة شيئًا تم إنشاؤه بواسطة الذكاء الاصطناعي أم لا؟”. “في الوقت الحالي، نحاول الإجابة على هذا السؤال، ونريد حقًا أن نسمع من الفنانين والأشخاص الذين سيتأثرون بشكل كبير بهذا [classifier] أدوات.”

يقوم عدد من المنظمات – وليس OpenAI فقط – باستكشاف تقنيات وضع العلامات المائية والكشف عن الوسائط التوليدية مع انتشار التزييف العميق للذكاء الاصطناعي.

اقترحت DeepMind مؤخرًا مواصفات SynthID، لتمييز الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي بطريقة غير محسوسة للعين البشرية ولكن يمكن رصدها بواسطة كاشف متخصص. تقدم شركة Imatag الفرنسية الناشئة، التي تم إطلاقها في عام 2020، أداة لوضع العلامات المائية تدعي أنها لا تتأثر بتغيير حجم الصور أو قصها أو تحريرها أو ضغطها، على غرار SynthID. هناك شركة أخرى، وهي Steg.AI، تستخدم نموذج الذكاء الاصطناعي لتطبيق العلامات المائية التي تصمد أمام تغيير الحجم والتعديلات الأخرى.

تكمن المشكلة في أن الصناعة لم تتحد بعد حول معيار واحد للعلامة المائية أو الكشف. وحتى لو حدث ذلك، فليس هناك ما يضمن أن العلامات المائية – وأجهزة الكشف في هذا الشأن – لن تكون قابلة للهزيمة.

سألت Agarwal عما إذا كان مصنف الصور الخاص بـ OpenAI سيدعم اكتشاف الصور التي تم إنشاؤها باستخدام أدوات توليد أخرى غير تابعة لـ OpenAI. لم تلتزم بذلك، لكنها قالت ذلك – اعتمادًا على استقبال أداة تصنيف الصور كما هي موجودة اليوم – إنها وسيلة قد تفكر OpenAI في استكشافها.

“أحد الأسباب الآن [the classifier is] قال أغاروال: “إن ما يميز DALL-E 3 هو أن هذه مشكلة أكثر قابلية للحل من الناحية الفنية”. “[A general detector] ليس شيئًا نقوم به الآن… ولكن يعتمد على المكان [the classifier tool] يذهب، أنا لا أقول أننا لن نفعل ذلك أبدا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى