تقنية

ستتيح لك Microsoft قريبًا استنساخ صوتك لاجتماعات Teams


تخطط Microsoft للسماح لمستخدمي Teams باستنساخ أصواتهم حتى يتمكنوا من التحدث مع الآخرين في الاجتماعات بلغات مختلفة.

في Microsoft Ignite 2024 يوم الثلاثاء، كشفت الشركة عن Interpreter in Teams، وهي أداة لـ Microsoft Teams توفر إمكانات الترجمة الفورية “في الوقت الفعلي، وتحويل الكلام إلى كلام”. بدءًا من أوائل عام 2025، سيتمكن الأشخاص الذين يستخدمون Teams للاجتماعات من استخدام المترجم الفوري لمحاكاة أصواتهم بما يصل إلى تسع لغات: الإنجليزية والفرنسية والألمانية والإيطالية واليابانية والكورية والبرتغالية والصينية الماندرين والإسبانية.

“تخيل أنك قادر على أن تبدو مثلك تمامًا بلغة مختلفة،” كتب Microsoft CMO Jared Spataro في منشور مدونة تمت مشاركته مع TechCrunch. “يوفر المترجم الفوري في Teams ترجمة من الكلام إلى كلام في الوقت الفعلي أثناء الاجتماعات، ويمكنك اختيار جعله يحاكي صوتك أثناء التحدث للحصول على تجربة أكثر شخصية وجاذبية.”

قدمت مايكروسوفت بعض التفاصيل الملموسة حول هذه الميزة، والتي ستكون متاحة فقط لمشتركي Microsoft 365. لكنها ذكرت أن الأداة لا تخزن أي بيانات بيومترية، ولا تضيف مشاعر تتجاوز ما هو “موجود بشكل طبيعي” في الصوت، ويمكن تعطيلها من خلال إعدادات Teams.

قال متحدث باسم Microsoft لـ TechCrunch: “تم تصميم المترجم الفوري لتكرار رسالة المتحدث بأمانة قدر الإمكان دون إضافة افتراضات أو معلومات غريبة”. “لا يمكن تمكين محاكاة الصوت إلا عندما يقدم المستخدمون الموافقة عبر إشعار أثناء الاجتماع أو عن طريق تمكين “موافقة محاكاة الصوت” في الإعدادات.”

قام عدد من الشركات بتطوير تقنية لتقليد الأصوات التي تبدو طبيعية إلى حد معقول رقميًا. قالت Meta مؤخرًا إنها تقوم بتجربة أداة ترجمة يمكنها ترجمة الأصوات تلقائيًا في Instagram Reels، بينما توفر ElevenLabs منصة قوية لتوليد الكلام متعدد اللغات.

تميل ترجمات الذكاء الاصطناعي إلى أن تكون أقل ثراءً من الناحية المعجمية مقارنة بترجمات المترجمين الفوريين من البشر، وغالبًا ما يكافح مترجمو الذكاء الاصطناعي لنقل العامية والقياسات والفروق الثقافية الدقيقة بدقة. ومع ذلك، فإن وفورات التكلفة جذابة بما يكفي لجعل المقايضة تستحق العناء بالنسبة للبعض. وفقًا لـ Markets and Markets، يمكن أن تبلغ قيمة قطاع تقنيات معالجة اللغات الطبيعية، بما في ذلك تقنيات الترجمة، 35.1 مليار دولار بحلول عام 2026.

ومع ذلك، فإن استنساخ الذكاء الاصطناعي يشكل أيضًا تحديات أمنية.

انتشرت تقنية التزييف العميق كالنار في الهشيم عبر وسائل التواصل الاجتماعي، مما يجعل من الصعب التمييز بين الحقيقة والمعلومات المضللة. حتى الآن هذا العام، حصدت مقاطع التزييف العميق التي تضم الرئيس جو بايدن وتايلور سويفت ونائبة الرئيس كامالا هاريس ملايين المشاهدات وإعادة المشاركة. كما تم استخدام تقنية Deepfakes لاستهداف الأفراد، على سبيل المثال من خلال انتحال شخصية أحبائهم. تجاوزت الخسائر المرتبطة بعمليات احتيال انتحال الشخصية مليار دولار العام الماضي، وفقًا للجنة التجارة الفيدرالية.

في هذا العام فقط، ورد أن فريقًا من مجرمي الإنترنت نظم اجتماع Teams مع موظفي المستوى التنفيذي في الشركة، وكان الاجتماع مقنعًا للغاية لدرجة أن الشركة المستهدفة أرسلت 25 مليون دولار إلى المجرمين.

ويرجع ذلك جزئيًا إلى المخاطر (والبصريات)، قررت شركة OpenAI في وقت سابق من هذا العام عدم إطلاق تقنية استنساخ الصوت، Voice Engine.

مما تم الكشف عنه حتى الآن، يعد Interpreter in Teams تطبيقًا ضيقًا نسبيًا لاستنساخ الصوت. ومع ذلك، هذا لا يعني أن الأداة ستكون في مأمن من سوء الاستخدام. يمكن للمرء أن يتخيل ممثلًا سيئًا يغذي Interpreter تسجيلًا مضللاً – على سبيل المثال، شخص يطلب معلومات الحساب المصرفي – للحصول على ترجمة باللغة المستهدفة.

نأمل أن نحصل على فكرة أفضل عن وسائل الحماية التي ستضيفها Microsoft حول Interpreter في الأشهر القادمة.


اكتشاف المزيد من موقع fffm

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من موقع fffm

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading