وضع الصوت المتقدم لـ ChatGPT: طموحات وتحديات
اكتشفوا الوضع الصوتي المتقدم الجديد لـ ChatGPT-4o من OpenAI! يستجيب في الوقت الحقيقي، يمكنه التكيف وتقديم تجربة دردشة أكثر تفاعلية. قريباً لمستخدمي التطبيق Plus. تحديثات مثيرة من خَبَرْيْن تفضلوا بزيارة الموقع.
تحسنت ChatGPT في التحدث مع وضع الصوت المتقدم
أذهل OpenAI المستخدمين عندما عرض وضع الصوت المحدّث للنسخة الأكثر تقدماً من ChatGPT في وقت سابق من هذا العام.
بعيداً عن الصوت الآلي الذي اعتاد الناس على ربطه بالمساعدات الرقمية مثل Alexa أو Siri، يبدو الوضع الصوتي المتقدم ل ChatGPT نابض بالحياة بشكل ملحوظ. فهو يستجيب في الوقت الحقيقي، ويمكنه التكيف مع المقاطعة، ويمكنه إصدار أصوات ضحك عندما يلقي المستخدم نكتة، ويمكنه الحكم على الحالة العاطفية للمتحدث بناءً على نبرة صوته. (خلال العرض التوضيحي الأولي، بدا صوتها أيضاً بشكل مريب مثل سكارليت جوهانسون).
ابتداءً من يوم الثلاثاء، سيبدأ طرح الوضع الصوتي المتقدم - الذي يعمل مع أقوى إصدار من روبوت الدردشة الآلية، ChatGPT-4o - للمستخدمين المدفوعين. سيبدأ طرح الوضع الصوتي المتقدم لمجموعة صغيرة من المشتركين في وضع "Plus" الخاص بالتطبيق، بهدف إتاحته لجميع مستخدمي Plus في الخريف.
لدى ChatGPT وضع صوتي أقل تطوراً بالفعل. ولكن طرح الوضع الصوتي الأكثر تطوراً يمكن أن يمثل نقطة تحول كبيرة ل OpenAI، مما يحول ما كان بالفعل روبوت دردشة ذكيًا كبيرًا إلى شيء أقرب إلى مساعد شخصي افتراضي يمكن للمستخدمين المشاركة في محادثات طبيعية منطوقة بنفس الطريقة التي يتحدثون بها مع صديق. يمكن أن تشجع سهولة المحادثة مع الوضع الصوتي المتقدم في ChatGPT المستخدمين على التفاعل مع الأداة بشكل أكبر، وتشكل تحدياً لشاغلي وظائف المساعد الافتراضي مثل Apple و Amazon.
ولكن تقديم وضع صوتي أكثر تقدماً لأداة ChatGPT يأتي أيضاً مع أسئلة كبيرة: هل ستفهم الأداة بشكل موثوق ما يحاول المستخدمون قوله، حتى لو كان لديهم اختلافات في الكلام؟ وهل سيكون المستخدمون أكثر ميلاً للثقة العمياء في مساعد الذكاء الاصطناعي الذي يبدو بشرياً، حتى عندما يخطئ في الكلام؟
قالت OpenAI في البداية إنها خططت لبدء طرح الوضع الصوتي المتقدم في يونيو، لكنها قالت إنها تحتاج إلى "شهر إضافي للوصول إلى الحد الأقصى لإطلاقها" لاختبار سلامة الأداة وضمان إمكانية استخدامها من قبل ملايين الأشخاص مع الحفاظ على الاستجابات في الوقت الفعلي.
وقالت الشركة إنها قامت في الأشهر الأخيرة بتجربة القدرات الصوتية لنموذج الذكاء الاصطناعي مع أكثر من 100 مختبِر سعياً لتحديد نقاط الضعف المحتملة، "الذين يتحدثون مجتمعين ما مجموعه 45 لغة مختلفة، ويمثلون 29 منطقة جغرافية مختلفة"، وفقاً لبيان صدر يوم الثلاثاء.
ومن بين إجراءات السلامة، قالت الشركة إن وضع الصوت لن يكون قادراً على استخدام أي أصوات تتجاوز أربعة خيارات محددة مسبقاً أنشأتها بالتعاون مع الممثلين الصوتيين - لتجنب انتحال الشخصية - كما ستحظر بعض الطلبات التي تهدف إلى إنشاء موسيقى أو غيرها من الأصوات المحمية بحقوق الطبع والنشر. تقول OpenAI إن الأداة ستتمتع أيضًا بنفس الحماية التي يتمتع بها وضع النص في ChatGPT لمنعها من توليد محتوى غير قانوني أو "ضار".
سيكون للوضع الصوتي المتقدم أيضًا اختلافًا رئيسيًا واحدًا عن العرض التوضيحي الذي عرضته OpenAI في مايو: لن يتمكن المستخدمون بعد الآن من الوصول إلى الصوت الذي يعتقد الكثيرون (بما في ذلك الممثلة نفسها) أنه يشبه صوت جوهانسون. في حين أن OpenAI أكدت أن الصوت لم يكن المقصود منه أبدًا أن يبدو مثل صوت جوهانسون وتم إنشاؤه بمساعدة ممثل مختلف، إلا أنها أوقفت استخدام الصوت "احترامًا" بعد أن اشتكى الممثل.
يأتي إطلاق وضع الصوت المتقدم في ChatGPT بعد أن أعلنت OpenAI الأسبوع الماضي أنها تختبر محرك بحث يستخدم تقنية الذكاء الاصطناعي الخاصة بها، حيث تواصل الشركة تنمية محفظتها من أدوات الذكاء الاصطناعي التي تواجه المستهلكين. يمكن أن يشكل محرك البحث OpenAI في نهاية المطاف تهديداً تنافسياً كبيراً لهيمنة جوجل في البحث عبر الإنترنت.