مخاطر الاعتماد العاطفي على ChatGPT: تقرير OpenAI
تقرير حصري: OpenAI تحذر من الاعتماد المفرط على ChatGPT! كيف يمكن أن يؤثر الوضع الصوتي المتقدم على العلاقات الاجتماعية والثقة بالذكاء الاصطناعي؟ اقرأ المزيد على موقع خَبَرْيْن.
قلق OpenAI من أن يصبح الناس معتمدين عاطفيًا على وضع الصوت الجديد ChatGPT
تشعر OpenAI بالقلق من أن يبدأ الناس في الاعتماد على ChatGPT أكثر من اللازم في الرفقة، مما قد يؤدي إلى "الاعتماد"، بسبب وضع الصوت الجديد الذي يبدو كصوت الإنسان.
جاء هذا الكشف في تقرير صدر يوم الخميس من OpenAI حول مراجعة السلامة التي أجرتها للأداة التي بدأ طرحها للمستخدمين المدفوعين الأسبوع الماضي ونموذج الذكاء الاصطناعي اللغوي الكبير الذي تعمل عليه.
يبدو الوضع الصوتي المتقدم لـ ChatGPT نابض بالحياة بشكل ملحوظ. فهو يستجيب في الوقت الحقيقي، ويمكنه التكيف مع المقاطعة، ويصدر أنواع الضوضاء التي يصدرها البشر أثناء المحادثات مثل الضحك أو "همهمة". ويمكنه أيضاً الحكم على الحالة العاطفية للمتحدث بناءً على نبرة صوته.
في غضون دقائق من إعلان OpenAI عن هذه الميزة في حدث في وقت سابق من هذا العام، تمت مقارنتها بالمساعد الرقمي للذكاء الاصطناعي في فيلم "Her" عام 2013، والذي تقع بطلة الفيلم في حبه، إلا أنها تُترك محطمة القلب عندما يعترف الذكاء الاصطناعي بأن "هي" لديها أيضًا علاقات مع مئات المستخدمين الآخرين.
والآن، يبدو أن شركة OpenAI تشعر بالقلق من أن هذه القصة الخيالية قريبة جداً من أن تصبح واقعاً، بعد أن قالت إنها لاحظت مستخدمين يتحدثون إلى الوضع الصوتي لـ ChatGPT بلغة "تعبر عن الروابط المشتركة" مع الأداة.
في نهاية المطاف، "قد يشكل المستخدمون في نهاية المطاف علاقات اجتماعية مع الذكاء الاصطناعي، مما يقلل من حاجتهم للتفاعل البشري مما قد يفيد الأفراد الوحيدين ولكن ربما يؤثر على العلاقات الصحية"، كما جاء في التقرير. ويضيف التقرير أن سماع المعلومات من الروبوت الذي يبدو وكأنه إنسان قد يدفع المستخدمين إلى الثقة في الأداة أكثر مما ينبغي، نظراً لميل الذكاء الاصطناعي إلى الخطأ في فهم الأمور.
يسلط التقرير الضوء على الخطر الكبير الذي يحيط بالذكاء الاصطناعي: تتسابق شركات التكنولوجيا لطرح أدوات الذكاء الاصطناعي للجمهور بسرعة والتي يقولون إنها يمكن أن تقلب الطريقة التي نعيش ونعمل ونتواصل اجتماعيًا ونجد المعلومات. لكنهم يفعلون ذلك قبل أن يفهم أي شخص حقاً ما هي تلك الآثار المترتبة على ذلك. وكما هو الحال مع العديد من التطورات التكنولوجية، غالبًا ما يكون لدى الشركات فكرة واحدة عن كيفية استخدام أدواتها وينبغي أن تستخدمها، ولكن المستخدمين يأتون بمجموعة كاملة من التطبيقات المحتملة الأخرى، وغالبًا ما يكون لها عواقب غير مقصودة.
وقد بدأ بعض الأشخاص بالفعل في تكوين ما يصفونه بالعلاقات الرومانسية مع روبوتات الدردشة القائمة على الذكاء الاصطناعي، مما أثار قلق خبراء العلاقات.
قالت ليزل شرابي، الأستاذة في جامعة ولاية أريزونا التي تدرس التكنولوجيا والتواصل البشري، في مقابلة مع شبكة CNN في يونيو: "تقع مسؤولية كبيرة على عاتق الشركات لتوجيه هذا الأمر بطريقة أخلاقية ومسؤولة، وكلها في مرحلة التجريب في الوقت الحالي". "أنا قلقة بشأن الأشخاص الذين يكوّنون علاقات عميقة حقًا مع تقنية قد لا تكون موجودة على المدى الطويل وتتطور باستمرار."
قالت OpenAI إن تفاعل المستخدمين البشر مع الوضع الصوتي لـ ChatGPT يمكن أن يؤثر أيضاً مع مرور الوقت على ما يعتبر طبيعياً في التفاعلات الاجتماعية.
وقالت الشركة في التقرير: "إن نماذجنا تتسم بالاحترام، مما يسمح للمستخدمين بالمقاطعة و"أخذ الميكروفون" في أي وقت، وهو أمر متوقع بالنسبة للذكاء الاصطناعي، إلا أنه سيكون مخالفاً للمعايير في التفاعلات البشرية".
في الوقت الحالي، تقول OpenAI إنها ملتزمة ببناء الذكاء الاصطناعي "بأمان"، وتخطط لمواصلة دراسة إمكانية "الاعتماد العاطفي" من قبل المستخدمين على أدواتها.