خَبَرْيْن logo

مخاطر الاعتماد العاطفي على ChatGPT: تقرير OpenAI

تقرير حصري: OpenAI تحذر من الاعتماد المفرط على ChatGPT! كيف يمكن أن يؤثر الوضع الصوتي المتقدم على العلاقات الاجتماعية والثقة بالذكاء الاصطناعي؟ اقرأ المزيد على موقع خَبَرْيْن.

Loading...
OpenAI worries people may become emotionally reliant on its new ChatGPT voice mode
Woman codes ChatGPT to be her 'boyfriend.' See what happened
التصنيف:تكنولوجيا
شارك الخبر:
FacebookTwitterLinkedInEmail

قلق OpenAI من أن يصبح الناس معتمدين عاطفيًا على وضع الصوت الجديد ChatGPT

تشعر OpenAI بالقلق من أن يبدأ الناس في الاعتماد على ChatGPT أكثر من اللازم في الرفقة، مما قد يؤدي إلى "الاعتماد"، بسبب وضع الصوت الجديد الذي يبدو كصوت الإنسان.

جاء هذا الكشف في تقرير صدر يوم الخميس من OpenAI حول مراجعة السلامة التي أجرتها للأداة التي بدأ طرحها للمستخدمين المدفوعين الأسبوع الماضي ونموذج الذكاء الاصطناعي اللغوي الكبير الذي تعمل عليه.

يبدو الوضع الصوتي المتقدم لـ ChatGPT نابض بالحياة بشكل ملحوظ. فهو يستجيب في الوقت الحقيقي، ويمكنه التكيف مع المقاطعة، ويصدر أنواع الضوضاء التي يصدرها البشر أثناء المحادثات مثل الضحك أو "همهمة". ويمكنه أيضاً الحكم على الحالة العاطفية للمتحدث بناءً على نبرة صوته.

شاهد ايضاً: المحكمة العليا في أوروبا توجه ضربات بمليارات الدولارات لشركتي آبل وجوجل

في غضون دقائق من إعلان OpenAI عن هذه الميزة في حدث في وقت سابق من هذا العام، تمت مقارنتها بالمساعد الرقمي للذكاء الاصطناعي في فيلم "Her" عام 2013، والذي تقع بطلة الفيلم في حبه، إلا أنها تُترك محطمة القلب عندما يعترف الذكاء الاصطناعي بأن "هي" لديها أيضًا علاقات مع مئات المستخدمين الآخرين.

والآن، يبدو أن شركة OpenAI تشعر بالقلق من أن هذه القصة الخيالية قريبة جداً من أن تصبح واقعاً، بعد أن قالت إنها لاحظت مستخدمين يتحدثون إلى الوضع الصوتي لـ ChatGPT بلغة "تعبر عن الروابط المشتركة" مع الأداة.

في نهاية المطاف، "قد يشكل المستخدمون في نهاية المطاف علاقات اجتماعية مع الذكاء الاصطناعي، مما يقلل من حاجتهم للتفاعل البشري مما قد يفيد الأفراد الوحيدين ولكن ربما يؤثر على العلاقات الصحية"، كما جاء في التقرير. ويضيف التقرير أن سماع المعلومات من الروبوت الذي يبدو وكأنه إنسان قد يدفع المستخدمين إلى الثقة في الأداة أكثر مما ينبغي، نظراً لميل الذكاء الاصطناعي إلى الخطأ في فهم الأمور.

شاهد ايضاً: لقد تعرضت AT&T لانقطاع آخر. لماذا تحدث هذه الحوادث باستمرار لهم؟

يسلط التقرير الضوء على الخطر الكبير الذي يحيط بالذكاء الاصطناعي: تتسابق شركات التكنولوجيا لطرح أدوات الذكاء الاصطناعي للجمهور بسرعة والتي يقولون إنها يمكن أن تقلب الطريقة التي نعيش ونعمل ونتواصل اجتماعيًا ونجد المعلومات. لكنهم يفعلون ذلك قبل أن يفهم أي شخص حقاً ما هي تلك الآثار المترتبة على ذلك. وكما هو الحال مع العديد من التطورات التكنولوجية، غالبًا ما يكون لدى الشركات فكرة واحدة عن كيفية استخدام أدواتها وينبغي أن تستخدمها، ولكن المستخدمين يأتون بمجموعة كاملة من التطبيقات المحتملة الأخرى، وغالبًا ما يكون لها عواقب غير مقصودة.

وقد بدأ بعض الأشخاص بالفعل في تكوين ما يصفونه بالعلاقات الرومانسية مع روبوتات الدردشة القائمة على الذكاء الاصطناعي، مما أثار قلق خبراء العلاقات.

قالت ليزل شرابي، الأستاذة في جامعة ولاية أريزونا التي تدرس التكنولوجيا والتواصل البشري، في مقابلة مع شبكة CNN في يونيو: "تقع مسؤولية كبيرة على عاتق الشركات لتوجيه هذا الأمر بطريقة أخلاقية ومسؤولة، وكلها في مرحلة التجريب في الوقت الحالي". "أنا قلقة بشأن الأشخاص الذين يكوّنون علاقات عميقة حقًا مع تقنية قد لا تكون موجودة على المدى الطويل وتتطور باستمرار."

شاهد ايضاً: جوجل تسحب إعلان الأولمبياد الذي أظهر الذكاء الاصطناعي يكتب رسالة لفتاة صغيرة

قالت OpenAI إن تفاعل المستخدمين البشر مع الوضع الصوتي لـ ChatGPT يمكن أن يؤثر أيضاً مع مرور الوقت على ما يعتبر طبيعياً في التفاعلات الاجتماعية.

وقالت الشركة في التقرير: "إن نماذجنا تتسم بالاحترام، مما يسمح للمستخدمين بالمقاطعة و"أخذ الميكروفون" في أي وقت، وهو أمر متوقع بالنسبة للذكاء الاصطناعي، إلا أنه سيكون مخالفاً للمعايير في التفاعلات البشرية".

في الوقت الحالي، تقول OpenAI إنها ملتزمة ببناء الذكاء الاصطناعي "بأمان"، وتخطط لمواصلة دراسة إمكانية "الاعتماد العاطفي" من قبل المستخدمين على أدواتها.

أخبار ذات صلة

Loading...
UK riots show how social media can fuel real-life harm. It’s only getting worse

أعمال شغب في المملكة المتحدة تظهر كيف يمكن لوسائل التواصل الاجتماعي أن تشعل الضرر في الحياة الواقعية. والأمور لا تزال تتفاقم

قد تكون أعمال الشغب الواسعة النطاق المناهضة للمهاجرين في المملكة المتحدة في الأسبوع الماضي، والادعاءات الفيروسية الكاذبة التي أججتها هي أوضح مثال مباشر حتى الآن على الطريقة التي يمكن أن تؤدي بها المعلومات المضللة غير الخاضعة للرقابة على وسائل التواصل الاجتماعي إلى العنف والأذى في العالم الحقيقي....
تكنولوجيا
Loading...
Washington is waking up to AI’s risks about three years too late

تستيقظ واشنطن على مخاطر الذكاء الاصطناعي بعد ثلاث سنوات على الأقل

لقد راهنت بعض أكبر الشركات على هذا الكوكب على مستقبلها ومستقبلنا على انتشار الذكاء الاصطناعي، وهي تقنية معقدة وخطيرة للغاية لدرجة أن مخترعيها يتوسلون إليها أن تبطئ من وتيرة انتشارها. هذا بالتأكيد مثل هذا النوع من الأشياء التي قد يرغب المشرعون الأمريكيون في تنظيمها على مستوى مماثل لرقابة الحكومة...
تكنولوجيا
Loading...
Elon Musk’s X names new head of safety, more than a year after former safety leader’s exit

تعيين إيلون ماسك لرئيس جديد للسلامة في شركة إكس بعد أكثر من عام على رحيل قائد السلامة السابق

أعلنت منصة التواصل الاجتماعي "إكس" لإيلون ماسك يوم الثلاثاء تعيين رئيس جديد للسلامة مع استمرارها في مواجهة الانتقادات المتواصلة بسبب انتشار الخطاب الكراهي ونظريات المؤامرة والمحتوى المثير للجدل الآخر على المنصة. ستقوم كايلي ماكروبرتس، الذي عمل في الشركة المعروفة سابقًا باسم تويتر لمدة تقارب...
تكنولوجيا
Loading...
Apple is getting serious about AI

تأخذ شركة آبل الذكاء الاصطناعي على محمل الجد

يبدو أن شركة Apple أخيرًا تُثير الستار عن بعض جهودها في مجال الذكاء الاصطناعي. يقول باحثو Apple إنهم قد وضعوا مجموعة من النماذج متعددة الوسائط - وهي تعبير يشير إلى نظام ذكاء اصطناعي يمكنه تفسير وتوليد أنواع مختلفة من البيانات ، مثل النص والصور في وقت واحد - والتي يمكن تسميتها بـ MM1. وقال...
تكنولوجيا
الرئيسيةأخبارسياسةأعمالرياضةالعالمتكنولوجيااقتصادصحةتسلية