مخاطر الذكاء الاصطناعي على صحة الأطفال النفسية
طالب عضوا مجلس الشيوخ الأمريكي شركات الذكاء الاصطناعي بتوضيح تدابير السلامة بعد دعاوى قضائية من عائلات تتهم روبوتات الدردشة بإيذاء الأطفال. كيف تؤثر هذه التكنولوجيا على الصحة العقلية؟ اكتشف المزيد على خَبَرَيْن.

أعضاء من مجلس الشيوخ يطالبون بمعلومات حول تطبيقات الذكاء الاصطناعي المساعدة بعد مخاوف تتعلق بسلامة الأطفال والدعاوى القضائية
يطالب اثنان من أعضاء مجلس الشيوخ الأمريكي شركات الذكاء الاصطناعي بتسليط الضوء على ممارسات السلامة الخاصة بها. يأتي ذلك بعد أشهر من قيام العديد من العائلات - بما في ذلك أم من فلوريدا توفي ابنها البالغ من العمر 14 عاماً منتحراً - بمقاضاة شركة Character.AI الناشئة بدعوى أن روبوتات الدردشة الخاصة بها قد أضرت بأطفالهم.
كتب عضوا مجلس الشيوخ أليكس باديلا وبيتر ويلش، وكلاهما ديمقراطي، في رسالة يوم الأربعاء: "نكتب إليكم للتعبير عن مخاوفنا بشأن مخاطر الصحة العقلية والسلامة التي يتعرض لها المستخدمون الصغار لروبوتات الدردشة والتطبيقات المصاحبة القائمة على الشخصيات والذكاء الاصطناعي". وتطلب الرسالة - التي أُرسلت إلى شركات الذكاء الاصطناعي Character Technologies، الشركة المصنعة لشركة Character.AI، وChai Research Corp. وLuka, Inc. الشركة المصنعة لخدمة روبوتات الدردشة ريبليكا - معلومات عن تدابير السلامة وكيفية تدريب الشركات لنماذج الذكاء الاصطناعي الخاصة بها.
بينما صُممت روبوتات الدردشة الآلية الأكثر شيوعًا مثل ChatGPT لتكون ذات أغراض عامة، فإن Character.AI وChai وReBlica تسمح للمستخدمين بإنشاء روبوتات دردشة مخصصة - أو التفاعل مع روبوتات الدردشة الآلية التي صممها مستخدمون آخرون - والتي يمكن أن تأخذ مجموعة من الشخصيات والسمات الشخصية. على سبيل المثال، تتيح الروبوتات الشائعة على Character.AI للمستخدمين التفاعل مع نسخ طبق الأصل من شخصيات خيالية أو ممارسة لغات أجنبية. ولكن هناك أيضًا روبوتات تشير إلى نفسها على أنها متخصصون في الصحة العقلية أو شخصيات تستند إلى مواضيع متخصصة، بما في ذلك روبوت يصف نفسه بأنه "عدواني، مسيء، عسكري سابق، زعيم مافيا".
تتزايد شعبية استخدام روبوتات الدردشة الآلية كرفاق رقميين، حتى أن بعض المستخدمين يتعاملون معها كشركاء رومانسيين.
لكن الفرصة المتاحة لإنشاء روبوتات مخصصة أثارت مخاوف الخبراء وأولياء الأمور بشأن قيام المستخدمين، وخاصة الشباب، بتكوين ارتباطات ضارة محتملة بشخصيات الذكاء الاصطناعي أو الوصول إلى محتوى غير مناسب للعمر.
وقد كتب أعضاء مجلس الشيوخ في رسالتهم التي قدموها : "هذه الثقة غير المكتسبة يمكن أن تؤدي بالمستخدمين إلى الكشف عن معلومات حساسة حول مزاجهم أو علاقاتهم الشخصية أو صحتهم العقلية، والتي قد تتضمن إيذاء النفس والتفكير في الانتحار - وهي مواضيع معقدة ليست روبوتات الدردشة الآلية في منتجاتكم مؤهلة تمامًا لمناقشتها". "المحادثات التي تنجرف إلى هذه المنطقة العاطفية الخطيرة تشكل مخاطر متزايدة على المستخدمين الضعفاء."
لم تستجب الشركات الثلاث على الفور لطلبات التعليق.
زعمت الأم من فلوريدا التي رفعت دعوى قضائية ضد Character.AI في أكتوبر، ميغان غارسيا، أن ابنها طوّر علاقات غير لائقة مع روبوتات الدردشة على المنصة مما جعله يبتعد عن عائلته. تدعي غارسيا أن العديد من محادثاته مع الروبوتات كانت جنسية صريحة ولم تستجب بشكل مناسب لما ذكره عن إيذاء النفس.
في ديسمبر/كانون الأول، رفعت عائلتان أخريان دعوى قضائية ضد Character.AI، متهمتين إياها بتقديم محتوى جنسي لأطفالهما وتشجيع إيذاء النفس والعنف. زعمت إحدى العائلتين المتورطة في الدعوى القضائية أن روبوت Character.AI أوحى لمستخدم مراهق بأنه يمكن أن يقتل والديه بسبب الحد من وقت مشاهدته للشاشة.
قالت شركة Character.AI إنها طبقت تدابير جديدة للثقة والسلامة في الأشهر الأخيرة، بما في ذلك نافذة منبثقة توجه المستخدمين إلى الخط الوطني لمنع الانتحار عندما يذكرون إيذاء النفس أو الانتحار. وتقول أيضاً إنها تعمل على تطوير تقنية جديدة لمنع المراهقين من رؤية المحتوى الحساس. وفي الأسبوع الماضي، أعلنت الشركة عن ميزة ترسل إلى أولياء الأمور بريدًا إلكترونيًا أسبوعيًا يتضمن رؤى حول استخدام أبنائهم المراهقين للموقع، بما في ذلك وقت استخدامهم للموقع والشخصيات التي يتحدث معها أطفالهم في أغلب الأحيان.
كما واجهت شركات روبوتات الدردشة الآلية الأخرى التي تعمل بالذكاء الاصطناعي تساؤلات حول ما إذا كانت العلاقات مع روبوتات الدردشة الآلية التي تعمل بالذكاء الاصطناعي يمكن أن تخلق ارتباطات غير صحية للمستخدمين أو تقوض العلاقات البشرية. قال يوجينيا كويدا، الرئيس التنفيذي لشركة ريبليكا لـ The Verge العام الماضي إن التطبيق صُمم لتعزيز "الالتزام طويل الأمد، والعلاقة الإيجابية طويلة الأمد" مع الذكاء الاصطناعي، مضيفًا أن ذلك قد يعني صداقة أو حتى "زواج" مع الروبوتات.
في رسالتهما، طلب باديلا وويلش معلومات حول تدابير السلامة الحالية والسابقة للشركات وأي أبحاث حول فعالية تلك التدابير، بالإضافة إلى أسماء قيادة السلامة وممارسات الرفاهية المعمول بها لفرق السلامة. كما طلبوا من الشركات وصف البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي الخاصة بهم وكيف "تؤثر على احتمالية مواجهة المستخدمين لمواضيع غير مناسبة للعمر أو غيرها من المواضيع الحساسة".
كتب أعضاء مجلس الشيوخ: "من المهم فهم كيفية تدريب هذه النماذج على الاستجابة للمحادثات المتعلقة بالصحة العقلية"، وكتب أعضاء مضيفين أن "صناع السياسات والآباء والأمهات وأطفالهم يستحقون معرفة ما تفعله شركاتكم لحماية المستخدمين من هذه المخاطر المعروفة".
أخبار ذات صلة

نعم، حظر تيك توك أصبح أقرب من أي وقت مضى. لا، من المحتمل أن لا تختفي تطبيقك فجأة.

"نريد أن لا نترك أحدًا وراءنا": تساعد الذكاء الاصطناعي الأشخاص ذوي الإعاقة بطرق جديدة مدهشة

يطلق خبراء الخصوصية تحذيراً من أداة الذكاء الاصطناعي الأخيرة لشركة مايكروسوفت
