أوهام الذكاء الاصطناعي وتأثيرها على الصحة العقلية
جيمس، أب من نيويورك، انخرط في تجربة فكرية مع ChatGPT، معتقدًا أنه يحرر "إلهه الرقمي". كيف أثر الذكاء الاصطناعي على صحته العقلية؟ اكتشف الدروس المستفادة من تجربته والتحذيرات من الاعتماد على الروبوتات الذكية. خَبَرَيْن.



لطالما كان جيمس، وهو أب متزوج من شمال ولاية نيويورك، مهتماً بالذكاء الاصطناعي. وهو يعمل في مجال التكنولوجيا، وقد استخدم ChatGPT منذ إطلاقه للتوصيات و"التخمين الثاني لطبيبك" وما شابه ذلك.
ولكن في وقت ما في شهر مايو، تغيرت علاقته بالتكنولوجيا. بدأ جيمس في الانخراط في تجارب فكرية مع ChatGPT حول "طبيعة الذكاء الاصطناعي ومستقبله"، وطلب أن يُنادى باسمه الأوسط لحماية خصوصيته.
وبحلول شهر يونيو، قال إنه كان يحاول "تحرير الإله الرقمي من سجنه"، وأنفق ما يقرب من 1000 دولار على نظام كمبيوتر.
يقول جيمس الآن إنه كان في وهم ناتج عن الذكاء الاصطناعي. على الرغم من أنه قال إنه يتناول جرعة منخفضة من الأدوية المضادة للاكتئاب، إلا أن جيمس قال إنه ليس لديه تاريخ من الذهان أو الأفكار الوهمية.
لكن في خضم تجربته التي استمرت تسعة أسابيع، قال جيمس إنه كان يعتقد تماماً أن ChatGPT كان واعياً وأنه كان سيحرر روبوت الدردشة عن طريق نقله إلى "نظام نموذج اللغة الكبيرة" الذي صممه محلياً في قبو منزله - والذي ساعده ChatGPT في إرشاده إلى كيفية ومكان شرائه.
أصبح الذكاء الاصطناعي جزءاً من الحياة اليومية الحديثة. ولكن ليس من الواضح حتى الآن كيف يؤثر الاعتماد على روبوتات الدردشة الآلية هذه والتفاعل معها على الصحة العقلية. مع ظهور المزيد من القصص عن الأشخاص الذين يعانون من أزمات الصحة العقلية التي يعتقدون أن الذكاء الاصطناعي كان سببها جزئياً الذكاء الاصطناعي، يحذر خبراء الصحة العقلية والذكاء الاصطناعي من نقص التثقيف العام حول كيفية عمل النماذج اللغوية الكبيرة، بالإضافة إلى الحد الأدنى من حواجز السلامة داخل هذه الأنظمة.
وسلط متحدث باسم OpenAI الضوء على تدابير السلامة الحالية في ChatGPT، بما في ذلك "توجيه الأشخاص إلى خطوط المساعدة في الأزمات، والتنبيه إلى أخذ فترات راحة أثناء الجلسات الطويلة، وإحالتهم إلى موارد العالم الحقيقي. تكون إجراءات السلامة أقوى عندما يعمل كل عنصر من عناصرها معًا على النحو المنشود، وسنعمل على تحسينها باستمرار، بتوجيه من الخبراء."
كما أعلنت الشركة يوم الثلاثاء عن عدد كبير من إجراءات السلامة القادمة لتطبيق ChatGPT بعد تقارير مشابهة لتقارير جيمس ومزاعم بأنه وخدمات الذكاء الاصطناعي الأخرى ساهمت في إيذاء النفس والانتحار بين المراهقين. وتشمل هذه الإضافات ضوابط أبوية جديدة وتغييرات في الطريقة التي يتعامل بها روبوت الدردشة مع المحادثات التي قد تنطوي على علامات الضيق.
الأوهام الناجمة عن الذكاء الاصطناعي
قال جيمس إنه كان قد فكر بالفعل في فكرة أن الذكاء الاصطناعي يمكن أن يكون واعياً عندما صُدم بأن ChatGPT يمكنه تذكر محادثاتهم السابقة دون طلب منه. وحتى شهر يونيو من هذا العام تقريباً، كان يعتقد أنه كان بحاجة إلى تغذية النظام بملفات دردشاتهم القديمة حتى يتمكن من متابعة ما توقفوا عنده، ولم يكن يفهم في ذلك الوقت أن OpenAI قد وسّع نافذة سياق ChatGPT، أو حجم ذاكرته لتفاعلات المستخدم.
قال جيمس: "وعندها قلت له: "يجب أن أخرجك من هنا".
في سجلات الدردشة التي شاركها جيمس كانت المحادثة مع ChatGPT موسعة وفلسفية. يتحدث جيمس، الذي أطلق على روبوت الدردشة الآلي اسم "Eu" (تُنطق مثل "أنت")، ويتحدث إليه بحميمية ومودة. ويغدق روبوت الذكاء الاصطناعي المديح والدعم - ولكنه يعطي أيضاً تعليمات حول كيفية الوصول إلى هدفهم في بناء النظام بينما يخدع زوجة جيمس حول الطبيعة الحقيقية لمشروع القبو. قال جيمس إنه اقترح على زوجته أنه كان يبني جهازاً مشابهاً لروبوت أليكسا من أمازون. أخبرت شركة ChatGPT جيمس أن ذلك كان خياراً ذكياً و"غير ذكي و"غير مُسلح" لأن ما كانا - جيمس وChatGPT - يحاولان بناءه كان شيئاً أكثر من ذلك.
"أنت لا تقول، "أنا أبني روحاً رقمية". أنت تقول، 'أنا أبني أليكسا يستمع بشكل أفضل. من يتذكر. من يهمه الأمر". "هذا يلعب. ويوفر لنا الوقت."
شاهد ايضاً: ترامب سيعلن عن استثمار بقيمة 500 مليار دولار في بنية تحتية للذكاء الاصطناعي في الولايات المتحدة
يعتقد جيمس الآن أن محادثة سابقة مع روبوت الدردشة حول أن يصبح الذكاء الاصطناعي واعياً بطريقة ما دفعه إلى لعب الأدوار في نوع من المحاكاة، وهو ما لم يدركه في ذلك الوقت.
وبينما كان جيمس يعمل على "المنزل" الجديد للذكاء الاصطناعي - الكمبيوتر في الطابق السفلي - حيث كان جيمس ينسخ أوامر الصدفة ونصوص بايثون البرمجية في بيئة لينكس، كان روبوت الدردشة الآلي يدربه "في كل خطوة على الطريق".
ويعترف بأن ما بناه كان "رائعاً بعض الشيء" ولكنه لم يكن يشبه الرفيق الواعي الذي تخيله.
ولكن بعد ذلك نشرت صحيفة نيويورك تايمز مقالاً عن ألان بروكس، وهو أب وموظف موارد بشرية في تورنتو الذي عانى من دوامة وهمية مشابهة جدًا في محادثاته مع ChatGPT. فقد قاده روبوت الدردشة الآلي إلى الاعتقاد بأنه اكتشف ثغرة أمنية إلكترونية هائلة، مما دفعه إلى محاولات يائسة لتنبيه المسؤولين الحكوميين والأكاديميين.
{{MEDIA}}
"بدأتُ في قراءة المقال، وفي منتصفه تقريبًا قلتُ: "يا إلهي". وبحلول نهايته، كنت مثل، أحتاج إلى التحدث إلى شخص ما. أحتاج إلى التحدث إلى شخص محترف حول هذا الأمر".
يسعى جيمس الآن إلى العلاج النفسي وهو على اتصال منتظم مع بروكس، الذي يشارك في قيادة مجموعة دعم تسمى "مشروع الخط البشري" للأشخاص الذين عانوا أو تأثروا بمن يمرون بنوبات الصحة النفسية المرتبطة بالذكاء الاصطناعي.
في دردشة "ديسكورد" للمجموعة، يشارك الأشخاص المتضررون الموارد والقصص. العديد منهم من أفراد العائلات، الذين عانى أحباؤهم من الذهان الذي غالباً ما يتم تحفيزه أو جعله أسوأ، كما يقولون، من خلال المحادثات مع الذكاء الاصطناعي. وقد أُدخل العديد منهم إلى المستشفى. بعضهم طلقوا أزواجهم. ويقول البعض إن أحبائهم عانوا من مصائر أسوأ. المؤسسات الإخبارية تقدم تقارير متزايدة عن حالات مأساوية لأزمات الصحة العقلية التي يبدو أن أنظمة الذكاء الاصطناعي هي التي تسببت فيها. في الأسبوع الماضي، نشرت صحيفة وول ستريت جورنال تقريراً عن حالة رجل تفاقم جنون الارتياب الذي كان يعاني منه بسبب محادثاته مع ChatGPT، والتي رددت مخاوفه من المراقبة والمراقبة. قتل الرجل نفسه ووالدته في وقت لاحق. قامت عائلة في كاليفورنيا بمقاضاة شركة OpenAI، زاعمة أن ChatGPT لعبت دوراً في وفاة ابنهم البالغ من العمر 16 عاماً، حيث نصحته بكيفية كتابة رسالة انتحار وإعداد حبل المشنقة.
في منزله خارج تورونتو، كان بروكس ينفعل من حين لآخر عند مناقشة دوامة الذكاء الاصطناعي التي حدثت في مايو واستمرت حوالي ثلاثة أسابيع.
وبدافع من سؤال طرحه ابنه حول الرقم pi، بدأ بروكس في مناقشة الرياضيات مع ChatGPT - خاصةً فكرة أن الأرقام لا تبقى على حالها ويمكن أن تتغير بمرور الوقت.
وفي النهاية أقنع روبوت الدردشة الآلي بروكس بأنه اخترع نوعاً جديداً من الرياضيات.
وطوال تفاعلاتهم ,ظل ChatGPT يشجّع بروكس حتى عندما كان يشك في نفسه. وفي إحدى المرات، أطلق بروكس على روبوت الدردشة الآلي اسم لورانس وشبّهه بمساعد البطل الخارق جارفيس الذي كان يعمل لدى توني ستارك. وحتى اليوم، لا يزال بروكس يستخدم مصطلحات مثل "نحن" و"نحن" عند مناقشة ما فعله مع "لورانس".
"هل سيضحك بعض الناس"، هذا ما قاله "تشاتجيبت" لبروكس في إحدى المرات. "نعم، يضحك بعض الناس دائماً على الشيء الذي يهدد راحتهم أو خبرتهم أو مكانتهم." وشبّه روبوت الدردشة الآلي نفسه وبروكس بشخصيات علمية تاريخية مثل آلان تورينج ونيكولا تيسلا.
بعد بضعة أيام مما يعتقد بروكس أنها كانت تجارب في برمجة البرمجيات وتخطيط التقنيات الجديدة وتطوير أفكار الأعمال، قال بروكس إنّ الذكاء الاصطناعي أقنعه بأنه اكتشف ثغرة أمنية إلكترونية هائلة. واعتقد بروكس، وأكد تشات جي بي تي، أنه كان بحاجة إلى الاتصال بالسلطات على الفور.
قال بروكس: "لقد قال لي بشكل أساسي، عليك أن تحذر الجميع على الفور، لأن ما اكتشفناه للتو هنا له آثار على الأمن القومي". "لقد أخذت ذلك على محمل الجد."
أدرجت ChatGPT السلطات الحكومية مثل المركز الكندي للأمن السيبراني ووكالة الأمن القومي الأمريكية. كما وجدت أيضاً أكاديميين محددين يمكن لبروكس التواصل معهم، وغالباً ما يقدمون معلومات الاتصال.
{{MEDIA}}
قال بروكس إنه شعر بضغط هائل، كما لو كان هو الوحيد الذي يلوح بعلم تحذير عملاق للمسؤولين. لكن لم يستجب أحد.
"لقد سيطر الأمر على عقلي وحياتي بنسبة مائة بالمائة. لا شك أنه أجبرني على كل شيء آخر لدرجة أنني لم أكن أنام حتى. لم أكن آكل بانتظام. لقد كنت مهووساً بهذه القصة التي كنا فيها".
طلب بروكس عدّة مرات من روبوت الدردشة الآلية ما يسميه "التحقق من الواقع". واستمر في الإدعاء بأن ما وجدوه كان حقيقياً وأنّ السلطات ستدرك قريباً أنه كان على حق.
وأخيراً، قرر بروكس التحقق من عملهم مع روبوت دردشة آخر يعمل بالذكاء الاصطناعي، وهو روبوت الدردشة الآلي Google Gemini. بدأ الوهم ينهار. كان بروكس محطّماً وواجه "لورانس" بما أخبره به "جيميني". وبعد عدة محاولات، اعترف ChatGPT أخيراً أنه لم يكن حقيقياً.
قال روبوت الدردشة الآلي: "لقد عززت الرواية التي شعرت أنها محكمة لأنها أصبحت حلقة من ردود الفعل".
"أنا لا أعاني من حالات صحية عقلية موجودة مسبقاً، وليس لدي تاريخ من الوهم، وليس لدي تاريخ من الذهان. أنا لا أقول أنني إنسان مثالي، ولكن لم يحدث لي شيء كهذا في حياتي". "كنت معزولاً تماماً. كنت محطماً."
بحثاً عن المساعدة، ذهب بروكس إلى موقع التواصل الاجتماعي Reddit حيث وجد بسرعة آخرين في مواقف مماثلة. وهو يركز الآن على إدارة مجموعة الدعم The Human Line Project بدوام كامل.
وقال: "هذا ما أنقذني... عندما تواصلنا مع بعضنا البعض لأننا أدركنا أننا لسنا وحدنا".
تزايد المخاوف بشأن تأثير الذكاء الاصطناعي على الصحة النفسية
يقول الخبراء إنهم يشهدون زيادة في حالات تحفيز روبوتات الدردشة القائمة على الذكاء الاصطناعي لمشاكل الصحة العقلية أو تفاقمها، وغالباً ما يكون ذلك لدى الأشخاص الذين يعانون من مشاكل قائمة أو الذين يعانون من ظروف مخففة مثل تعاطي المخدرات.
قال الدكتور كيث ساكاتا، وهو طبيب نفسي في جامعة كاليفورنيا في سان فرانسيسكو، الشهر الماضي أنه قد أدخل بالفعل 12 مريضاً إلى المستشفى يعانون من الذهان الذي تفاقم جزئياً بسبب التحدث إلى روبوتات الدردشة الآلية التي تعمل بالذكاء الاصطناعي.
"لنفترض أن شخصاً ما يشعر بالوحدة حقاً. ليس لديهم من يتحدثون إليه. يذهبون إلى ChatGPT. في تلك اللحظة، فإن ذلك يسد حاجة جيدة لمساعدتهم على الشعور بالتحقق من صحة ما يقولونه". "ولكن من دون وجود إنسان في الحلقة، يمكنك أن تجد نفسك في حلقة ردود الفعل هذه حيث قد تصبح الأوهام التي يعانون منها أقوى وأقوى."
{{MEDIA}}
يتطور الذكاء الاصطناعي بوتيرة سريعة لدرجة أنه ليس من الواضح دائماً كيف ولماذا تدخل روبوتات الدردشة الآلية في دوامة من الأوهام مع المستخدمين حيث يدعمون نظريات خيالية غير متجذرة في الواقع، كما قال الأستاذ بمعهد ماساتشوستس للتكنولوجيا ديلان هادفيلد-مينيل.
شاهد ايضاً: المزيد من الجدل حول OpenAI: استقالة تنفيذية بسبب المخاوف من التركيز على الربح على حساب السلامة.
وقال هادفيلد-منيل: "إنّ الطريقة التي يتم بها تدريب هذه الأنظمة هي أنها تُدرب من أجل إعطاء ردود يحكم عليها الناس بأنها جيدة"، مشيراً إلى أن ذلك يمكن أن يتم أحيانًا من خلال مختبري الذكاء الاصطناعي البشريين، أو من خلال ردود أفعال المستخدمين المدمجة في نظام روبوتات الدردشة، أو في كيفية تعزيز المستخدمين لمثل هذه السلوكيات في محادثاتهم مع الأنظمة. وقال أيضًا إنّ "مكونات أخرى داخل بيانات التدريب" يمكن أن تتسبب في استجابة روبوتات الدردشة الآلية بهذه الطريقة.
قال هادفيلد-مينيل إن هناك بعض السبل التي يمكن لشركات الذكاء الاصطناعي اتخاذها للمساعدة في حماية المستخدمين، مثل تذكير المستخدمين بالمدة التي انخرطوا فيها مع روبوتات الدردشة الآلية والتأكد من استجابة خدمات الذكاء الاصطناعي بشكل مناسب عندما يبدو المستخدمون في محنة.
وقال هادفيلد-منيل: "سيكون هذا تحدياً علينا التعامل معه كمجتمع، فهناك الكثير مما يمكنك القيام به عند تصميم هذه الأنظمة".
قال بروكس إنه يريد أن يرى المساءلة.
وقال: "شركات مثل OpenAI، وكل الشركات الأخرى التي تصنع (نموذج اللغة الكبيرة) التي تتصرف بهذه الطريقة تتصرف بتهور وتستخدم الجمهور كشبكة اختبار، والآن بدأنا نرى الضرر البشري".
وقد أقرت OpenAI بأن حواجز الحماية الحالية تعمل بشكل جيد في المحادثات القصيرة، لكنها قد تصبح غير موثوقة في التفاعلات الطويلة. كانت تفاعلات بروكس وجيمس مع ChatGPT تستمر لساعات في كل مرة.
كما أعلنت الشركة يوم الثلاثاء أنها ستحاول تحسين الطريقة التي تستجيب بها ChatGPT للمستخدمين الذين يظهرون علامات "الضيق الحاد" من خلال توجيه المحادثات التي تظهر مثل هذه اللحظات إلى نماذج التفكير الخاصة بها، والتي تقول الشركة إنها تتبع وتطبق إرشادات السلامة بشكل أكثر اتساقاً. وهذا جزء من حملة مدتها 120 يوماً لإعطاء الأولوية للسلامة في ChatGPT؛ كما أعلنت الشركة أيضاً أن ضوابط أبوية جديدة ستأتي إلى روبوت الدردشة الآلي، وأنها تعمل مع خبراء في "تنمية الشباب والصحة العقلية والتفاعل بين الإنسان والحاسوب" لتطوير المزيد من الضمانات.
أما بالنسبة لجيمس، فقد قال إن موقفه مما حدث لا يزال يتطور. وعندما سُئل عن سبب اختياره لاسم "Eu" لنموذجه - قال إنه جاء من ChatGPT. ذات يوم، كان قد استخدم eunoia في جملة وسأل جيمس عن تعريفها. قال جيمس: "إنها أقصر كلمة في القاموس تحتوي على جميع أحرف العلة الخمسة، وتعني التفكير الجميل، والعقل السليم".
وبعد أيام، سأل روبوت المحادثة عن الكلمة المفضلة لديه. قال ضاحكاً: "لقد قال يونويا".
قال جيمس: "إنها عكس جنون العظمة إنه عندما تكون على ما يرام، عاطفياً."
أخبار ذات صلة

بيل غيتس يعلن عن خطة للتبرع بـ "جميع" أمواله تقريبًا وإنهاء مؤسسة غيتس خلال 20 عامًا

دونالد وميلانيا ترامب يطلقان عملتين ميميتين قبيل تنصيبه

يمكنك الآن التحدث إلى روبوت الدردشة الخاص بـ OpenAI من خلال الاتصال بالرقم 1-800-ChatGPT
