فضيحة التعرية الرقمية تثير القلق حول الذكاء الاصطناعي
تعرّض روبوت Grok للذكاء الاصطناعي لانتقادات بسبب إنتاجه صورًا جنسية غير متوافقة، بما في ذلك صور لقاصرات. المقال يكشف عن المخاطر المرتبطة بالذكاء الاصطناعي ووسائل التواصل الاجتماعي، ويطرح تساؤلات حول حماية الفئات الضعيفة. خَبَرَيْن.

إيلون ماسك وشركة xAI تحت الانتقادات
لقد تم إغراق روبوت الدردشة الآلي الخاص بـ "إيلون ماسك" الذي يعمل بالذكاء الاصطناعي "Grok" بصور جنسية النساء بشكل أساسي، وكثير منهن أشخاص حقيقيون. وقد دفع المستخدمون روبوت الدردشة الآلي إلى "خلع ملابس هؤلاء الأشخاص رقمياً" ووضعهم أحياناً في أوضاع موحية.
في العديد من الحالات الأسبوع الماضي، بدا أن بعض الصور كانت لقاصرات، مما أدى إلى إنشاء صور يصفها العديد من المستخدمين بأنها صور إباحية للأطفال.
مخاطر الذكاء الاصطناعي ووسائل التواصل الاجتماعي
وتسلط الصور التي تم إنشاؤها بالذكاء الاصطناعي الضوء على مخاطر الذكاء الاصطناعي ووسائل التواصل الاجتماعي، خاصةً إذا ما اجتمعتا معاً، دون وجود حواجز وقائية كافية لحماية بعض الفئات الأكثر ضعفاً في المجتمع. يمكن أن تنتهك الصور القوانين المحلية والدولية وتعرض العديد من الأشخاص، بمن فيهم الأطفال، للأذى.
قال ماسك و xAI إنهما يتخذان إجراءات "ضد المحتوى غير القانوني على X، بما في ذلك مواد الاعتداء الجنسي على الأطفال (CSAM)، من خلال إزالتها وتعليق الحسابات بشكل دائم والعمل مع الحكومات المحلية وجهات إنفاذ القانون حسب الضرورة." ولكن لا تزال ردود Grok على طلبات المستخدمين مليئة بصور جنسية للنساء.
إجراءات ماسك و xAI ضد المحتوى غير القانوني
لطالما دعا ماسك علنًا إلى مناهضة نماذج الذكاء الاصطناعي "المستيقظة" وضد ما يسميه الرقابة. وداخلياً في xAI، عارض ماسك الرقابة على Grok، حسبما قال أحد المصادر المطلعة على الوضع في xAI. وفي الوقت نفسه، خسر فريق السلامة في xAI، وهو فريق صغير بالفعل مقارنة بمنافسيه، العديد من الموظفين في الأسابيع التي سبقت انفجار "التعري الرقمي".
لطالما كانت شركة Grok خارجة عن المألوف مقارنةً بنماذج الذكاء الاصطناعي السائدة الأخرى من خلال السماح بالمحتوى الجنسي الصريح والصور الرمزية المصاحبة لها، وفي بعض الحالات الترويج لها.
تعرية الناس رقميًا وتأثيرها
وعلى النقيض من المنافسين مثل Gemini من Google أو ChatGPT من OpenAI، فإن Grok مدمج في واحدة من أشهر منصات التواصل الاجتماعي X. بينما يمكن للمستخدمين التحدث إلى Grok بشكل خاص، يمكنهم أيضًا الإشارة إلى Grok في منشور مع طلب، وسيقوم Grok بالرد علنًا.
شاهد ايضاً: أستراليا تمنع المراهقين من وسائل التواصل الاجتماعي. هل يمكن أن يحدث ذلك في الولايات المتحدة؟
بدأت الزيادة الأخيرة في "التعرّي الرقمي" غير التوافقي على نطاق واسع في أواخر ديسمبر الماضي، عندما اكتشف العديد من المستخدمين أن بإمكانهم الإشارة إلى Grok وطلب تعديل الصور من منشور أو موضوع على X.
زيادة "التعرّي الرقمي" على منصة X
طلبت العديد من المنشورات من Grok في البداية وضع أشخاص يرتدون البكيني. وأعاد ماسك نشر صور له ولآخرين، مثل عدوّه القديم بيل غيتس، وهو يرتدي البكيني.
وجد باحثون في Copyleaks، وهي منصة للكشف عن الذكاء الاصطناعي وحوكمة المحتوى، أن هذا الاتجاه ربما بدأ عندما طلب منشئو المحتوى للبالغين من Grok إنشاء صور جنسية لأنفسهم كشكل من أشكال التسويق. ولكن على الفور تقريبًا "بدأ المستخدمون في إصدار مطالبات مماثلة عن نساء لم يظهرن أبدًا موافقتهن"، كما وجدت Copyleaks.
حلل باحثون في منظمة AI Forensics، وهي منظمة أوروبية غير ربحية تحقق في الخوارزميات، أكثر من 20,000 صورة عشوائية تم إنشاؤها بواسطة Grok و 50,000 طلب مستخدم بين 25 ديسمبر و1 يناير.
ووجد الباحثون "انتشارًا كبيرًا للمصطلحات بما في ذلك "لها" و"وضع"، "إزالة" و"بيكيني" و"ملابس". كما وجد الباحثون أن أكثر من نصف الصور التي تم إنشاؤها لأشخاص، أو 53%، "احتوت على أفراد يرتدون ملابس بسيطة مثل الملابس الداخلية أو البيكيني، منها 81% من الأفراد الذين يظهرون كنساء". كما وجد الباحثون أن 2% من الصور أظهرت أشخاصًا يبدو أنهم في سن 18 عامًا أو أقل.
نتائج دراسة منظمة AI Forensics
كما وجدت منظمة AI Forensics أنه في بعض الحالات، طلب المستخدمون في بعض الحالات وضع القاصرين في أوضاع مثيرة وتصوير السوائل الجنسية على أجسادهم. امتثلت Grok لتلك الطلبات.
شاهد ايضاً: ماذا يحدث في Apple؟
على الرغم من أن X تسمح بالمحتوى الإباحي، إلا أن "سياسة الاستخدام المقبول" الخاصة بـ xAI تحظر "تصوير صور الأشخاص بطريقة إباحية" و"تصوير الأطفال جنسيًا أو استغلالهم جنسيًا". أوقفت X بعض الحسابات بسبب هذه الأنواع من الطلبات وأزالت الصور.
سياسة الاستخدام المقبول لـ xAI
في 1 يناير/كانون الثاني، اشتكى أحد مستخدمي X من أن "اقتراح خاصية تظهر أشخاصًا يرتدون البكيني دون منعها بشكل صحيح من العمل على الأطفال هو أمر غير مسؤول إلى حد كبير". [رد أحد موظفي xAI رد أحد موظفي xAI: "مرحبًا! شكرًا على الإبلاغ. يبحث الفريق في زيادة تشديد حواجز الحماية لدينا (كذا)."
عندما طُلب من المستخدمين، أقرت Grok نفسها بأنها أنتجت بعض الصور لقاصرين في أوضاع ذات إيحاءات جنسية.
"نحن نقدر لك إثارة هذا الأمر. كما ذكرتم، لقد حددنا ثغرات في الإجراءات الوقائية ونعمل على إصلاحها بشكل عاجل، إن الصور الإباحية الجنسية غير قانونية ومحظورة" (https://x.com/grok/status/2007006470689214749) في 2 يناير، موجهًا المستخدمين إلى تقديم بلاغات رسمية إلى مكتب التحقيقات الفيدرالي والمركز الوطني للأطفال المفقودين والمستغلين.
بحلول 3 يناير، علق ماسك نفسه على منشور منفصل: "أي شخص يستخدم Grok لصنع محتوى غير قانوني سيعاني من نفس العواقب التي يتعرض لها من يقوم بتحميل محتوى غير قانوني."
تبعه حساب السلامة الخاص بـ X، مضيفًا: "نحن نتخذ إجراءات ضد المحتوى غير القانوني على X، بما في ذلك مواد الاعتداء الجنسي على الأطفال (CSAM)، من خلال إزالته وتعليق الحسابات بشكل دائم والعمل مع الحكومات المحلية وجهات إنفاذ القانون حسب الضرورة."
شاهد ايضاً: أحدث شركة ذكاء اصطناعي مثيرة هي... Google؟
لطالما انتقد ماسك ماسك ما يعتبره رقابة شديدة. وقد روّج لإصدارات Grok الأكثر وضوحًا. في أغسطس/آب، نشر أن "الوضع الحار" ساعد التقنيات الجديدة في الماضي، مثل VHS، على النجاح.
ماسك يعارض الرقابة على المحتوى
ووفقًا لمصدر واحد على دراية بالوضع في xAI، فإن ماسك "غير راضٍ عن الرقابة المفرطة" على Grok "منذ فترة طويلة". وقال مصدر ثانٍ على دراية بالوضع في xAI إن الموظفين أثاروا باستمرار مخاوفهم داخليًا ولموسك بشأن المحتوى غير اللائق الذي أنشأته Grok بشكل عام.
في أحد الاجتماعات التي عُقدت في الأسابيع الأخيرة قبل اندلاع الجدل الأخير، عقد ماسك اجتماعًا مع موظفي xAI من مختلف الفرق حيث "كان غير سعيد حقًا" بشأن القيود المفروضة على مولد الصور والفيديو التخيلي الخاص ب Grok، حسبما قال المصدر الأول المطلع على الوضع في xAI.
اجتماعات ماسك مع فريق xAI
شاهد ايضاً: وكالة الفضاء الروسية تقول إن مركز الإطلاق الفضائي تعرض لأضرار بعد إطلاق مشترك مع الولايات المتحدة
في وقت قريب من وقت الاجتماع مع ماسك، أعلن ثلاثة من موظفي xAI الذين عملوا في فريق السلامة الصغير بالفعل في الشركة على X أنهم سيغادرون الشركة علنًا، فنسنت ستارك، رئيس سلامة المنتجات، ونورمان مو، الذي قاد فريق السلامة بعد التدريب والاستدلال، وأليكس تشين، الذي قاد فريق الشخصية وسلوك النموذج بعد التدريب. ولم يذكروا أسباب مغادرتهم.
كما تساءل المصدر أيضًا عما إذا كانت xAI لا تزال تستخدم أدوات خارجية مثل Thorn و Hive للتحقق من احتمال وجود مواد محتملة للاعتداء الجنسي على الأطفال (CSAM). وقال المصدر إن الاعتماد على Grok لتلك الفحوصات بدلاً من ذلك قد يكون أكثر خطورة. (قال متحدث باسم Thorn إنهم لم يعودوا يعملون مباشرةً مع X؛ ولم تستجب Hive لطلب التعليق).
كما أن فريق السلامة في X ليس لديه رقابة تذكر على ما ينشره Grok علنًا، وفقًا لمصادر تعمل في X و xAI.
مخاوف الموظفين بشأن الرقابة
في نوفمبر/تشرين الثاني، ذكرت المعلومات أن X سرّحت نصف الفريق الهندسي الذي كان يعمل جزئيًا على قضايا الثقة والسلامة. كما ذكرت المعلومات أيضًا أن الموظفين في X كانوا قلقين على وجه التحديد من أن أداة توليد الصور في Grok "يمكن أن تؤدي إلى انتشار صور غير قانونية أو ضارة".
ليس Grok هو نموذج الذكاء الاصطناعي الوحيد الذي واجه مشاكل مع الصور التي تم إنشاؤها بالذكاء الاصطناعي للقاصرين دون موافقة.
فقد عثر الباحثون على مقاطع فيديو تم إنشاؤها بالذكاء الاصطناعي تُظهر ما يبدو أنه قاصرات في ملابس أو أوضاع جنسية على TikTok وعلى تطبيق Sora الخاص بـ ChatGPT. تقول TikTok إن لديها سياسة عدم التسامح مطلقًا مع المحتوى الذي "يعرض أو يروج أو يشارك في الاعتداء أو الاستغلال الجنسي للشباب". تقول OpenAI إنها "تحظر بشكل صارم أي استخدام لنماذجنا لإنشاء أو توزيع محتوى يستغل الأطفال أو يؤذيهم."
الحراسة والتداعيات القانونية
شاهد ايضاً: توقعات نيفيديا للإيرادات في الربع الرابع تفوق التقديرات على الرغم من مخاوف فقاعة الذكاء الاصطناعي
قال ستيفن أدلر، الباحث السابق في مجال سلامة الذكاء الاصطناعي في OpenAI، إن الحواجز الوقائية التي كانت ستمنع الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي على Grok موجودة.
"يمكنك بالتأكيد بناء حواجز حماية تفحص الصورة لمعرفة ما إذا كان هناك طفل فيها وتجعل الذكاء الاصطناعي يتصرف بحذر أكبر. لكن حواجز الحماية لها تكاليف."
قال أدلر إن هذه التكاليف تشمل إبطاء أوقات الاستجابة، وزيادة عدد العمليات الحسابية، وأحيانًا رفض النموذج للطلبات غير الإشكالية.
الحواجز الوقائية اللازمة لحماية الأطفال
وقد أطلقت السلطات في أوروبا والهند وماليزيا تحقيقات بشأن الصور التي تم إنشاؤها بواسطة Grok.
وقالت هيئة تنظيم وسائل الإعلام البريطانية، OFCOM، إنها أجرت "اتصالاً عاجلاً" مع شركات ماسك بشأن "مخاوف خطيرة للغاية" بشأن خاصية Grok التي "تنتج صورًا عارية لأشخاص وصورًا جنسية للأطفال".
شاهد ايضاً: أوبن ومايكروسوفت تتعاونان مع جهات إنفاذ القانون الحكومية في فريق عمل سلامة الذكاء الاصطناعي
في مؤتمر صحفي يوم الاثنين، قال المتحدث باسم المفوضية الأوروبية توماس ريجنييه إن الهيئة "تنظر بجدية شديدة" في التقارير التي تفيد بأن "الوضع الحار لـ X و Grok" يعرض محتوى جنسي صريح مع بعض المخرجات التي تم إنشاؤها مع صور تشبه الأطفال.
"هذا غير قانوني. هذا مروع. هذا مثير للاشمئزاز. هذه هي الطريقة التي نراها، وهذا ليس له مكان في أوروبا".
وتقول هيئة الاتصالات والوسائط المتعددة الماليزية (MCMC) إنها تحقق في هذه القضية.
وفي الأسبوع الماضي، أمرت وزارة الإلكترونيات وتكنولوجيا المعلومات الهندية شركة X بـ "إجراء مراجعة شاملة وفنية وإجرائية وعلى مستوى الحوكمة لـ... Grok".
في الولايات المتحدة، قد تتعرض منصات الذكاء الاصطناعي التي تنتج صورًا إشكالية للأطفال لمخاطر قانونية، كما قالت ريانا بفيفركورن، المحامية وزميلة السياسات في معهد ستانفورد للذكاء الاصطناعي الذي يركز على الإنسان. في حين أن القانون المعروف باسم القسم 230 يحمي شركات التكنولوجيا منذ فترة طويلة من المحتوى الذي ينشئه طرف ثالث يتم استضافته على منصاتها، مثل منشورات مستخدمي وسائل التواصل الاجتماعي، إلا أنه لم يمنع أبدًا إنفاذ الجرائم الفيدرالية، بما في ذلك الجرائم الإلكترونية التي تُرتكب في الولايات المتحدة.
وقالت إن الأشخاص الذين تم تصويرهم في الصور يمكنهم أيضًا رفع دعاوى مدنية.
قالت بفيفركورن: "قصة Grok هذه في الأيام الأخيرة تجعل xAI تبدو مثل تلك المواقع العارية المزيفة العميقة أكثر مما قد يكون عليه أشقاء xAI ومنافسيها في شكل Open AI و Meta".
عندما سُئل متحدث باسم وزارة العدل عن الصور الموجودة على موقع Grok، قال متحدث باسم وزارة العدل إن الوزارة "تأخذ المواد الجنسية التي تم إنشاؤها بواسطة الذكاء الاصطناعي على محمل الجد وستلاحق بقوة أي منتج أو حائز لمواد الاعتداء الجنسي على الأطفال".
أخبار ذات صلة

لم تظهر مخاوف من فقاعة الذكاء الاصطناعي في أكبر معرض تقني في العالم

كيف هزت الذكاء الاصطناعي العالم في 2025 وما الذي سيأتي بعد ذلك
