مستنقع الذكاء الاصطناعي: مشاركات مزيفة وتأثيرات محتملة
مغامرات في مستنقع الذكاء الاصطناعي: كيف يُغمر الذكاء الاصطناعي فيسبوك بالمحتوى المزيف والمضلل؟ اكتشف كيف يمكن أن يستخدم المتلاعبون الذكاء الاصطناعي لخلق صور ومحتوى مضلل، وماذا يمكنك فعله لمواجهته. على موقع خَبَرْيْن.
ليس فقط أنت. المزيد من الرسائل غير المرغوبة الغريبة تظهر على فيسبوك
إذا استوقفتك صورة غريبة مؤخرًا أثناء تصفح صفحتك على فيسبوك، فأنت لست وحدك.
فالمستخدمون الذين كانوا يأتون إلى فيسبوك للتواصل مع الأصدقاء والعائلة يشتكون بشكل متزايد من ظهور محتوى عشوائي غير مرغوب فيه يبدو أن معظمه من إنتاج الذكاء الاصطناعي في خلاصاتهم.
في بعض الأحيان يكون من الواضح أنها صور مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي، مثل صورة "يسوع الروبيان" الشهيرة الآن. وفي أحيان أخرى، تكون منشورات قديمة لمنشئي محتوى حقيقيين تبدو وكأنها تُعاد مشاركتها من قبل حسابات روبوتية من أجل المشاركة. في بعض الحالات، هي صفحات تشارك تدفقات من محتوى يبدو حميداً ولكن عشوائياً ميمات أو مقاطع أفلام، تتم مشاركتها كل بضع ساعات.
لكن الرسائل المزعجة هي أكثر من مجرد إزعاج، إذ يمكن أن تكون سلاحاً. تظهر بعض صفحات البريد المزعج مصممة لخداع المستخدمين الآخرين. وفي الحالات القصوى، يمكن في نهاية المطاف استخدام صفحات الرسائل غير المرغوب فيها التي تكتسب متابعين في نهاية المطاف، على سبيل المثال، من قبل جهات أجنبية تسعى إلى زرع الفتنة قبل الانتخابات، وفقًا للخبراء الذين يدرسون السلوك غير الحقيقي على الإنترنت.
تتزامن هذه الزيادة مع تحول استراتيجي مقصود في فيسبوك في السنوات القليلة الماضية. فقد قللت الشركة من التركيز على الأحداث الجارية والسياسة في أعقاب الادعاءات بأنها ساهمت في التلاعب بالانتخابات والعنف في العالم الحقيقي. وبعد أن شعر فيسبوك بضغط صعود تطبيق TikTok وتركيزه على الترفيه على حساب التواصل الاجتماعي، أعاد تصميم الخلاصات الرئيسية للمستخدمين إلى "محرك اكتشاف" على أمل أن يتفاعل الناس مع محتوى قد لا يشاهدونه بطريقة أخرى.
لكن الضغط من أجل المزيد من المحتوى "القابل للاكتشاف" أدى إلى خوارزمية تدفع بانتظام بمحتوى تافه ومضلل في كثير من الأحيان من إنتاج الكمبيوتر.
لقد كان التغيير ملموساً. فقد ظهر المحتوى الذي تم إنشاؤه بالذكاء الاصطناعي أو المحتوى الميمي المعاد تدويره في قائمة المحتوى الأكثر مشاهدة على فيسبوك كل ثلاثة أشهر. وفي بعض الأحيان، تتلقى المنشورات التي تحتوي على صور من الواضح أنها من إنشاء الذكاء الاصطناعي وتعليقات مربكة آلاف الإعجابات ومئات التعليقات والمشاركات.
يقول الخبراء إن الجهات الفاعلة السيئة والمزارعين المتفاعلين سعداء للغاية لتلبية طلب فيسبوك على المحتوى الجديد. وقد سهّل انتشار أدوات الذكاء الاصطناعي عليهم إنتاج كميات هائلة من الصور والنصوص المزيفة بسرعة.
وقال بن ديكر، الرئيس التنفيذي لشركة Memetica لتحليل التهديدات عبر الإنترنت: "إنه أمر مثير للاهتمام حقًا بدأ الكثير من الناس يتحدثون عنه لأنه مشكلة عشوائية نوعًا ما الآن، ولكن من الواضح أن هناك مخاوف نظرية طويلة الأجل".
من جانبها، تعمل شركة فيسبوك الأم "ميتا" على "إزالة وتقليل انتشار المحتوى غير المرغوب فيه لضمان تجربة إيجابية للمستخدمين، حيث تقدم للمستخدمين ضوابط على خلاصتهم وتشجع المبدعين على استخدام أدوات الذكاء الاصطناعي لإنتاج محتوى عالي الجودة يلبي معايير مجتمعنا"، حسبما قالت المتحدثة باسم الشركة إيرين لوغان في بيان. "كما أننا نتخذ إجراءات ضد أولئك الذين يحاولون التلاعب بحركة المرور من خلال المشاركة غير الموثوقة، بغض النظر عما إذا كانوا يستخدمون الذكاء الاصطناعي أم لا."
مغامرات في مستنقع الذكاء الاصطناعي
قبل أن أبدأ في تغطية هذه القصة في يوليو، كانت صفحتي على فيسبوك تبدو طبيعية جدًا، حيث كانت تضم صور الأطفال من أصدقاء الجامعة وقوائم من سوق فيسبوك.
ولكن، بدافع الفضول بشأن الشكاوى، بدأت بالنقر على أي محتوى أراه يبدو غريبًا، وبدأت الخوارزمية في العمل. والآن، بعد مرور أسابيع، يبدو أن كل ثالث منشور تقريبًا في خلاصتي هو ما يسمى "قذارة الذكاء الاصطناعي".
أحد الأمثلة الحديثة: صورة بالأبيض والأسود تُظهر كوخًا في الغابة مع عائلة تجلس أمامه، شاركتها صفحة تسمى "التاريخ للجميع".
للوهلة الأولى، يبدو المنشور للوهلة الأولى وكأنه شيء قد تجده في كتاب تاريخ. ولكن عند التدقيق في الصورة، تبدو ملامح وجه الأشخاص في الصورة غير واضحة وغير محددة، وتبدو أيدي الأطفال وأقدامهم وكأنها تختفي في المشهد المحيط بهم، وهي من السمات المميزة للصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
يدعي تعليق المنشور أن الصورة التقطت في عام 1910 في نيوجيرسي في "كوخ صغير في مستنقع فورسيثي، تسكنه عائلة دي ماركو، 10 أفراد من العائلة يعيشون في هذه الغرفة الواحدة"، من قبل مصور اللجنة الوطنية لعمل الأطفال لويس هاين. دفعني الفضول لنسخ التعليق الكامل في جوجل، والذي أرشدني إلى التعليق الحقيقي لصورة مختلفة تمامًا نشرتها مكتبة الكونجرس.
أدخلت الصورة المنشورة على فيسبوك في بحث عكسي عن الصور على غوغل، وكانت الأماكن الأخرى الوحيدة التي ظهرت فيها الصورة على الإنترنت هي مجموعتان أخريان مشابهتان على فيسبوك باسم "ذكريات الماضي" و"صور التاريخ".
من المستحيل أن نقول بشكل قاطع كيف تم إنشاء الصورة، لكن فريق سي إن إن للصور قام بتشغيلها من خلال برنامج الكشف عن الذكاء الاصطناعي الذي لا يزال في مرحلة الاختبار الأولى ووجد "أدلة قوية" على التلاعب بها. وأضاف هاني فريد، وهو خبير في الطب الشرعي الرقمي وأستاذ في جامعة كاليفورنيا في بيركلي درس الذكاء الاصطناعي، أن الصورة تبدو وكأنها من إنتاج الذكاء الاصطناعي وربما تم إنشاؤها باستخدام تعليق الصورة الحقيقية التاريخية كمحفز للذكاء الاصطناعي، ربما لتجنب انتهاك حقوق النشر.
تدار المجموعة التي شاركت المنشور، "التاريخ للجميع"، من قبل صفحة تحمل نفس الاسم، والتي تم إنشاؤها في عام 2022 وغيرت اسمها سابقًا من "أشبال" و"تشيكن.نوجيت". لم ترد الصفحة على رسالة مباشرة.
يوضّح منشور "التاريخ للجميع" الكثير من المحتوى الذي وصلني عبر صفحتي وغريب، ولكن يبدو أنه حميد أيضًا.
تشمل الأمثلة الأخرى صفحة تدعى "إيمي كاوتش" التي تشارك أيضًا صورًا "تاريخية"، مع صورة ملف شخصي تم إنشاؤها بالذكاء الاصطناعي على ما يبدو، والتي تُظهر امرأة بسن واحد عملاق في المكان الذي يجب أن يكون فيه سنان أماميان. أو صفحة فنية وتاريخية لـ "فنانة" تُدعى "فنانة كريس" التي تتبعتُ صورتها الشخصية إلى شخصية مؤثرة حقيقية على وسائل التواصل الاجتماعي أخبرتني عبر البريد الإلكتروني "هذا بالتأكيد ليس حسابي ولكنهم يستخدمون صورتي."
عندما راسلت صفحة "Kris Artist"، تلقيت ما بدا لي أنه رد آلي: "مرحباً، شكراً لتواصلك معنا. لقد تلقينا رسالتك ونقدر تواصلك معنا. يرجى الانضمام إلى مجموعتنا."
شاهد ايضاً: ماذا تفعل الذكاء الاصطناعي لشركة آبل ببياناتك؟
بعد أن وضعتُ علامة على منشور "التاريخ للجميع"، بالإضافة إلى صفحتي "إيمي كاوتش" و"كريس أرتيست" إلى ميتا، أزالها الموقع لانتهاك سياسة الرسائل غير المرغوب فيها.
ما وراء انحدار الذكاء الاصطناعي
ليس من الواضح بالضبط مقدار هذا المحتوى الموجود على فيسبوك. ولكن قد يكون هناك الكثير من الأشخاص الذين يشاهدونه. تضم صفحة "التاريخ للجميع" أكثر من 40,000 متابع، على الرغم من أن المنشورات الفردية غالباً ما تتلقى عدداً قليلاً من التفاعلات.
قام باحثون من جامعة ستانفورد وجورج تاون في وقت سابق من هذا العام بتتبع 120 صفحة على فيسبوك تنشر صورًا تم إنشاؤها بالذكاء الاصطناعي بشكل متكرر ووجدوا أن الصور تلقت مجتمعة "مئات الملايين من التفاعلات والتعرضات"، وفقًا لورقة بحثية صدرت في مارس/آذار، والتي لم تتم مراجعتها بعد.
شاهد ايضاً: سبوتيفاي ترفع أسعارها مرة أخرى
"تُظهر خلاصة فيسبوك في بعض الأحيان للمستخدمين صورًا تم إنشاؤها بالذكاء الاصطناعي حتى عندما لا يتابعون الصفحات التي تنشر تلك الصور. نحن نشك في أن الصور التي تم إنشاؤها بالذكاء الاصطناعي تظهر في خلاصات المستخدمين لأن خوارزمية ترتيب خلاصات فيسبوك تروّج للمحتوى الذي من المرجح أن يولد تفاعلاً"، كما كتب الباحثان رينيه ديرستا وجوش غولدشتاين في الورقة البحثية. وأضافا أنه غالباً ما يبدو أن المستخدمين الذين يتفاعلون مع هذا المحتوى لا يدركون أنه من الذكاء الاصطناعي.
يقول الخبراء الذين يتتبعون هذا النوع من السلوكيات على الإنترنت إن هناك على الأرجح عدة أنواع مختلفة من الجهات الفاعلة التي تقف وراء الرسائل المزعجة على فيسبوك، بدوافع مختلفة.
فالبعض يريد فقط كسب المال، على سبيل المثال من خلال المكافآت التي يدفعها فيسبوك لمنشئي المحتوى الذين ينشرون محتوى عام. هناك العشرات من مقاطع الفيديو على يوتيوب التي تعلّم الناس كيفية الحصول على أموال مقابل نشر محتوى الذكاء الاصطناعي على فيسبوك كما ذكر موقع 404 ميديا الإخباري التقني في وقت سابق من هذا الشهر حيث يدعي البعض أنهم يجنون آلاف الدولارات كل شهر باستخدام هذا التكتيك.
"حتى في عالم السياسة، فإن تكتيكات المتلاعبين لطالما تم استعراض تكتيكات المتلاعبين منذ فترة طويلة من قبل أولئك الذين لديهم دوافع مختلفة: كسب المال. وغالباً ما يكون مرسلو الرسائل الإلكترونية غير المرغوب فيها والمحتالون من أوائل المتبنين للتقنيات الجديدة".
في صفحات أخرى، يستخدم المحتالون التعليقات كمكان للترويج لمنتجات زائفة أو جمع المعلومات الشخصية للمستخدمين.
في بعض الحالات، ما يبدو كحساب غير مؤذٍ يشارك محتوى عشوائي في الغالب، ينزلق في بعض الأحيان بمعلومات مضللة أو ميمات مسيئة، كوسيلة للتهرب من آليات إنفاذ فيسبوك. قال ديفيد إيفان هاريس، الباحث في مجال الذكاء الاصطناعي الذي عمل سابقًا في مجال الذكاء الاصطناعي المسؤول في شركة Meta: "إذا بدا شيء ما مثل حملة رسائل غير مرغوب فيها عادية تمامًا، فقد لا يثير ذلك كبار المحققين في الشركة وبالتالي قد لا يتم اكتشافه لفترة أطول".
وأضاف هاريس أن هناك أيضًا سوقًا على الإنترنت للحسابات "القديمة" على فيسبوك، لأن الحسابات الأقدم من المرجح أن تبدو بشرية وتتهرب من مرشحات الرسائل غير المرغوب فيها على المنصة.
وقال هاريس: "الأمر أشبه بسوق سوداء، في الأساس، يمكنك أن تبيع لشخص ما 1000 حساب من هذه الحسابات التي مضى عليها خمس سنوات أو أكثر، ومن ثم يمكنه تحويلها إلى عملية احتيال أو عملية تأثير". "هذا شيء تراه في الانتخابات: قد ينشئ شخص ما مجموعة على فيسبوك مثل: "الجميع يحب البرغر بالجبن"، وتنشر المجموعة صورًا لأفضل البرغر بالجبن كل يوم لمدة عامين، ثم فجأة قبل شهر من الانتخابات تصبح مجموعة "صوّتوا ل (الرئيس البرازيلي السابق جايير) بولسونارو".
ماذا تفعل مع البريد المزعج للذكاء الاصطناعي؟
مع أدوات الذكاء الاصطناعي، لم تعد الجهات الفاعلة السيئة بحاجة إلى الكثير من الأشخاص لإنتاج رزم من المحتوى المزيف بسرعة يمكن للتكنولوجيا أن تفعل ذلك نيابة عنهم.
قال فريد إن قيام فيسبوك بتحديد جميع الصور التي يتم تحميلها كل يوم من خلال الذكاء الاصطناعي دون ارتكاب أخطاء سيكون أمرًا صعبًا، "خاصة في الوقت الذي تتحرك فيه هذه التكنولوجيا بسرعة هائلة". وحتى لو كان بإمكانه ذلك، "هذا لا يعني أنه يجب حظر جميع المحتويات التي يتم إنشاؤها بالذكاء الاصطناعي، أليس كذلك؟إنه سؤال دقيق للغاية بشأن السياسة".
في وقت سابق من هذا العام، قالت Meta إنها ستضيف علامات "معلومات الذكاء الاصطناعي" إلى المحتوى الذي تم إنشاؤه بواسطة بعض مولدات الطرف الثالث التي تستخدم البيانات الوصفية لإعلام المواقع الأخرى بمشاركة الذكاء الاصطناعي. تقوم Meta أيضًا بتسمية الصور التي تم إنشاؤها باستخدام أدواتها الخاصة تلقائيًا.
ومع ذلك، لا تزال هناك طرق للمستخدمين لإزالة تلك البيانات الوصفية (أو إنشاء صور الذكاء الاصطناعي بدونها) للتهرب من الكشف.
قد يعيق Meta أيضًا فريق أصغر مخصص لمعالجة المحتوى المزيف، بعد أن قلصت مثل عمالقة التكنولوجيا الآخرين فريق الثقة والسلامة لديها العام الماضي، مما يعني أنها يجب أن تعتمد أكثر على أنظمة الإشراف الآلي التي يمكن التلاعب بها.
وقال هاريس: "لطالما كانت مجتمعات وسائل التواصل الاجتماعي المتمرسة رقميًا متقدمة بخطوة ونصف على جهود الثقة والسلامة في جميع المنصات إنها تقريبًا لعبة القط والفأر التي لا تنتهي أبدًا".