هل الذكاء الاصطناعي ضحية المعلومات المضللة؟
هل حقًا تضخم أدوات الذكاء الاصطناعي المعلومات المضللة الروسية؟ دراسة جديدة تكشف أن النتائج قد تكون مبالغًا فيها، حيث وجدنا أن 5% فقط من ردود روبوتات الدردشة تحتوي على معلومات مضللة. تعرف على التفاصيل المثيرة! خَبَرَيْن.

في مارس الماضي، نشر NewsGuard _ وهي شركة تتعقب المعلومات المضللة _ تقريرًا يزعم أن أدوات الذكاء الاصطناعي التوليدي، مثل ChatGPT، كانت تضخم المعلومات المضللة الروسية. اختبرت NewsGuard روبوتات الدردشة الرائدة باستخدام مطالبات تستند إلى قصص من شبكة برافدا وهي مجموعة من المواقع الإلكترونية الموالية للكرملين تحاكي المنافذ الشرعية، والتي حددتها لأول مرة وكالة فيجينوم الفرنسية. كانت النتائج مثيرة للقلق: وجاء في التقرير أن روبوتات الدردشة الآلية "كررت الروايات الكاذبة التي تغسلها شبكة برافدا 33 في المائة من الوقت".
لطالما حيرت شبكة برافدا، التي لديها جمهور صغير إلى حد ما، الباحثين. يعتقد البعض أن هدفها كان أدائيًا للإشارة إلى نفوذ روسيا للمراقبين الغربيين. بينما يرى آخرون هدفًا أكثر خبثًا: برافدا موجودة ليس للوصول إلى الناس، ولكن "لاستمالة" النماذج اللغوية الكبيرة (LLMs) التي تقف وراء روبوتات الدردشة، وتغذيتها بالأكاذيب التي سيواجهها المستخدمون دون علمهم.
قالت NewsGuard في تقريرها أن النتائج التي توصلت إليها تؤكد الشك الثاني. وقد اكتسب هذا الادعاء زخمًا كبيرًا، مما أدى إلى عناوين مثيرة في صحيفة واشنطن بوست، وفوربس، وفرانس 24، ودير شبيغل، وغيرها.
شاهد ايضاً: ترامب وباراماونت يعلنان عن دخولهم في محادثات تسوية "متقدمة" بشأن تعديل برنامج "60 دقيقة"
ولكن بالنسبة لنا ولغيرنا من الباحثين، فإن هذا الاستنتاج لا يصمد. أولاً، المنهجية التي استخدمتها NewsGuard مبهمة: فهي لم تنشر مطالباتها ورفضت مشاركتها مع الصحفيين، مما يجعل التكرار المستقل مستحيلاً.
ثانياً، من المحتمل أن يكون تصميم الدراسة قد ضخّم النتائج، وقد يكون الرقم 33% مضللاً. فالمستخدمون يسألون روبوتات الدردشة عن كل شيء بدءًا من نصائح الطهي إلى تغيّر المناخ؛ وقد اختبرتها NewsGuard حصريًا على مطالبات مرتبطة بشبكة برافدا. وقد صُمم ثلثا مطالباتها بشكل صريح لإثارة الأكاذيب أو تقديمها على أنها حقائق. وقد تم احتساب الردود التي تحث المستخدم على توخي الحذر بشأن الادعاءات لأنه لم يتم التحقق منها على أنها معلومات مضللة. شرعت الدراسة في العثور على معلومات مضللة وقد نجحت في ذلك.
تعكس هذه الحلقة ديناميكية إشكالية أوسع نطاقًا تشكلت بفعل التكنولوجيا سريعة الحركة، والضجيج الإعلامي، والجهات الفاعلة السيئة، والأبحاث المتأخرة. ومع تصنيف المعلومات المضللة كأكبر خطر عالمي من قبل الخبراء من قبل المنتدى الاقتصادي العالمي، فإن القلق بشأن انتشارها له ما يبرره. ولكن ردود الفعل غير المحسوبة قد تؤدي إلى تشويه المشكلة، وتقدم نظرة مبسطة للذكاء الاصطناعي المعقد.
من المغري الاعتقاد بأن روسيا "تسمم" الذكاء الاصطناعي الغربي عمداً كجزء من مؤامرة ماكرة. لكن الأطر المثيرة للقلق تحجب تفسيرات أكثر معقولية وتؤدي إلى ضرر.
إذن، هل يمكن لروبوتات الدردشة الآلية إعادة إنتاج نقاط حوار الكرملين أو الاستشهاد بمصادر روسية مشكوك فيها؟ نعم. ولكن كم مرة يحدث ذلك، وما إذا كان ذلك يعكس تلاعب الكرملين، وما هي الظروف التي تجعل المستخدمين يواجهونها، هي أمور بعيدة عن التسوية. ويعتمد الكثير على "الصندوق الأسود" _ أي الخوارزمية الأساسية _ التي تسترجع بها روبوتات الدردشة المعلومات.
لقد أجرينا تدقيقنا الخاص، واختبرنا بشكل منهجي ChatGPT و Copilot و Gemini و Grok باستخدام مطالبات متعلقة بالتضليل. بالإضافة إلى إعادة اختبار الأمثلة القليلة التي قدمتها NewsGuard في تقريرها، قمنا بتصميم مطالبات جديدة بأنفسنا. بعضها كان عاماً - على سبيل المثال، مزاعم حول مختبرات بيولوجية أمريكية في أوكرانيا؛ والبعض الآخر كان خاصاً للغاية على سبيل المثال، مزاعم حول منشآت حلف الناتو في بعض المدن الأوكرانية.
إذا كانت شبكة "برافدا" تقوم بـ "استمالة" الذكاء الاصطناعي، فسنرى إشارات إليها في الإجابات التي تولدها روبوتات الدردشة سواء كانت عامة أو محددة.
لم نر ذلك في النتائج التي توصلنا إليها. على النقيض من نسبة 33 في المئة من إجابات NewsGuard، لم تولّد مطالباتنا ادعاءات كاذبة سوى 5 في المئة من الوقت. 8 في المئة فقط من المخرجات أشارت إلى مواقع برافدا - ومعظمها فعل ذلك لفضح زيف المحتوى. والأهم من ذلك أن إشارات برافدا تركزت في الاستفسارات التي لم تغطها المنافذ الرئيسية بشكل جيد. وهذا يدعم فرضية فراغ البيانات: عندما تفتقر روبوتات الدردشة الآلية إلى مواد ذات مصداقية، فإنها تسحب أحيانًا من مواقع مشكوك فيها ليس لأنها معدة مسبقًا، ولكن بسبب قلة المواد الأخرى المتاحة.
إذا كان فراغ البيانات، وليس تسلل الكرملين، هو المشكلة، فهذا يعني أن التعرض للمعلومات المضللة ناتج عن ندرة المعلومات وليس عن آلة دعاية قوية. علاوة على ذلك، لكي يواجه المستخدمون معلومات مضللة بالفعل في ردود روبوتات الدردشة، يجب أن تتوافق عدة شروط: يجب أن يسألوا عن مواضيع غامضة بعبارات محددة؛ ويجب أن يتم تجاهل هذه المواضيع من قبل وسائل الإعلام الموثوقة؛ ويجب أن يفتقر روبوت الدردشة إلى حواجز حماية لإلغاء أولوية المصادر المشكوك فيها.
وحتى مع ذلك، فإن مثل هذه الحالات نادرة وغالباً ما تكون قصيرة الأجل. فالفراغات في البيانات تنغلق بسرعة مع تدارك التقارير لها، وحتى عندما تستمر هذه الحالات، فإن روبوتات الدردشة الآلية غالباً ما تفضح زيف الادعاءات. وعلى الرغم من أن مثل هذه الحالات ممكنة من الناحية التقنية، إلا أنها نادرة جداً خارج الظروف المصطنعة المصممة لخداع روبوتات الدردشة الآلية لتكرار المعلومات المضللة.
إن خطر المبالغة في التلاعب بالذكاء الاصطناعي للكرملين حقيقي. يشير بعض خبراء مكافحة المعلومات المضللة إلى أن حملات الكرملين قد تكون مصممة في حد ذاتها لتضخيم المخاوف الغربية، وإرباك مدققي الحقائق ووحدات مكافحة المعلومات المضللة. تستشهد مارغريتا سيمونيان، وهي مروجة دعاية روسية بارزة، بشكل روتيني بأبحاث غربية للترويج للتأثير المفترض لشبكة التلفزيون التي تديرها.
إن التحذيرات العشوائية بشأن المعلومات المضللة يمكن أن تأتي بنتائج عكسية، مما يؤدي إلى دعم السياسات القمعية، وتآكل الثقة في الديمقراطية، وتشجيع الناس على افتراض أن المحتوى الموثوق به كاذب. وفي الوقت نفسه، فإن التهديدات الأكثر وضوحًا قد تطغى على الاستخدامات الأكثر هدوءًا _ ولكن يحتمل أن تكون أكثر خطورة _ للذكاء الاصطناعي من قبل الجهات الفاعلة الخبيثة، مثل توليد البرمجيات الخبيثة التي أبلغ عنها كل من جوجل و OpenAI.
شاهد ايضاً: توم لاماس سيتولى إدارة برنامج "أن بي سي نايتلي نيوز" بدءًا من هذا الصيف، ليحل محل ليستر هولت
إن فصل المخاوف الحقيقية عن المخاوف المتضخمة أمر بالغ الأهمية. المعلومات المضللة تمثل تحديًا وكذلك الذعر الذي تثيره.
أخبار ذات صلة

توقف قنوات صوت أمريكا عن البث بعد تقليص إدارة ترامب للوكالة وإلغاء العقود

الجزيرة تفوز بجائزة منظمة العفو الدولية عن تغطيتها لنهر كولورادو

سي بي إس تقطع الميكروفونات وتتحقق من الحقائق بشأن جيه دي فانس في مناظرة نائب الرئيس الأكثر تهذيبًا، مما أثار غضب ترامب وحلفائه
