احتيال الذكاء الاصطناعي يهدد رجال الأعمال الإيطاليين
تكنولوجيا الذكاء الاصطناعي تفتح أبواب الاحتيال! اكتشف كيف تم استخدام صوت وزير الدفاع الإيطالي في عملية احتيال معقدة، وتأثيرات التزييف العميق على الأمان الشخصي. احذروا من المكالمات المشبوهة! خَبَرَيْن.

تلقى العديد من رجال الأعمال الإيطاليين الأثرياء مكالمة هاتفية مفاجئة في وقت سابق من هذا العام. كان لدى المتحدث، الذي بدا وكأنه وزير الدفاع غيدو كروسيتو، طلب خاص: الرجاء إرسال الأموال لمساعدتنا في تحرير الصحفيين الإيطاليين المختطفين في الشرق الأوسط.
لكنه لم يكن كروسيتو في نهاية الخط. فقد علم بالمكالمات فقط عندما اتصل به العديد من رجال الأعمال المستهدفين بشأنها. واتضح في النهاية أن المحتالين استخدموا الذكاء الاصطناعي لتزييف صوت كروسيتو.
إن التقدم في تكنولوجيا الذكاء الاصطناعي يعني أنه أصبح من الممكن الآن توليد أصوات ومقاطع صوتية فائقة الواقعية. في الواقع، وجد بحث جديد أن الأصوات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي لا يمكن تمييزها الآن عن الأصوات البشرية الحقيقية، نتناول في هذا الشرح الآثار المترتبة على ذلك.
ماذا حدث في قضية كروسيتو؟
تلقى العديد من رجال الأعمال الإيطاليين اتصالات في بداية شهر فبراير، بعد شهر واحد من تأمين رئيسة الوزراء جيورجيا ميلوني الإفراج عن الصحفية الإيطالية سيسيليا سالا، التي كانت مسجونة في إيران.
في المكالمات، طلب صوت كروسيتو "المزيف العميق" من رجال الأعمال تحويل حوالي مليون يورو (1.17 مليون دولار) إلى حساب مصرفي في الخارج، وقد تم تقديم تفاصيلها خلال المكالمة أو في مكالمات أخرى من أعضاء من موظفي كروسيتو.
في 6 فبراير، نشر كروسيتو على موقع X، قائلاً إنه تلقى مكالمة في 4 فبراير من "صديق، وهو رجل أعمال بارز". وسأل هذا الصديق كروسيتو عما إذا كان مكتبه قد اتصل به ليطلب رقم هاتفه المحمول. قال كروسيتو إنه لم يفعل. وكتب في منشوره على X: "أخبرته أن ذلك كان سخيفًا، لأنه كان لديّ بالفعل، وأن ذلك مستحيل".
وأضاف كروسيتو أنه تم الاتصال به لاحقًا من قبل رجل أعمال آخر أجرى تحويلًا مصرفيًا كبيرًا بعد اتصال من "جنرال" قدم معلومات الحساب المصرفي.
"يتصل بي ويخبرني أنه تم الاتصال به من قبلي ثم من "جنرال"، وأنه أجرى تحويلًا مصرفيًا كبيرًا جدًا إلى حساب قدمه "الجنرال". أخبره أنها عملية احتيال وأبلغت رجال الدرك الشرطة الإيطالية، الذين ذهبوا إلى منزله وأخذوا شكواه."
كما أُجريت مكالمات مماثلة من مسؤولين وهميين في وزارة الدفاع إلى رجال أعمال آخرين، طالبين معلومات شخصية وأموالاً.
وبينما أبلغ كروسيتو الشرطة بكل هذا الأمر، أضاف كروسيتو: "أفضل أن أعلن الحقائق على الملأ حتى لا يتعرض أحد لخطر الوقوع في الفخ".
تم استهداف بعض الشخصيات التجارية البارزة في إيطاليا، مثل مصمم الأزياء جورجيو أرماني والشريك المؤسس لبرادا باتريزيو بيرتيلي، في عملية الاحتيال. ولكن، وفقًا للسلطات، فإن ماسيمو موراتي، المالك السابق لنادي إنتر ميلانو لكرة القدم، هو الوحيد الذي أرسل بالفعل الأموال المطلوبة. وتمكنت الشرطة من تتبع وتجميد الأموال من الحوالة البرقية التي قام بها.
وقد قدم موراتي منذ ذلك الحين شكوى قانونية إلى مكتب المدعي العام في المدينة. وقال لوسائل الإعلام الإيطالية: "لقد تقدمت بالشكوى بالطبع، لكنني أفضل عدم التحدث عنها وأرى كيف ستسير التحقيقات. لقد كانت جيدة. يمكن أن يحدث ذلك لأي شخص".
كيف يعمل توليد الصوت بالذكاء الاصطناعي؟
تستخدم مولدات الصوت بالذكاء الاصطناعي عادةً خوارزميات "التعلم العميق"، حيث يقوم برنامج الذكاء الاصطناعي بدراسة مجموعات كبيرة من البيانات لأصوات بشرية حقيقية و"يتعلم" نبرة الصوت والنطق والتنغيم وعناصر أخرى من الصوت.
يتم تدريب برنامج الذكاء الاصطناعي باستخدام عدة مقاطع صوتية للشخص نفسه و"يتعلم" محاكاة صوت ذلك الشخص المحدد، ولهجته وأسلوبه في التحدث. يُطلق على الصوت الذي تم إنشاؤه أيضًا اسم مستنسخ صوتي من الذكاء الاصطناعي.
وباستخدام برامج معالجة اللغة الطبيعية (NLP)، والتي توجهه لفهم اللغة البشرية وتفسيرها وتوليدها، يمكن للذكاء الاصطناعي أن يتعلم حتى فهم السمات النغمية للصوت، مثل السخرية أو الفضول.
يمكن لهذه البرامج تحويل النص إلى مكونات صوتية، ومن ثم توليد مقطع صوتي اصطناعي يبدو وكأنه صوت بشري حقيقي. وتُعرف هذه العملية باسم "التزييف العميق"، وهو مصطلح صاغه إيان جودفيلو، مدير التعلم الآلي في مجموعة أبل للمشاريع الخاصة، في عام 2014. وهو يجمع بين "التعلُّم العميق" و"التزييف"، ويشير إلى صور أو مقاطع فيديو أو صوت واقعية للغاية للذكاء الاصطناعي، يتم توليدها جميعاً من خلال التعلُّم العميق.
ما مدى براعتهم في انتحال شخصية شخص ما؟
خلص البحث الذي أجراه فريق من جامعة كوين ماري في لندن ونشرته مجلة PLOS One العلمية في 24 سبتمبر إلى أن الأصوات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي تبدو بالفعل مثل الأصوات البشرية الحقيقية للأشخاص الذين يستمعون إليها.
ولإجراء هذا البحث، قام الفريق بتوليد 40 عينة من أصوات الذكاء الاصطناعي باستخدام أصوات أشخاص حقيقيين وإنشاء أصوات جديدة تماماً باستخدام أداة تسمى ElevenLabs. كما جمع الباحثون 40 عينة تسجيل لأصوات أشخاص حقيقيين. تم تحرير جميع هذه المقاطع الـ 80 وتنقيحها للتأكد من جودتها.
شاهد ايضاً: دبلوماسيون بارزون من الولايات المتحدة وروسيا يناقشون أوكرانيا وسوريا وإيران على هامش قمة الآسيان
استخدم فريق البحث أصوات ذكور وإناث بلهجات بريطانية وأمريكية وأسترالية وهندية في العينات. تقدم ElevenLabs لهجة "أفريقية" أيضاً، لكن الباحثين وجدوا أن تسمية اللكنة كانت "عامة جداً لأغراضنا".
قام الفريق بتجنيد 50 مشاركاً تتراوح أعمارهم بين 18 و 65 عاماً في المملكة المتحدة لإجراء الاختبارات. وطُلب منهم الاستماع إلى التسجيلات لمحاولة التمييز بين أصوات الذكاء الاصطناعي والأصوات البشرية الحقيقية. كما سُئلوا عن الأصوات التي بدت أكثر جدارة بالثقة.
ووجدت الدراسة أنه في حين أن الأصوات "الجديدة" التي تم إنشاؤها بالكامل بواسطة الذكاء الاصطناعي كانت أقل إقناعاً للمشاركين، إلا أن الأصوات المزيفة أو المستنسخة عن الأصوات البشرية الحقيقية كانت متساوية في واقعيتها مع الأصوات البشرية الحقيقية.
وقد تم الخلط بين 41% من الأصوات التي تم إنشاؤها بواسطة الذكاء الاصطناعي و 58% من الأصوات المستنسخة عن أصوات بشرية حقيقية.
بالإضافة إلى ذلك، كان المشاركون أكثر احتمالاً لتقييم الأصوات ذات اللهجة البريطانية على أنها حقيقية أو بشرية مقارنةً بالأصوات ذات اللهجات الأمريكية، مما يشير إلى أن أصوات الذكاء الاصطناعي متطورة للغاية.
والأمر الأكثر إثارة للقلق هو أن المشاركين مالوا إلى تقييم الأصوات التي تم إنشاؤها بواسطة الذكاء الاصطناعي على أنها أكثر جدارة بالثقة من الأصوات البشرية الحقيقية. وهذا يتناقض مع الأبحاث السابقة، والتي عادةً ما وجدت أن أصوات الذكاء الاصطناعي أقل جدارة بالثقة، مما يشير مرة أخرى إلى أن الذكاء الاصطناعي أصبح متطورًا بشكل خاص في توليد أصوات مزيفة.
هل يجب أن نكون جميعاً قلقين للغاية بشأن هذا الأمر؟
في حين أن الصوت الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي والذي يبدو "بشريًا" للغاية يمكن أن يكون مفيدًا في صناعات مثل الإعلانات وتحرير الأفلام، إلا أنه يمكن أن يُساء استخدامه في عمليات الاحتيال وتوليد الأخبار المزيفة.
تتزايد بالفعل عمليات الاحتيال المشابهة لتلك التي استهدفت رجال الأعمال الإيطاليين. ففي الولايات المتحدة الأمريكية، وردت تقارير عن أشخاص يتلقون مكالمات تظهر فيها أصوات مزيفة لأقاربهم تقول إنهم في ورطة وتطلب منهم المال.
في الفترة بين يناير ويونيو من هذا العام، فقد الناس في جميع أنحاء العالم أكثر من 547.2 مليون دولار بسبب عمليات الاحتيال الوهمية العميقة، وفقًا لبيانات شركة Resemble AI التي تتخذ من كاليفورنيا مقرًا لها. مما يدل على اتجاه تصاعدي، فقد ارتفع الرقم من ما يزيد قليلاً عن 200 مليون دولار في الربع الأول إلى 347 مليون دولار في الربع الثاني.
هل يمكن "التزييف العميق" للفيديو أيضًا؟
بشكل مثير للقلق، نعم. يمكن استخدام برامج الذكاء الاصطناعي لتوليد مقاطع فيديو مزيفة لأشخاص حقيقيين. وهذا، إلى جانب الصوت الذي يولده الذكاء الاصطناعي، يعني أنه يمكن تزييف مقاطع فيديو لأشخاص يفعلون ويقولون أشياء لم يفعلوها بشكل مقنع للغاية.
وعلاوة على ذلك، أصبح من الصعب على نحو متزايد التمييز بين مقاطع الفيديو على الإنترنت الحقيقية والمزيفة.
تُقدِّر شركة DeepMedia، وهي شركة تعمل على أدوات للكشف عن الوسائط الاصطناعية، أنه سيتم إنشاء حوالي ثمانية ملايين مقطع فيديو مزيف ومشاركته على الإنترنت في عام 2025 بحلول نهاية هذا العام.
وهذه زيادة كبيرة عن الـ 500,000 التي تمت مشاركتها على الإنترنت في عام 2023.
فيمَ تُستخدَم تقنية التزييف العميق أيضاً؟
إلى جانب الاحتيال في المكالمات الهاتفية والأخبار المزيفة، تم استخدام التزييف العميق للذكاء الاصطناعي لإنشاء محتوى جنسي عن أشخاص حقيقيين. والأمر الأكثر إثارة للقلق هو أن تقرير Resemble AI، الذي صدر في يوليو، وجد أن التقدم في مجال الذكاء الاصطناعي أدى إلى إنتاج مواد الاعتداء الجنسي على الأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي بشكل صناعي، مما أربك أجهزة إنفاذ القانون على مستوى العالم.
في مايو من هذا العام، وقّع الرئيس الأمريكي دونالد ترامب على مشروع قانون يجعل نشر صور حميمية لشخص ما دون موافقته جريمة فيدرالية. ويشمل ذلك التزييف العميق الذي ينشئه الذكاء الاصطناعي. وفي الشهر الماضي، أعلنت الحكومة الأسترالية أيضاً أنها ستحظر تطبيقاً يُستخدم لإنشاء صور عارية مزيفة من الذكاء الاصطناعي.
أخبار ذات صلة

مقاتلو الدعم السريع السوداني يقتلون أكثر من 40 شخصًا في مخيم دارفور

إنقاذ بحّار بعد أكثر من 20 ساعة في البحر قبالة الساحل الشرقي لأستراليا

مارك روته مرشح لتولي منصب الأمين العام لحلف شمال الأطلسي بعد تخلي رومانيا عن اعتراضها المستمر
