خَبَرَيْن logo

احذر من احتيال الذكاء الاصطناعي باستنساخ الصوت

حذر بنك ستارلينج من أن الملايين قد يكونون ضحايا لعمليات احتيال باستخدام الذكاء الاصطناعي لاستنساخ الأصوات. تعرف على كيفية حماية نفسك من هذه الحيل المتطورة، وشارك عبارة آمنة مع أحبائك لتجنب المخاطر. اقرأ المزيد على خَبَرْيْن.

This bank says ‘millions’ of people could be targeted by AI voice-cloning scams
Loading...
Starling Bank said fraudsters are capable of using AI to replicate a person’s voice from just three seconds of audio found in, for example, a video posted online. Adrian Dennis/AFP/Getty Images
التصنيف:تكنولوجيا
شارك الخبر:
FacebookTwitterLinkedInEmail

هذا البنك يُحذر من أن "ملايين" الأشخاص قد يكونون عرضة للاحتيالات باستخدام تقنيات استنساخ الصوت بالذكاء الاصطناعي

حذر أحد البنوك البريطانية من أن "ملايين" الأشخاص قد يقعون ضحايا لعمليات احتيال باستخدام الذكاء الاصطناعي لاستنساخ أصواتهم.

وقال بنك Starling Bank، وهو مقرض عبر الإنترنت فقط، إن المحتالين قادرون على استخدام الذكاء الاصطناعي لاستنساخ صوت الشخص من ثلاث ثوانٍ فقط من الصوت الموجود في مقطع فيديو نشره الشخص على الإنترنت على سبيل المثال. ويمكن للمحتالين بعد ذلك التعرف على أصدقاء الشخص وأفراد أسرته واستخدام الصوت المستنسخ من الذكاء الاصطناعي لإجراء مكالمة هاتفية لطلب المال.

وقال بنك ستارلينج في بيان صحفي يوم الأربعاء إن هذه الأنواع من عمليات الاحتيال لديها القدرة على "الإيقاع بالملايين".

شاهد ايضاً: مع وجود ماسك إلى جانبه، ترامب يتطلع إلى تغيير السياسات الحكومية بشأن الذكاء الاصطناعي ومخاطره

وقد أثرت بالفعل على المئات. ووفقًا لاستطلاع للرأي أجراه البنك مع شركة Mortar Research الشهر الماضي وشمل أكثر من 3000 شخص بالغ، قال أكثر من ربع المشاركين في الاستطلاع إنهم استُهدفوا من خلال عملية احتيال استنساخ صوتي باستخدام الذكاء الاصطناعي خلال الـ 12 شهرًا الماضية.

وأظهر الاستطلاع أيضاً أن 46% من المشاركين في الاستطلاع لم يكونوا على علم بوجود مثل هذه الحيل، وأن 8% منهم قد يرسلون أموالاً حسب طلب صديق أو أحد أفراد العائلة، حتى لو اعتقدوا أن المكالمة تبدو غريبة.

وقالت ليزا جراهام، كبيرة مسؤولي أمن المعلومات في بنك ستارلينج في البيان الصحفي: "ينشر الأشخاص بانتظام محتوى على الإنترنت يحتوي على تسجيلات صوتية، دون أن يتخيلوا أبدًا أن ذلك يجعلهم أكثر عرضة للمحتالين".

شاهد ايضاً: كيف تسير مبيعات آيفون المزود بالذكاء الاصطناعي من أبل؟ سنحصل على المؤشرات الأولى قريبًا

يشجع البنك الأشخاص على الاتفاق مع أحبائهم على "عبارة آمنة" - عبارة بسيطة وعشوائية يسهل تذكرها وتختلف عن كلمات المرور الأخرى - يمكن استخدامها للتحقق من هويتهم عبر الهاتف.

وينصح المُقرض بعدم مشاركة العبارة الآمنة عبر الرسائل النصية، مما قد يسهل على المحتالين اكتشافها، ولكن إذا تمت مشاركتها بهذه الطريقة، فيجب حذف الرسالة بمجرد أن يطلع عليها الشخص الآخر.

ومع ازدياد مهارة الذكاء الاصطناعي في محاكاة الأصوات البشرية، تتزايد المخاوف بشأن قدرته على إلحاق الضرر بالأشخاص، على سبيل المثال، عن طريق مساعدة المجرمين في الوصول إلى حساباتهم المصرفية، ونشر المعلومات المضللة.

شاهد ايضاً: التمرير نحو الانتخابات: تطبيقات المواعدة الشهيرة تقدم ميزات جديدة للتعبير عن الآراء السياسية

في وقت سابق من هذا العام، كشفت OpenAI، الشركة المصنعة لروبوت الدردشة التوليدي للذكاء الاصطناعي ChatGPT، عن أداة محاكاة الصوت، لكنها لم تجعلها متاحة للجمهور في تلك المرحلة، مشيرة إلى "إمكانية إساءة استخدام الصوت الاصطناعي".

أخبار ذات صلة

Kremlin tries to calm fears over security of Telegram after arrest of founder Durov in France
Loading...

محاولات الكرملين لتهدئة المخاوف بشأن أمان تيليغرام بعد اعتقال مؤسسه دوروف في فرنسا

تكنولوجيا
Tourists scaling the Great Wall of China can now get takeout delivered by drone
Loading...

السياح الذين يتسلقون سور الصين العظيم يمكنهم الآن الحصول على وجبة جاهزة تم توصيلها عن طريق الطائرة بدون طيار

تكنولوجيا
‘This story is no longer available’: Instagram permanently deletes some photos
Loading...

"تم حذف هذه القصة نهائيًا: إنستغرام يقوم بحذف بعض الصور"

تكنولوجيا
US sues to split up Ticketmaster and Live Nation in a groundbreaking monopoly lawsuit
Loading...

الولايات المتحدة تقاضي لتقسيم شركة تيكتماستر وليف نيشن في دعوى قانونية بشأن الاحتكار

تكنولوجيا
الرئيسيةأخبارسياسةأعمالرياضةالعالمتكنولوجيااقتصادصحةتسلية