خَبَرَيْن logo

احذر من احتيال الذكاء الاصطناعي باستنساخ الصوت

حذر بنك ستارلينج من أن الملايين قد يكونون ضحايا لعمليات احتيال باستخدام الذكاء الاصطناعي لاستنساخ الأصوات. تعرف على كيفية حماية نفسك من هذه الحيل المتطورة، وشارك عبارة آمنة مع أحبائك لتجنب المخاطر. اقرأ المزيد على خَبَرْيْن.

Loading...
This bank says ‘millions’ of people could be targeted by AI voice-cloning scams
Starling Bank said fraudsters are capable of using AI to replicate a person’s voice from just three seconds of audio found in, for example, a video posted online. Adrian Dennis/AFP/Getty Images
التصنيف:تكنولوجيا
شارك الخبر:
FacebookTwitterLinkedInEmail

هذا البنك يُحذر من أن "ملايين" الأشخاص قد يكونون عرضة للاحتيالات باستخدام تقنيات استنساخ الصوت بالذكاء الاصطناعي

حذر أحد البنوك البريطانية من أن "ملايين" الأشخاص قد يقعون ضحايا لعمليات احتيال باستخدام الذكاء الاصطناعي لاستنساخ أصواتهم.

وقال بنك Starling Bank، وهو مقرض عبر الإنترنت فقط، إن المحتالين قادرون على استخدام الذكاء الاصطناعي لاستنساخ صوت الشخص من ثلاث ثوانٍ فقط من الصوت الموجود في مقطع فيديو نشره الشخص على الإنترنت على سبيل المثال. ويمكن للمحتالين بعد ذلك التعرف على أصدقاء الشخص وأفراد أسرته واستخدام الصوت المستنسخ من الذكاء الاصطناعي لإجراء مكالمة هاتفية لطلب المال.

وقال بنك ستارلينج في بيان صحفي يوم الأربعاء إن هذه الأنواع من عمليات الاحتيال لديها القدرة على "الإيقاع بالملايين".

شاهد ايضاً: حاكم كاليفورنيا يلغي مشروع قانون مثير للجدل بشأن سلامة الذكاء الاصطناعي

وقد أثرت بالفعل على المئات. ووفقًا لاستطلاع للرأي أجراه البنك مع شركة Mortar Research الشهر الماضي وشمل أكثر من 3000 شخص بالغ، قال أكثر من ربع المشاركين في الاستطلاع إنهم استُهدفوا من خلال عملية احتيال استنساخ صوتي باستخدام الذكاء الاصطناعي خلال الـ 12 شهرًا الماضية.

وأظهر الاستطلاع أيضاً أن 46% من المشاركين في الاستطلاع لم يكونوا على علم بوجود مثل هذه الحيل، وأن 8% منهم قد يرسلون أموالاً حسب طلب صديق أو أحد أفراد العائلة، حتى لو اعتقدوا أن المكالمة تبدو غريبة.

وقالت ليزا جراهام، كبيرة مسؤولي أمن المعلومات في بنك ستارلينج في البيان الصحفي: "ينشر الأشخاص بانتظام محتوى على الإنترنت يحتوي على تسجيلات صوتية، دون أن يتخيلوا أبدًا أن ذلك يجعلهم أكثر عرضة للمحتالين".

شاهد ايضاً: في تحول مفاجئ، شركة "إكس" التابعة لماسك تبدأ بالامتثال لأوامر المحكمة في البرازيل

يشجع البنك الأشخاص على الاتفاق مع أحبائهم على "عبارة آمنة" - عبارة بسيطة وعشوائية يسهل تذكرها وتختلف عن كلمات المرور الأخرى - يمكن استخدامها للتحقق من هويتهم عبر الهاتف.

وينصح المُقرض بعدم مشاركة العبارة الآمنة عبر الرسائل النصية، مما قد يسهل على المحتالين اكتشافها، ولكن إذا تمت مشاركتها بهذه الطريقة، فيجب حذف الرسالة بمجرد أن يطلع عليها الشخص الآخر.

ومع ازدياد مهارة الذكاء الاصطناعي في محاكاة الأصوات البشرية، تتزايد المخاوف بشأن قدرته على إلحاق الضرر بالأشخاص، على سبيل المثال، عن طريق مساعدة المجرمين في الوصول إلى حساباتهم المصرفية، ونشر المعلومات المضللة.

شاهد ايضاً: لقد تعرضت AT&T لانقطاع آخر. لماذا تحدث هذه الحوادث باستمرار لهم؟

في وقت سابق من هذا العام، كشفت OpenAI، الشركة المصنعة لروبوت الدردشة التوليدي للذكاء الاصطناعي ChatGPT، عن أداة محاكاة الصوت، لكنها لم تجعلها متاحة للجمهور في تلك المرحلة، مشيرة إلى "إمكانية إساءة استخدام الصوت الاصطناعي".

أخبار ذات صلة

Loading...
Halliburton confirms a cyberattack forced it to take its systems offline

تأكد هاليبرتون من تعرضها لهجوم إلكتروني أجبرها على إيقاف أنظمتها عبر الإنترنت

تكنولوجيا
Loading...
British engineering giant Arup revealed as $25 million deepfake scam victim

كشفت شركة الهندسة البريطانية العملاقة أروب عن وقوعها ضحية لعملية احتيال بقيمة 25 مليون دولار من خلال تقنية الفيديو المزيفة

تكنولوجيا
Loading...
Google to delete billions of browser records to settle ‘Incognito’ lawsuit

جوجل ستحذف مليارات السجلات في المتصفح لتسوية دعوى "التصفح الخفي"

تكنولوجيا
Loading...
The maker of Ozempic is funding a new Nvidia-powered AI supercomputer

صانع عقار أوزمبيك يمول جهاز كمبيوتر فائق الذكاء بتقنية نفيديا الجديد

تكنولوجيا
الرئيسيةأخبارسياسةأعمالرياضةالعالمتكنولوجيااقتصادصحةتسلية