/

بنك يحذر من أن عمليات استنساخ الأصوات بالذكاء الاصطناعي قد تستهدف الملايين من الناس

ai-voice-cloning-scams-could-target-millions,-warns-bank

قد يتعرض ملايين الأشخاص قريبًا لخطر الوقوع ضحية لعمليات الاحتيال التي تنطوي على استنساخ صوتي باستخدام الذكاء الاصطناعي، وفقًا لتحذير من بنك ستارلينج البريطاني. وقد أطلق البنك الذي يقدم خدمات الإقراض عبر الإنترنت فقط تحذيراً من قدرة المحتالين على استخدام الذكاء الاصطناعي لاستنساخ الأصوات، وغالباً ما يحتاجون إلى ثلاث ثوانٍ فقط من الصوت. يمكن استخدام هذا الصوت، الذي غالبًا ما يتم الحصول عليه بسهولة من المحتوى الذي تتم مشاركته علنًا عبر الإنترنت مثل مقاطع الفيديو أو التسجيلات الصوتية، لانتحال شخصية شخص ما أثناء المكالمات الهاتفية.

بمجرد أن ينجح المحتال في استنساخ صوت الشخص، فإنه يستهدف أصدقاء الشخص وعائلته. ثم يتم استخدام الصوت المستنسخ بالذكاء الاصطناعي لإجراء مكالمات هاتفية مزيفة، وعادةً ما يطلبون فيها المال. هذا النوع من الاحتيال مثير للقلق بشكل خاص لأنه يلعب على ثقة الأفراد في أحبائهم، مما يجعل عملية الاحتيال قابلة للتصديق بشكل كبير ومن المحتمل أن يكون من الصعب اكتشافها.

وقد سلط بنك ستارلينج الضوء على إمكانية أن تؤثر هذه الحيل على الملايين، مشيراً إلى أن الخطر يتزايد بسرعة. وقد أظهر استطلاع للرأي أجراه البنك، بالشراكة مع شركة Mortar Research، أن هذه الحيل قد أثرت بالفعل على عدد كبير من الأشخاص. فقد كشف أكثر من ربع المشاركين في الاستطلاع البالغ عددهم 3,000 شخص أنهم استُهدِفوا بعمليات احتيال استنساخ صوتي باستخدام الذكاء الاصطناعي خلال الاثني عشر شهراً الماضية. وعلى الرغم من هذه الأرقام، لا يزال الوعي بهذا النوع من الاحتيال منخفضاً، حيث اعترف 46% من المشاركين في الاستطلاع بأنهم لم يكونوا على علم بوجود مثل هذه الحيل.

أحد الجوانب الأكثر إثارة للقلق في الاستطلاع هو أن 8% من المشاركين في الاستطلاع قالوا إنهم سيستمرون في إرسال الأموال إذا طلب منهم صديق أو أحد أفراد العائلة عبر الهاتف، حتى لو وجدوا الموقف غير عادي. وهذا يسلط الضوء على فعالية الاستنساخ الصوتي للذكاء الاصطناعي في محاكاة الفروق الدقيقة في صوت الشخص وخداع حتى الأفراد المتشككين.

مع استمرار تطور تكنولوجيا الذكاء الاصطناعي وتحسنها، تتزايد احتمالية إساءة استخدامها. ينصح بنك Starling Bank الأشخاص باتخاذ خطوات احترازية لحماية أنفسهم. تتضمن إحدى التوصيات إعداد “عبارة آمنة” مع أحبائهم، وهي عبارة عشوائية لا تُنسى يمكن استخدامها للتحقق من الهوية أثناء المحادثات الهاتفية. يُقترح استخدام هذه الطريقة لتوفير طبقة إضافية من الأمان، مما يساعد على ضمان أنه حتى لو قام أحد المحتالين باستنساخ صوت الشخص، فلن يتمكن من الوصول إلى هذه العبارة المتفق عليها.

يحذّر البنك من مشاركة هذه العبارة الآمنة عبر الرسائل النصية، حيث يمكن أن يعترضها المحتالون. إذا تمت مشاركة العبارة عبر رسالة نصية، يوصي بنك ستارلينج بحذف الرسالة فور رؤيتها لتقليل خطر التعرض للخطر.

يُعد ظهور الاستنساخ الصوتي للذكاء الاصطناعي جزءًا من مخاوف أوسع نطاقًا بشأن إمكانية إساءة استخدام الذكاء الاصطناعي. من الوصول إلى الحسابات المصرفية إلى نشر المعلومات المضللة، فإن التقدم السريع للتكنولوجيا يخلق نقاط ضعف جديدة. في وقت سابق من هذا العام، كشفت شركة OpenAI لأبحاث الذكاء الاصطناعي عن أداة قادرة على استنساخ الصوت، ولكنها اختارت عدم إتاحتها للجمهور بسبب المخاوف من احتمال إساءة استخدامها.

مع استمرار المحتالين في تبني أساليب أكثر تطوراً، من الضروري أن يظل الأفراد متيقظين وأن يتخذوا تدابير استباقية لحماية أنفسهم وأحبائهم من الوقوع ضحايا لعمليات الاحتيال عبر استنساخ الصوت بالذكاء الاصطناعي.