حذّر بحث جديد صدر عن بنك Starling، من أن صوتك قد يكون الأداة التي يستخدمها المجرمون للوصول إلى أموالك.
وقال Starling، وهو بنك عبر الإنترنت مقره المملكة المتحدة، إن ملايين الأشخاص معرضون لخطر الوقوع كضحية لعمليات استنساخ الصوت.
ووجدت البيانات، التي تستند إلى مسح تمثيلي لنحو 3000 بالغ في المملكة المتحدة، أن 28٪ من الأشخاص قالوا إنهم تعرضوا لعملية احتيال استنساخ صوت بالذكاء الاصطناعي مرة واحدة على الأقل في العام الماضي.
وأشار باحثو Starling إلى أن 46٪ من البالغين في المملكة المتحدة لم يكونوا على علم بوجود مثل هذه الاحتيالات.
يُذكر أن البرامج القوية القائمة على الذكاء الاصطناعي تتمكن من استنساخ صوت الشخص باستخدام ثوانٍ فقط من الصوت الأصلي، علماً أنه ليس من الصعب العثور عليه بفضل حسابات وسائل التواصل الاجتماعي ويوتيوب وأرشيفات الإنترنت الأخرى. ففي مارس/آذار الماضي، كشفت شركة OpenAI عن محركها الصوتي، الذي يمكنه استنساخ كلام شخص ما بدقة باستخدام مقطع مدته 15 ثانية فقط.
وأصدر مكتب التحقيقات الفيدرالي تحذيراً مماثلاً في أوائل مايو/أيار، قال فيه إن أدوات الذكاء الاصطناعي متاحة للجمهور وتسمح للمحتالين بزيادة سرعة وحجم وأتمتة هجماتهم.
وبالرغم من كون القواعد النحوية غير الصحيحة أو الأخطاء الإملائية أدلة واضحة في الماضي، إلا أن أدوات الذكاء الاصطناعي يمكنها إنشاء رسائل مقنعة للضحايا حالياً.
وفي غضون ذلك، نفّذت البنوك الكبرى مثل HSBC وSchwab وغيرها فحصاً أمنياً لـ Voice ID لتسريع تفاعلات خدمة العملاء.
وفي ضوء ذلك، أوصى مكتب التحقيقات الفيدرالي العملاء بما يلي للحفاظ على أمان معلوماتهم وأموالهم:
– كن يقظاً: الرسائل التي تطلب المال أو بيانات الاعتماد هي علامات خطر. يجب على الشركات توظيف الحلول التقنية لمكافحة تكتيكات التصيد والتأكد من تدريب الموظفين ضدها.
– استخدم المصادقة متعددة العوامل: تعد هذه الأداة حاسمة ضد المحتالين الذين يحاولون السيطرة على حساب أو نظام.
وفي حال تعرضت لمحاولة احتيال، تطلب منك لجنة التجارة الفيدرالية إرسال بريد إلكتروني إليهم.
المصدر NewsNation

















