الأحد - 2025/12/07 6:49:47 مساءً

NE

News Elementor

هذا الموقع بــرعاية

تحذير من البنك العربي الإسلامي الدولي: احتيال باستخدام الذكاء الاصطناعي لتقليد الأصوات وتحويل الأموال

أصدر البنك العربي الإسلامي الدولي تحذيرًا بشأن ظهور نوع جديد من الاحتيال يعتمد على تقنيات الذكاء الاصطناعي لتقليد أصوات أشخاص حقيقيين بهدف خداع الضحايا وتحويل الأموال عبر المحافظ الإلكترونية أو خدمات مثل CliQ.

وأوضح البنك أن المحتالين يسجلون صوت الضحية ثم يستخدمونه لتقليد الصوت والتواصل مع المعارف لطلب تحويل أموال بصوت مطابق تمامًا.

ودعا البنك العملاء إلى توخي الحذر وعدم الاستجابة لأي طلب تحويل مالي دون التحقق المباشر من الشخص المعني، مشددًا على أهمية نشر هذه المعلومات التوعوية لحماية الجميع.

الاكثر قراءة

اشترك معنا

برعايـــة

حقوق النشر محفوظة لـ أخبار الكويت © 2025
تم تصميمه و تطويره بواسطة

www.enogeek.com