أمريكا.. ازدياد عمليات الاحتيال على كبار السن عبر تقنية الذكاء الاصطناعي
أصاب جينيفر ديستيفانو، وهي أم تقيم في أريزونا قلقاً بعدما سمعت صوت ابنتها وهي تبكي في مكالمة هاتفية يزعم فيها رجل أنّه خطف الفتاة ويطلب فدية، إلّا أنّ نبرة صوت البنت لم تكن حقيقية بل مولّدة بواسطة تقنية الذكاء الاصطناعي في محاولة للاحتيال على الأمّ.
ولفت الخبراء إلى أنّ الخطر الأبرز للذكاء الاصطناعي يتمثّل في قدرة هذه التقنية على تبديد الخط الفاصل بين الحقيقة والخيال، وتزويد المجرمين بأدوات فعّالة وغير مكلفة، وقد أثارت عمليات احتيال هاتفية حديثة تستخدم أدوات النسخ الصوتي المُستندة إلى الذكاء الاصطناعي والمتاحة بسهولة في الإنترنت، قلق السلطات الأمريكية.
تابعنا عبر فيسبوك
وصدّقت الوالدة أنّ الصوت الذي سمعته بالهاتف هو صوت ابنتها ذات الخمسة عشر عاماً التي خرجت لممارسة التزلج، وقالت الأم لمحطة تلفزيونية محلية في نيسان الماضي “كان الصوت مطابقاً لصوت ابنتي مع طريقة بكائها نفسها، لم أشك للحظة أنها قد لا تكون هي”.
طلب المحتال الذي اتّصل بالوالدة من رقم مجهول الحصول على مليون دولار، لقاء إطلاق سراح الفتاة.
تخضع حالياً هذه الحادثة -التي وصلت إلى نهايتها سريعاً بعدما تمكّنت ديستيفانو من التواصل مع ابنتها- لتحقيق من السلطات المختصة، وكان لها دور في تسليط الضوء على عمليات الاحتيال المحتملة بفعل استخدام مجرمي الإنترنت برامج الذكاء الاصطناعي.
من جانبه، حذّر المدير التنفيذي لشركة “بلاكبيرد إيه آي” وسيم خالد، في حديثه لوكالة الصحافة الفرنسية، من أنّ “النسخ الصوتي عبر الذكاء الاصطناعي بات من شبه المستحيل تمييزه عن الصوت البشري، وهذا ما يتيح للأشخاص السيئي النية الحصول على معلومات ومبالغ من الضحايا بأسلوب أكثر فعالية ممّا كان عليه يعتمدون في العادة”.
وكانت السلطات الأمريكية حذرت مؤخراً من تزايد “عمليات الاحتيال التي تطال كبار السنّ”.
شاهد أيضاً لحظة مروعة لسرقة طفلة من جدتها في فرنسا