حذّر بنك “ستارلينج” البريطاني من أن ملايين” الأشخاص حول العالم قد يقعون ضحايا لعمليات احتيال تستخدم الذكاء الاصطناعي لاستنساخ أصواتهم
ووفق بيان صادر عن البنك، اليوم الخميس الماضي، فإن المحتالين قادرون على استخدام الذكاء الاصطناعي لتقليد صوت الشخص من خلال ثلاث ثوانٍ فقط من الصوت الموجود.
كما قال إن المحتالين يمكنهم بعد ذلك التعرف على أصدقاء الشخص وأفراد أسرته، واستخدام الصوت المستنسخ من الذكاء الاصطناعي لإجراء مكالمة هاتفية لطلب المال.
وأشار بنك “ستارلينج” إلى أن “هذه الأنواع من عمليات الاحتيال، لديها القدرة على الاحتيال والنصب على ملايين الأشخاص”.
ووفقاً لاستطلاع شمل أكثر من 3000 شخص بالغ أجراه البنك الشهر الماضي، قال أكثر من ربع المشاركين في الاستطلاع، إنه تم “استهدافهم من خلال عملية احتيال لاستنساخ الصوت باستخدام الذكاء الاصطناعي في الأشهر الـ12 الماضية”.
كما أظهر الاستطلاع، أيضاً، أن “46% من المشاركين لم يكونوا على علم بوجود مثل هذه الاحتيالات، وأن 8% سيرسلون أكبر قدر من الأموال حسب طلب صديق أو أحد أفراد العائلة، حتى لو ظنوا أن المكالمة تبدو غريبة”.
من جانبها، قالت كبيرة مسؤولي أمن المعلومات في “بنك ستارلينج”، ليزا جراهام: “ينشر الأشخاص بانتظامٍ محتوى عبر الإنترنت يحتوي على تسجيلات لأصواتهم، دون أن يتخيلوا أبداً أن ذلك يجعلهم أكثر عرضة للمحتالين”.
ويشجع البنك الأشخاص على الاتفاق على “عبارة آمنة” مع عملائه- عبارة بسيطة وعشوائية يسهل تذكرها وتختلف عن كلمات المرور الأخرى الخاصة بهم- يمكن استخدامها للتحقق من هويتهم عبر الهاتف.
ومع تزايد مهارة الذكاء الاصطناعي في تقليد الأصوات البشرية، تتزايد المخاوف بشأن قدرته على إيذاء الناس، على سبيل المثال، من “خلال مساعدة المجرمين على الوصول إلى حساباتهم المصرفية، ونشر المعلومات المضللة”.
وفي وقت سابق من هذا العام، كشفت شركة “أوبن آول” الأمريكية، الشركة المصنعة لروبوت الدردشة “شات جي بي تي” الذي يعمل بالذكاء الاصطناعي، عن أداة النسخ الصوتي الخاصة بها “فويس إنجين” لكنها لم تجعلها متاحة للجمهور في تلك المرحلة، مشيرة إلى “احتمال إساءة استخدام الصوت الاصطناعي”.
المصدر: الخليج اون لاين