به طور خلاصه: یکی از ترس های بزرگ از هوش مصنوعی که بتواند صدای افراد را به طور کامل بازسازی کند، پتانسیل آن برای کلاهبرداری است. این نوع فناوری در چند ماه گذشته پیشرفتهای بزرگی داشته است و جای تعجب نیست که توسط مجرمانی که میتوانند صدایی را جعل کنند تا خانواده صاحبش را متقاعد کنند که فرد به کمک مالی نیاز دارد، مورد سوء استفاده قرار میگیرد.
ElevenLabs که یک ابزار صوتی مولد هوش مصنوعی را ارائه می دهد، اخیراً در توییتی اعلام کرد که شاهد «تعداد فزاینده موارد سوء استفاده از شبیه سازی صدا» است. این منجر به حذف قابلیت شبیه سازی صدا از نسخه رایگان برنامه VoiceLab شد.
منبع
زوج متفاوتی که چندان خوش شانس نبودند والدین بنجامین پرکین بودند. آنها از یک وکیل تماس گرفتند که میگفت پسرشان یک دیپلمات آمریکایی را در یک تصادف رانندگی کشته است و پرکین در زندان است و برای هزینههای قانونی به پول نیاز دارد. وکیل پرکین را تلفن کرد و گفت که آنها را دوست دارد و قدردان پول است.
کلاهبرداری های مبتنی بر صدا چیز جدیدی نیست. داده های کمیسیون تجارت فدرال نشان می دهد که از 36000 گزارش در سال گذشته مبنی بر کلاهبرداری از افراد توسط مجرمانی که وانمود می کردند دوست یا خانواده هستند، بیش از 5100 مورد از این حوادث از طریق تلفن اتفاق افتاده است.
اول، ما همیشه این توانایی را داشته ایم که هر کلیپ صوتی تولید شده را به یک کاربر خاص ردیابی کنیم. اکنون یک گام فراتر خواهیم رفت و ابزاری را منتشر خواهیم کرد که به هر کسی اجازه میدهد بررسی کند که آیا نمونه خاصی با استفاده از فناوری ما تولید شده است یا خیر و سوء استفاده را گزارش کند. این هفته آینده منتشر خواهد شد
— ElevenLabs (@elevenlabsio) 31 ژانویه 2023
جعل صدای یک فرد قبلاً یک روش پیچیده و طولانی بود که شامل کشف و جمع آوری ساعت ها صدا می شد و نتیجه نهایی همیشه قانع کننده نبود. با این حال، اکنون، ابزارهای هوش مصنوعی این فرآیند را به قدری آسان کرده اند که کلاهبرداران فقط به یک کلیپ کوچک از صحبت کردن یک فرد، که اغلب از یک حساب رسانه اجتماعی جمع آوری شده است، نیاز دارند تا صدای خود را با دقت بازسازی کنند.
پرکین گفت: صدا به اندازه کافی نزدیک بود که والدینم واقعاً باور کنند که با من صحبت کرده اند. والدین او 15449 دلار از طریق ترمینال بیت کوین برای کلاهبردار ارسال کردند و نتوانستند آن را پس بگیرند.
واشنگتن پست گزارش می دهد که یک زوج کانادایی در دهه 70 زندگی خود اخیراً با نوه آنها تماس تلفنی دریافت کردند که ادعا می کرد او در زندان است و به پول وثیقه نیاز دارد. آنها حداکثر 3000 دلار کانادا را از یک بانک برداشت کردند و می خواستند همان مقدار را از بانک دیگر خارج کنند که مدیر به آنها گفت که در حال کلاهبرداری هستند. معلوم شد که مشتری دیگری تماس مشابهی دریافت کرده و متوجه شده که جعلی بوده است.
نمونه ای از این فناوری ابزار Vall-E مایکروسافت است که این شرکت در ژانویه اعلام کرد. بر اساس فناوری به نام EnCodec که متا در اکتبر 2022 اعلام کرد، با تجزیه و تحلیل صدای یک فرد، تجزیه اطلاعات به اجزای سازنده و استفاده از آموزش آن برای ترکیب صدا در صورت بیان عبارات مختلف، کار می کند. حتی پس از شنیدن یک نمونه سه ثانیهای، Vall-E میتواند تن صدا و لحن احساسی گوینده را تکرار کند. در این صفحه GitHub ببینید چقدر متقاعد کننده است.