تصور کنید تماسی تلفنی از یکی از اعضای خانواده دریافت میکنید که صدایش ناراحت به نظر میرسد و از شما درخواست پول میکند اما کمی بعد، میفهمید که این تماس و صدایی که شنیدهاید جعلی بوده و از شما کلاهبرداری شده است. به بیان دیگر، متوجه میشوید این تماس هرگز از طرف آنها نبوده، بلکه صدایی جعلی ساخته هوش مصنوعی بوده است.
این طرح یک رمان علمیتخیلی نیست؛ همین حالا هم چنین چیزی برای هزاران نفر به واقعیت تبدیل شده است. سوفیا خاتسنکوا در گزارشی که اخیرا برای یورونیوز نوشت، نمونههایی از تولیدات این فناوری جدید شبیهسازی صوتی را که آمیزهای از یادگیری عمیق و جعل است، شرح داد.
او مینویسد: شما با پرداخت چند یورو بیشتر، میتوانید از این شرکتها بخواهید یک صدا را با چنان کیفیتی جعل کنند که بتوان با آن، دیگران را متقاعد کرد و فریب داد.
یکی از نمونههای اخیر که در فضای مجازی بسیار بازنشر شد، این بود که کاربران انجمن آنلاین 4chan صدای اما واتسون، بازیگر بریتانیایی را در حال خواندن کتاب «نبرد من» آدولف هیتلر جعل و شبیهسازی کردند.
آنها برای این جعل صدا از ابزاری به نام پرایم ویس استفاده کردند که شرکت نوآفرین ایلونلبز (ElevenLabs) آن را ساخته بود. مثال دیگری از بینقص و دقیق بودن این فناوری نمونه شبیهسازی صوتی است که صدای لئوناردو دیکاپریو در حال سخنرانی در سازمان ملل متحد را تقلید میکرد.
اینک کارشناسان بسیاری از این موضوع ابراز نگرانی کردهاند. نخست اینکه از این فناوری ممکن است برای پخش اطلاعات نادرست استفاده شود. به عنوان مثال، این فناوری ممکن است کاری کند مردم باور کنند یک سیاستمدار اظهارات تکاندهندهای بیان کرده است. خطر دیگر این فناوری هم این است که میتواند در کلاهبرداری از افراد، بهخصوص افراد مسن، به کار گرفته شود.
متخصصان علوم رایانهای بر این باورند که شبیهسازی جعلی صدا عملا کار چندان دشواری نیست. متیو رایت، مدیر بخش علوم رایانهای موسسه فناوری روچستر، به یورونیوز گفت که این نرمافزارها برای یک جعل تمیز و بینقص، به در اختیار داشتن صداهای بسیاری از افراد نیاز ندارند. به گفته او، برای مثال شما میتوانید فقط با افراد تماس بگیرید و وانمود کنید فروشندهاید و با همین مکالمه، به اندازه کافی صدای فرد مقابل را ضبط کنید. متیو رایت اشاره میکند که شاید این تنها چیزی باشد که آنها برای کلاهبرداری از دیگران به آن نیاز دارند.
اخیرا یک روزنامهنگار وبسایت وایس، با استفاده از شبیهسازی صدای خود با هوش مصنوعی موفق شد به حساب بانکیاش نفوذ کند. در واقع این روزنامهنگار بانک را فریب داد تا بانک او را با صاحب حساب اشتباه بگیرد و به تراکنشهای او دسترسی پیدا کند؛ موضوعی که امنیت سامانههای تایید صوتی را زیر سوال میبرد.
شرکتی که فایل صوتی شبیهسازی شده اما واتسون را تولید کرده بود، اعلام کرد که هزینه خدمات و عضویتش را افزایش میدهد و تایید هویت کاربران به صورت غیرماشینی انجام میشود. با این حال، کارشناسان هشدار میدهند که برای جلوگیری از چنین کلاهبرداریهایی در آینده باید قوانینی وضع شوند.
کارشناسان پیش از هرچیز پیشنهاد میکنند افراد باید مراقب تماسهای غیرمنتظره و فوری برای درخواست پول از طرف عزیزان یا محل کارشان باشند.
به گفته رایت، شما باید از آنها تعدادی سوال شخصی بپرسید تا بتوانید هویتشان را تایید کنید: «سعی کنید از منابع و کانالهای متفاوتی استفاده کنید؛ مثلا بهانهای بیاورید و بگویید که خودتان با آنها تماس خواهید گرفت. بعد با شماره تلفنی که از آنها دارید، با این افراد تماس بگیرید. اگر آنها شماره تلفن موردنظر را جعل کرده باشند، طبیعی است که از شما تماسی دریافت نخواهند کرد.»
به طور کلی به این فکر کنید که برای مثال، آیا واقعا منطقی است که رئیستان از شما بخواهد 10 کارت هدیه 250 دلاری بخرید؟ احتمالا نه!