خواندنی ها برچسب :

دیپ-فیک

دیپ‌فیک‌ها برای ماندن آمده‌اند و شما نیاز خواهید داشت که راه‌هایی برای «مقابله» با تهدید آن‌ها پیدا کنید.
تاثیر دیپ فیک‌ها در انتخابات هند را ببینید. نارندرا مودی نخست وزیر هند و برخی دیگر از سیاستمداران از این پدیده غیر واقعی استقبال کرده اند.
یک وکیل دادگستری در رابطه با استفاده از دیپ فیک برای اهداف مجرمانه و غیر اخلاقی گفت: فناوری‌های نوین مانند سایر ابزار‌های ساخت دست بشر مانند چاقویی دو لب عمل می‌کند؛ به نحوی که می‌توان از آن‌ها برای امور مشروع و تسهیل امور دشوار در زندگی روزمره استفاده کرد و یا از آن‌ها به عنوان یک ابزار برای اهداف و اغراض مجرمانه و نامشروع سود برد.
ماجرای تشکیک در هویت واقعی «جو بایدن»، یا دست‌کم هویت کسی(یا کسانی) که به جای او در مجامع عمومی یا جلوی دوربین ظاهر می شود، از همان دوران انتخابات ریاست جمهوری 2020 آغاز شد و با پیروزی او، شدت گرفت.
نشریه بین‌المللی «کریدل» می‌نویسد توئیتر حساب‌های کاربری جعلی تحت مدیریت پنتاگون را شناسایی کرده، اما به جای حذف، از آن‌ها حمایت نموده تا پیام‌هایشان چندبرابر بازتاب داشته باشد.
دیپ‌فیک یا جعل عمیق در سال 2014 و توسط ایان گودفلو، که مدیر یادگیری ماشینی در گروه پروژه‌های ویژه شرکت اپل و یکی از رهبران این رشته بود، اختراع شد
اولین بار از این فناوری در شبکه اجتماعی ردیت رونمایی شد؛ زمانی که فردی با نام کاربری دیپ فیک ویدئویی تقلبی را در این برنامه به اشتراک گذاشت. در این ویدئو‌ها صورت بازیگران معروف با یکدیگر جابه‌جا شده بود و این مسئله توجه بسیاری را به خود جلب کرد.
ایجاد اختلال عمدی در سیستم‌های هوش مصنوعی نیز یکی از بزرگترین خطرات این فناوری به‌شمار می‌رود چرا که این اختلال می‌تواند بسته به توان فرد یا گروه ایجاد‌کننده این اختلال، دردسر‌ها و خسارات جدی ایجاد کند.
تاکنون عمدتاً از روش‌های آماری برای تشخیص ویدیوهای واقعی از دیپ فیک استفاده می‌شد، اما حالا محققان روش جدیدی برای تشخیص این قبیل ویدیوها پیدا کرده‌اند که مبتنی بر تحلیل فرکانس است.
شرکت دیزنی یک فناوری "دیپ‌فیک"(deepfake) توسعه داده که می‌تواند چهره افراد را با وضوحی بالا، تغییر دهد.
پیشخوان