شناسه : ۱۷۴۲۳۹۴ - چهارشنبه ۳ مهر ۱۳۹۸ ساعت ۱۳:۲۸
مرز واقعیت و دروغ، به باریکی مو
به گزارش اقتصادآنلاین به نقل از تعادل؛ در وبسایت Csoonline آمده که دیپفیک فیلمها یا صداهای ضبطشده جعلی است که بسیار شبیه به واقعیت به نظر میرسد و امروز هرکسی میتواند در اوقات فراغت خود نرمافزارهای دیپفیک را دانلود کرده و ویدیوهای جعلی متقاعدکنندهای را بسازد. دیپ فیک از دو عبارت «دیپلرنینگ» و «فیک» تشکیل شده است. در این تکنولوژی یک هوش مصنوعی نرمافزاری با کمک الگوریتمهای ترکیبی پردازش صدا و تصویر، ویدیویی را تولید میکند. هوش مصنوعی میتواند صورت یک سوژه (فرد اصلی) را روی چهره سوژهای دیگر (فرد هدف) کپی کند. در حالت پیشرفتهتر، این تکنولوژی میتواند یک مدل جدید بر اساس حرکات صورت شخص اصلی درست کرده و آن را روی شخص هدف قرار دهد. این تکنولوژی قادر است با در اختیار داشتن کمترین داده تصویری در حد یک عکس، مدل مورد نظر را درست کرده و پردازش کند. با این حال هرچه داده بیشتری در اختیار هوش مصنوعی قرار بگیرد، نتیجه بیشتر به واقعیت نزدیک خواهد بود. به همین دلیل است که اشخاص مشهور و سیاستمداران، بهترین هدف برای دیپ فیک هستند، زیرا صدها عکس و ویدیو از آنها وجود دارد و متن باز بودن الگوریتم دیپ فیک، راه را برای جعل ویدیوی این افراد بیشتر فراهم میکند.کما اینکه تاکنون دیپفیکهای بسیاری از دونالد ترامپ -رییسجمهوری امریکا-، ولادیمیر پوتین –رییسجمهوری روسیه- و بسیاری از بازیگران هالیوودی منتشر شده است.
با وجود این، دیپفیکها تا امروز بیشتر به سرگرمی محدود شده بودند، اینکه چهرههای افراد مشهور را در فیلمهای خندهدار به کار ببرند یا سیاستمداران را وادار کنند در ویدیوها چیزهای خندهداری بگویند که هرگز در واقعیت نگفتهاند، اما باید توجه داشت که از این فناوری میتوان برای به هم زدن ازدواج افراد با فیلمهای نامناسب یا انتشار فیلمهای جعلی از یکی از نامزدهای انتخابات درست پیش از زمان رایگیری هم استفاده کرد و اینجاست که زنگ خطر به صدا درمیآید. این موضوع میتواند بسیاری از افراد را عصبی کند؛ برای مثال مارکو روبیو –سناتور جمهوریخواه ایالت فلوریدا- حتی آن را معادل مدرن سلاحهای هستهای میداند و میگوید: «پیش از این اگر میخواستید امریکا را تهدید کنید، به 10 فروند هواپیما و سلاح هستهای و موشکهای برد بلند نیاز داشتید. امروز فقط لازم است به سیستم اینترنت ما، به سیستم بانکی ما، به شبکه برق و زیرساختهای ما دسترسی داشته باشید و جامعتر از اینها اینکه تمام چیزی که نیاز دارید این است که بتوانید یک فیلم جعلی بسیار واقعگرایانه تولید کنید که میتواند انتخابات ما را تضعیف کند و کشورمان را به یک بحران عظیم داخلی سوق دهد.» هرچند همه با این نظر موافق نیستند. تیم هوانگ -مدیر حاکمیت هوش مصنوعی در مرکز برکمان-کلین و آزمایشگاه رسانهایMIT، میگوید: « فکر نمیکنم که این فناوری به اندازه بمبهای هستهای خطرناک باشد. البته نمایشهایی که از این فناوری دیدهایم میتواند نگرانکننده باشد، اما بعید است بازی را به روشی که مردم تصور میکنند، تغییر دهد.»
وقتی میتوان افراد و برندها را بیاعتبار کرد
با فناوری دیپفیک میتوان به راحتی یک خبرنگار، سیاستمدار، تجارت و برند را بیاعتبار کرد و با قرار دادن کلمات در دهان افراد، ویدیوها میتوانند آنقدر به واقعیت نزدیک شوند که خط بین واقعیت و دروغ را محو کنند. ترس، عدم اطمینان و تردید، برای افرادی که در سنگرهای امنیتی کار میکنند آشناست و استفاده از این ابزارها به عنوان یک سلاح در مقیاس بزرگ میتواند بهشدت به یک تجارت و همچنین یک فرد آسیب برساند. دفاع در برابر حملاتی که از این ابزارها استفاده میکنند، بسیار دشوار است و پس از انتشار یک ویدیوی دیپفیک که سروصدای زیاده به راه انداخته، بینندگان هرگز جزییات را فراموش نخواهند کرد و ممکن است همچنان تصور کنند که این ویدیو واقعیت داشته است. در حال حاضر حتی یک کاربر معمولی هم میتواند اپلیکیشن FakeApp را دانلود و شروع کند به ساختن دیپفیکهای خودش. اگرچه استفاده از این اپلیکیشن آنقدرها هم آسان نیست، اما یک کاربر باهوش نباید مشکلی در استفاده از آن داشته باشد. بنابراین به نظر میرسد در شرایطی قرار داریم که روشهای آسان و ارزان زیادی وجود دارد که چندان نیازمند یادگیری عمیق یا یادگیری ماشینی برای فریب و شکل دادن به افکار عمومی نیست. به عنوان مثال، فیلمبرداری از افرادی که در خیابان کسی را مورد ضرب و شتم قرار میدهند و سپس ایجاد یک روایت دروغین درمورد آن فیلم، میتواند به راحتی نظرات متفاوتی از واقعیت را ایجاد کند.
تشخیص دیپفیکهای خوب دشوار است
تشخیص دیپفیکها کار دشواری است، البته دیپفیکهای آماتور را میتوان با چشم غیرمسلح تشخیص داد، علائم دیگری هم وجود دارند که میتوانند به تشخیص ویدیوهای دیپفیک کمک کنند، از جمله اینکه شخص چشمک نزند یا سایههایی که جهت اشتباهی دارند. از طرفی برخی محققان در تلاش برای پیدا کردن راهی برای تشخیص دیپفیکها هستند. برای مثال یک تیم تحقیقاتی در ادانشگاه کالیفرنیا کارشان را با یک دیتاست بزرگ از تصاویر واقعی و ساختگی شروع کردند. با اینکه این سیستم فعلا تنها برای تشخیص عکسها کاربرد دارد، تیم تحقیقاتی تلاش دارد آن را برای تشخیص ویدیوها نیز بهینه کند. با این حال، احتمالا دقت این تکنولوژی هیچگاه 100 درصد نخواهد بود و نهایتا برای تشخیص تصاویر مشکوک استفاده خواهد شد و بررسی نهایی به انسانها سپرده میشود.با وجود این، نسل دیپفیکها در حال بهبود است و شاید به زودی برای تشخیص ویدیوهای دیپفیک، ناچار به اعتماد به کارشناسان دیجیتالی شویم، البته اگر بتوان از همان ابتدا واقعی و فیک بودن آنها را تشخیص داد. دکتر لی -محقق علوم کامپیوتری دانشگاه کالیفرنیا- معتقد است تنها شش ماه دیگر زمان باقی است برای اینکه بتوان ویدیوهای دیپفیک را از ویدیوهای واقعی تشخیص داد و با غیرقابل تشخیص شدن دیپفیکها، باید به دنبال راه دیگری برای تشخیص ویدیوها باشیم. به گفته وی، در حال حاضر تشخیص تقلب بودن ویدیوها بدون ابزار خاصی میسر است، اما تکنولوژی مورداستفاده در دیپفیک بهقدری سریع پیشرفت میکند که احتمالا تا شش ماه دیگر شاهد ویدیوهای کاملا قابل باور خواهیم بود. البته برای ساختن چنین ویدیوهای باورپذیری، باید وقت و انرژی بسیاری صرف شود، اما با صرف ابزارهای لازم و سرعتی که هوش مصنوعی پیشرفت میکند، احتمالا نتیجه نهایی غیرقابل تشخیص خواهد شد که این موضوع میتواند باعث ایجاد نگرانیهایی شود. هرچند لی معتقد است با وجود خطرات احتمالی، ساختن ویدیوهای جعلی برای پیشرفت این علم ضروری است، اما او امیدوار است بتواند راهحلی برای شناسایی ویدیوهای دیپفیک پیدا کند تا از آسیب رساندن آن به افراد معمولی جلوگیری شود.
منتقدین هشدار میدهند اگر نتوانیم فیلمهای جعلی را تشخیص دهیم، ممکن است به زودی مجبور شویم به آنچه میبینیم و میشنویم، بیاعتماد باشیم. در حال حاضر، اینترنت واسطهای در تمامی جنبههای زندگی ماست و عدم توانایی اعتماد به هر چیزی که میبینیم، میتواند منجر به « پایان حقیقت » شود. این موضوع نه تنها ایمان به سیستم سیاسی را تهدید میکند، بلکه در طولانیمدت، ایمان به آنچه که واقعیت عینی مشترک است را هم از بین میبرد. اگر نتوانیم درباره اینکه چه چیزی واقعی است و چه چیزی نیست، توافق نظر داشته باشیم، چطور میتوان موضوعات جنجالی را به بحث گذاشت.