راهکار فیسبوک برای مبارزه با دیپ فیک: فریب تکنولوژی تشخیص چهره

محققان هوش مصنوعی فیسبوک برای مبارزه با دیپ فیک و مخفی نگه داشتن هویت افراد، یک سیستم یادگیری ماشینی توسعه داده اند که می تواند هویت افراد را به شکل بلادرنگ در ویدیوها (از جمله ویدیوهای زنده) مخفی نگه دارد.

راهکار فیسبوک برای مبارزه با دیپ فیک: فریب تکنولوژی تشخیص چهره

محققان هوش مصنوعی فیسبوک برای مبارزه با دیپ فیک و مخفی نگه داشتن هویت افراد، یک سیستم یادگیری ماشینی توسعه داده اند که می تواند هویت افراد را به شکل بلادرنگ در ویدیوها (از جمله ویدیوهای زنده) مخفی نگه دارد.

در این سیستم، یک رمزگذار اتوماتیک در همکاری با سیستمی که چهره ها را طبقه بندی می کند، صورت فرد را در عین حفظ کردن حالت طبیعی، به نحوی تغییر می دهد که سیستم های تشخیص چهره از شناسایی آن ناتوان می مانند و فقط انسان ها قادر به تشخیص هویت واقعی فرد هستند.

محققان فیسبوک در مقاله ای که در مورد سامانه مخفی کننده هویت خود نوشته اند، با اشاره به از بین رفتن حریم شخصی در اثر استفاده از سیستم های تشخیص چهره و اثرات زیان باری که تکنولوژی جا به جایی چهره در پی دارد، در مورد رویکرد خود می گویند:

«با توجه به اتفاقات اخیر که نگرانی هایی را در مورد پیشرفت تکنولوژی تشخیص چهره و سوءاستفاده از آن به وجود آورده بود، نیاز به درک روش هایی که به طور موفقیت آمیز عمل ضدشناسایی (De-Identification) را انجام می دهند حس می شد.»

سیستم مورد بحث روی «جنیفر لارنس»، بازیگر آمریکایی آزمایش شد و همانطور که در ادامه ملاحظه می کنید در چهره این بازیگر تغییرات اندکی صورت گرفته ولی هویت او همچنان توسط انسان قابل تشخیص است:

محققان هوش مصنوعی فیسبوک

یکی از نقاط قوت این سیستم عدم نیاز به آموزش آن برای هر ویدیو یا فرد است و فقط کمی در زمان ویدیو تغییراتی ایجاد می کند.

با وجود آزمایش موفقیت آمیز این سیستم، هنوز مدت زمان زیادی تا تجربه آن در فیسبوک فاصله داریم. سخنگوی فیسبوک به سایت VentureBeat می گوید این شرکت برنامه ای برای به کارگیری این تحقیق در محصولات خود ندارد. با این حال از این سیستم می توان برای مبارزه با سیستم های تشخیص چهره شرکت های شخص ثالث که فعالیت های کاربران را تحت نظر می گیرند استفاده کرد و اثرات ویدیوهای دیپ فیک را خنثی نمود.

قیمت بک لینک و رپورتاژ
نظرات خوانندگان نظر شما در مورد این مطلب؟
اولین فردی باشید که در مورد این مطلب نظر می دهید
ارسال نظر
پیشخوان