گوگل با استفاده از هوش مصنوعی و نظارت انسانی، به مبارزه با افراط گرایی آنلاین می رود

کمپانی های اینترنتی در چند سال اخیر با فشار زیادی از سوی مجامع بین المللی، برای جلوگیری از انتشار محتواهای افراطی مواجه بوده اند. گوگل نیز به عنوان بزرگترین شرکت فعال در این حوزه، برنامه های ویژه ای برای نشانه گذاری و حذف محتواهای تروریستی -به خصوص در یوتوب- دارد.

گوگل با استفاده از هوش مصنوعی و نظارت انسانی، به مبارزه با افراط گرایی آنلاین می رود

کمپانی های اینترنتی در چند سال اخیر با فشار زیادی از سوی مجامع بین المللی، برای جلوگیری از انتشار محتواهای افراطی مواجه بوده اند. گوگل نیز به عنوان بزرگترین شرکت فعال در این حوزه، برنامه های ویژه ای برای نشانه گذاری و حذف محتواهای تروریستی -به خصوص در یوتوب- دارد.

پیشرفت های فناوری خصوصاً در حوزه هوش مصنوعی نقش مهمی در پیشبرد اهداف گوگل داشته اند، اما کمپانی ساکن مانتین ویو استفاده از نیروی انسانی را نیز برای تقویت فیلترهای هوشمند خود در برنامه دارد.

گوگل با استفاده از یادگیری ماشینی، اخبار واقعی را از محتوای افراطی تشخیص می دهد

در وهله اول، گوگل تمرکز خود را روی تقویت یادگیری ماشینی گذاشته تا بهتر بتواند ویدئوهای مربوط به سازمان های تروریستی را از اخبار و گزارشات خبرگزاری ها تشخیص دهد. شرکت مذکور همچنین سیستم ضد افراط گرایی خود را توسعه داده و برای افرادی که به صورت بالقوه، احتمال پیوستن به گروه های رادیکال را دارند تبلیغات ضد تروریستی پخش می کند.

در ادامه گوگل قصد دارد تعداد افرادی که عضو برنامه «Trusted Flagger» یوتوب هستند را به طرز چشمگیری افزایش داده و فرآیند نشانه گذاری محتواهای افراطی را بیش از پیش سرعت دهد.

کمپانی مورد بحث همچنین ویدئوهایی که روی مرز افراط قرار دارند را نیز نشانه گذاری کرده و از ارسال نظر، پیشنهاد بازدید، نمایش تبلیغات و ایجاد درآمد برای آنها جلوگیری می کند.

تلاش گوگل، فیسبوک، توییتر و سایر کمپانی های فعال در شبکه اینترنت در مبارزه با تروریسم هر روز جدی تر شده و شرکت های مورد اشاره راهکارهای جدیدی برای مقابله با افراط گرایی آنلاین ارائه می دهند. اما مسئله اینجاست که با وجود تدابیر شدید، حجم بالای ویدئوهای موجود باعث می شود هر از گاهی بعضی از محتواهای افراطی در فضای اینترنت منتشر شوند.

قیمت بک لینک و رپورتاژ
نظرات خوانندگان نظر شما در مورد این مطلب؟
اولین فردی باشید که در مورد این مطلب نظر می دهید
ارسال نظر