قدرت فناوری و تکنولوژیهای نوین را هر روز بیشتر از قبل میتوان دریافت مثلا وقتی خبری منتشر میشود که فلان مسئول از طریق اسکایپ بر ماجرای قتل خاشقجی نظارت داشته یا وقتی که ترامپ مدام درخواستهایش را از طریق توییتر مطرح میکند.
روزنامه گاردین در سرمقاله سرویس دانش درباره خطرهای ازدسترفتن مهار فناوری برای نسل بشر هشدار داده است و در مقالهای با عنوان «فناوری از کنترل خارج شده است» به نقش تکنولوژیهای نوین در نسلکشی و دیگر رخدادهای خطرناک سیاسی پرداخته و نوشته است: «قدرت فناوری برای دستکاری ذهن و احساسات ممکن است از حد تحمل جامعه فراتر برود».
آیا حتی مردی با سوابق نیک کلِگ (سیاستمدار سابق بریتانیایی از حزب لیبرالدموکرات و از مدیران فعلی فیسبوک) که موفقیتهای سیاسی تردیدناپذیری دارد، میتواند فیسبوک را از بدنامی نجات دهد و شهرتش را احیا کند؟
نشانههای بدی در نقل مکان سِر نیک از سیاست انگلستان به وادی فیسبوک به چشم میخورد. او در روزهای اول زندگی حرفهایاش طرفدار مسئولیت بدون تأکید بر حفظ قدرت بود که با وعدههای بیملاحظهاش در سالهای بعد در فعالیتهای انتخاباتی سنخیتی نداشت. در رویکرد حرفه تازهای که او در پیش گرفته است، بیشتر با چنین مواردی سروکار خواهد داشت. فیسبوک نیز سابقهای طولانی از لحاظ لفاظی درباره دموکراسی و دورهمآوردن مردم و عملکردی در جهت عکس ادعاهایش دارد و از آن بهعنوان ابزاری برای بیثباتکردن دموکراسیها استفاده شده و در برخی موارد به وسیلهای برای تشویق نسلکشی در میانمار یا سازماندهی اقدامات خشونتآمیز دارودستههای جنایتکار از طریق شبکه اجتماعی زیرمجموعه آن، یعنی واتسآپ در سریلانکا تبدیل شده است.
فیسبوک این روزها درست مانند دموکراتهای لیبرال، سعی دارد تصویر مخدوش خود نزد عموم مردم را ترمیم کند. بیانیه اخیر این شرکت مبنی بر اینکه در تبلیغات سیاسی در انگلستان با شفافیت بیشتری عمل خواهد کرد، پسندیده است و باید از آن استقبال کرد، اما آن شرکت به پرسشی درباره اینکه چه کسی بهتازگی 250 هزار پوند برای این گرفته است که علیه طرح ترزا می، نخستوزیر انگلستان، تبلیغات جهتدار کند، پاسخ قانعکنندهای نمیدهد.
اما شاید منصفانهتر این باشد که سِر نیک را بیشتر یک سیاستمدار بدشانس بدانیم تا سیاستمداری که به صورتی منحصربهفرد پایبند اصول نیست. این نیز مسلما منصفانه نیست که فیسبوک را صرفا یک شرکت تبلیغاتی بیاصول و خطرناک در نظر بگیریم که در این حوزه نظیر ندارد.
اگر بخواهیم چنین توصیفی را به کار ببریم، بدون شک گوگل برازندهتر و سزاوارتر است که هشت سال پس از بیرونآمدن از بازار چین برای نپذیرفتن درخواست سانسور نتیجه جستوجوها در موتور جستوجوی آن، اکنون موافقت کرده است که روی یک موتور جستوجوی سانسورشدهای به نام Project Dragonfly برای آن بازار کار کند.
به گفته یکی از دانشمندان که استعفا را به کار روی این موتور جستوجو ترجیح داده است، این ابزار فناوری نهفقط کلماتی مانند «حقوق بشر» را در فهرست سیاه جستوجو قرار میدهد، بلکه اطلاعات مربوط به جستوجوها را با شماره تلفن کاربر مرتبط میکند تا قابل پیگرد باشد. بااینحال، اوایل پاییز امسال گوگل از قرارداد احتمالی 10 میلیارددلاری با پنتاگون خارج شد به این دلیل که ظاهرا درباره اخلاقیبودن برنامه هوش مصنوعی تردید دارد.
در هر گونه بحث اخلاقی درباره استفاده از هوش مصنوعی لازم است به درجه نفوذ این فناوری در زندگی روزمره ما توجه شود. دوربینهای موجود در گوشیهای تلفنهمراه هوشمند امروزه بیش از سختافزارها به تکنیکهای هوش مصنوعی در نرمافزارهای خود برای تشخیص چهره متکی هستند.
برای ساختن دوربینهای نظارتی کارآمدتر نیز از همان تکنیکهای فناورانه استفاده میشود. اکنون فقط دولتها نیستند که میتوانند از قدرت این فناوریها سوءاستفاده کنند. نوجوانان عادی هم میتوانند از عکس برای آزارواذیت و قلدری استفاده کنند. همه این فناوریها عملا در خدمت دستکاری احساسات جمعی ما و در واقع عقل ما برای برطرفکردن نیازهای صنعت تبلیغات قرار گرفته است. این فناوریها با کمک به تبلیغات نامحسوس عمیقا در فساد سیاسی آغشته شدهاند.
یوتیوب که متعلق به شرکت آلفابت زیرمجموعه گوگل است، اکنون منبع اصلی اخبار برای جوانان در ایالات متحده و احتمالا در بریتانیاست. اکنون گروههای راست افراطی و همچنین تروریستها بهطور گستردهای از این شبکه سوءاستفاده میکنند. مشکل فقط این نیست که از الگوریتمهای این شرکت برای القای محتوای پرحاشیه و گاه افراطی استفاده میشود. شبکههایی از کامنتهای کاملا آگاه و هدفمند نیز در کار است تا از افکار «نژادپرستانه علمی» تا نفرت از مسلمانان یا فمینیستها را القا کنند و به محتوای افراطی مشروعیت ببخشند.
خندیدن به سِر نیک کار راحتی نیست. اما او در شغل جدید خود نیز مانند حرفه قدیمش مشکلاتی واقعی را تشخیص داده است. باید امیدوار باشیم یک نفر راهحلهایی بهتر از او و حزبش برای مشکلات پیدا کند.