اما از منظر اکونومیست، باید درباره آنچه ابزارهای هوش مصنوعی میتوانند انجام دهند و آنچه قادر به انجام آن نیستند، دقیق باشیم. قبل از آمدن آنها نیز اطلاعات نادرست در دموکراسیها یک مشکل بود. این ایده که در انتخابات ریاستجمهوری2020 آمریکا تقلب صورت گرفته است توسط دونالد ترامپ، نخبگان جمهوریخواه و رسانههای گروهی محافظهکار و با ابزارهای متعارف منتشر شد. فعالان حزب بهاراتیا جاناتا شایعات را از طریق واتساپ منتشر میکنند. همه اینها بدون استفاده از ابزارهای مولد هوش مصنوعی انجام شده است.مدلهای زبانی بزرگ (الالام) چه چیز را میتوانند تغییر دهند؟
یکی از موارد کمیت اطلاعات نادرست است: اگر حجم مطالب بیهوده در هزار یا صدهزار ضرب شود ممکن است مردم را متقاعد کند رای متفاوتی بدهند. مورد دوم مربوط به کیفیت است. دیپفیکهای بیش از حد واقعی، میتوانند رایدهندگان را قبل از اینکه صداها، عکسها یا ویدئوهای نادرست حذف شوند، تحت تاثیر قرار دهند. سومین مورد نیز میکروتارگتینگ است. رایدهندگان ممکن است با هوش مصنوعی غرق در تبلیغات بسیار شخصیشده شوند. شناسایی شبکه روباتهای تبلیغاتی سختتر از شناسایی تلاشهای موجود برای اطلاعات نادرست است. اعتماد رایدهندگان ممکن است آسیب ببیند؛ چراکه مردم به همه چیز شک میکنند.
این مسائل نگرانکننده هستند؛ اما دلایلی وجود دارد که هوش مصنوعی تجربه دوهزار و پانصد ساله بشر در دموکراسی را از بین نمیبرد. بسیاری از مردم گمان میکنند که دیگران از آنها سادهلوحتر هستند. درواقع، رایدهندگان به سختی متقاعد میشوند؛ بهویژه درباره موضوعات مهم سیاسی مانند اینکه چه کسی میخواهد رئیسجمهور شود. صنعت چند میلیارد دلاری مبارزات انتخاباتی در آمریکا که از انسان برای متقاعد کردن رایدهندگان استفاده میکند، تنها میتواند تغییرات جزئی در رفتار آنها ایجاد کند. ابزارهایی برای تولید تصاویر و متون جعلی باورپذیر برای چندین دهه وجود داشتهاند. گرچه هوش مصنوعی میتواند یک فناوری صرفهجویی در کار مزارع ترولهای اینترنتی باشد، ولی مشخص نیست که تلاشها لزوما یک گرفتاری در تولید اطلاعات نادرست هستند.
الگوریتمهای جدید تولید تصویر جذاب هستند؛ اما بدون تنظیم و قضاوت انسان همچنان مستعد ساخت تصاویر اشتباه هستند که امکان ساخت دیپ فیکهای شخصیسازیشده را فعلا دور میکند. حتی اگر این تاکتیکهای هوش مصنوعی موثر باشند، به زودی توسط بسیاری از طرفها پذیرفته میشوند و اثر تجمیعی این عملیات نفوذ این است که شبکههای اجتماعی را حتی ناهماهنگتر و غیرقابل استفادهتر میکند. اثبات اینکه این بیاعتمادی به یک مزیت سیستماتیک برای یک طرف نسبت به طرف دیگر تبدیل میشود، دشوار است.
پلتفرمهای رسانههای اجتماعی و شرکتهای هوش مصنوعی میگویند روی خطرات متمرکز هستند. اوپن ایآی، شرکت پشتیبان چتجیپیتی میگوید که برای شناسایی عملیات نفوذ سیاسی، بر استفاده از آن نظارت میکند. پلتفرمهای فناوری بزرگ نیز در شناسایی حسابهای مشکوک بهتر شدهاند. آلفابت و متا استفاده از رسانههای دستکاریشده در تبلیغات سیاسی را ممنوع کرده و میگویند به سرعت به دیپفیکها پاسخ میدهند. شرکتهای دیگر نیز در تلاش هستند برای تعیین منشأ واقعی تصاویر و ویدئوها استاندارد ایجاد کنند. با اینحال، نظارت داوطلبانه محدودیتهایی دارد و مرتبسازی غیرداوطلبانه خطراتی به همراه دارد. مدلهای متن باز مانند Meta’s Llama که متن تولید میکنند و Stable Diffusion که تصویر میسازد، میتوانند بدون نظارت مورد استفاده قرار گیرند. به علاوه، همه پلتفرمها بهطور یکسان ایجاد نمیشوند. تیکتاک، با دولت چین ارتباط دارد و برای ترویج شیوعیابی از هر منبعی، از جمله حسابهای جدید طراحی شده است.
توییتر (که اکنون ایکس نامیده میشود) پس از خرید توسط ایلان ماسک تیم نظارتی خود را کاهش داد و اکنون بهشتی برای روباتهاست. آژانس نظارت بر انتخابات در آمریکا، درحال بررسی الزام شفافسازی برای کمپینهایی است که از تصاویر تولیدشده مصنوعی استفاده میکنند.
اما برخی در آمریکا نیز خواهان یک سیستم مقررات افراطی به سبک چینی هستند. در آنجا الگوریتمهای هوش مصنوعی باید در نهاد دولتی ثبت شوند و به نوعی ارزشهای سوسیالیستی را دربر داشته باشند. اما چنین کنترلی مزیت آمریکا در نوآوری هوش مصنوعی را از بین میبرد.
سیاست هیچگاه منزه نبوده است
جبر تکنولوژیک که تمام ناتوانیهای افراد را به ابزارهایی که استفاده میکنند میچسباند، وسوسه انگیز است. اما در عین حال اشتباه هم هست. گرچه توجه به پتانسیل هوش مصنوعی مولد برای برهم زدن دموکراسی مهم است؛ اما هراس بیمورد است. قبل از پیشرفتهای تکنولوژیک در دو سال گذشته، مردم کاملا قادر بودند هرگونه ایده مخرب و وحشتناک را بههم منتقل کنند. مبارزات انتخاباتی ریاستجمهوری آمریکا در 2024 با اطلاعات نادرست حاکمیت قانون و یکپارچگی انتخابات را مخدوش خواهد کرد. اما مولد آن چیزی شبیه به چت جیپیتی نخواهد بود، ترامپ خواهد بود.