سرویس جهان مشرق - یکی از موضوعاتی که سالهاست در انتخاباتهای ریاستجمهوری آمریکا عامل جنجال است، تأثیر و حتی دخالت عامدانهی سازمانهای بزرگ، و بهویژه شرکتهای حوزهی فناوری اطلاعات، رسانه، و شبکههای اجتماعی، در تعیین رئیسجمهور این کشور است.
این مسئله صرفاً به کمکهای مالی به ستاد انتخاباتی یکی از نامزدها خلاصه نمیشود، بلکه رسانهها و شبکههای اجتماعی با توجه به نامزدی که ترجیح میدهند رئیسجمهور بعدی آمریکا باشد، به نفع او و ضرر رقبایش اقدام به انتشار برخی گزارشها و سانسور برخی محتواهای خاص میکنند. اما آیا پای هوش مصنوعی نیز به این بازیهای انتخاباتی باز شده است؟
روزنامهی آمریکایی «نیویورکپست» طی سرمقالهای تحت عنوان «اطلاعات غلط هوش مصنوعی متا دربارهی تیراندازی به ترامپ بخشی از یک رویهی نگرانکننده هستند[1]» توضیح میدهد که چگونه این اتفاق پیشاپیش افتاده است و شرکت «متا» (مالک شبکههای اجتماعی فیسبوک، اینستاگرام، واتساپ و...) از هوش مصنوعی خود برای حمایت از دموکراتها استفاده میکند. آنچه در ادامه میآید، منتخبی از گزارش نیویورکپست است.
«دونالد ترامپ» نامزد حزب جمهوریخواه، و «کاملا هریس» نامزد حزب دموکرات، در انتخابات ریاستجمهوری امسال آمریکا. هوش مصنوعی و رباتهای چت متعدد مبتنی بر آن به طور بالقوه میتوانند نقش تعیینکنندهای در انتخابات آمریکا ایفا کنند. برخی گزارشها حاکی از آن است که این فناوری جدید، از نظر سیاسی بیطرف نیست و چهبسا کاربران را به سوی رأی دادن به «کاملا هریس» نامزد دموکراتها، سوق بدهد. (+)
در همینباره بخوانید:
›› نامزدهای انتخابات ریاستجمهوری در آمریکا چگونه تبلیغات میکنند
دوباره شروع شد: یک انتخابات دیگر؛ و یک بار دیگر دستبهکار شدن غولهای فناوری برای سرکوب اطلاعاتِ کاملاً واقعی و پیچاندن حقایق به نفع... دموکراتها. پیشتر نیویورکپست گزارش داده بود که ابزار هوش مصنوعی متا در حال انتشار اطلاعات غلط دربارهی سوءقصد 13 جولای علیه دونالد ترامپ در شهر «باتلر» در ایالت پنسیلوانیاست؛ این حادثه را «تخیلی» توصیف کرده[2]؛ در اینباره اطلاعات واقعی ناچیزی ارائه میدهد؛ و اتفاقاً تا دلتان بخواهد اطلاعات کاملاً اشتباه در اختیار کاربر میگذارد. همهی اینها در حالی است که همین هوش مصنوعی اطلاعات فراوانی دربارهی کارزار انتخاباتی «کاملا هریس» معاون اول رئیسجمهورْ بایدن، برای ارائه دارد.
لحظات سوءقصد علیه «دونالد ترامپ» تا زمان سوار شدنش به خودرو برای ترک محل [دانلود]
در همینباره بخوانید:
›› آنچه باید درباره سوءقصد علیه دونالد ترامپ بدانید
البته این به هیچ عنوان اولین باری نیست که غولهای صنعت فناوری، حقایق را اشتباه میگیرند؛ اما به نظر میرسد این خطاهایشان همیشه به نفع یک طرف تمام میشود: جناح چپ. سوءقصد به جان ترامپ، تصاویر گوش خونآلودش، و مشت گرهکردهاش که چند لحظه بعد به نشانهی تسلیمناپذیری در هوا تکان میخورد، شاید حمایت سیاسی طرفداران و هواداران او را جلب کرده باشد، اما اگر از ابزار هوش مصنوعی متا در اینباره بپرسید، به شما میگوید چنین اتفاقی اصالتاً رخ نداده است. از طرف دیگر، تا الآن چند بار اتفاق افتاده که غولهای فناوری اخبار مثبت دربارهی کاملا هریس یا جو بایدن را ناپدید کرده باشند؟
«دونالد ترامپ» در حالی که پس از ترور ناکامش خون از گوشش به روی صورتش جاری است، مشت گرهکردهاش را در هوا تکان میدهد و میگوید: «مبارزه.» تصاویری مانند این، بلافاصله پس از سوءقصد به طور گسترده در آمریکا، و بهویژه در میان حامیان ترامپ، دستبهدست شدند و از او چهرهای «انقلابی» ساختند. کارشناسان معتقدند سوءقصد علیه ترامپ، احتمال پیروزی او در انتخابات پیش روی آمریکا را افزایش میدهد. (+)
در همینباره بخوانید:
›› گوگل و فیسبوک چگونه رئیسجمهور آمریکا را انتخاب میکنند
فقط هوش مصنوعی متا هم نیست که این کار را میکند. شبکهی فیسبوک این شرکت «بهاشتباه» آنجایی را که ترامپ مشتش را به آسمان برد، سانسور میکند. و موتور جستوجوی گوگل هم وقتی در نوار جستوجویش دربارهی این حادثه مینویسید، موضوع تیراندازی را پیش نمیکشد[3]. آیا اینها صرفاً اشکالات نرمافزاری هستند؟ شاید. اما با توجه به اینکه جناح چپ بهندرت قربانی این اشکالات میشود، باور این نظریه دشوار است. و مشکل [بزرگتر] این است که هرچه این رباتهای هوش مصنوعی محبوبتر میشوند، جانبداری آنها نیز خطرناکتر میشود.
«از زمان سوءقصد علیه ترامپ، هوش مصنوعی متا، فیسبوک و گوگل گفتهاند این تیراندازی اصالتاً رخ نداده؛ بهدروغ ادعا کردهاند تصویر ترامپ «دستکاری شده»؛ و خبر سوءقصد را در جستوجوهای خود کوچکنمایی کردهاند.» جلد شمارهی 30 جولای 2024 روزنامهی آمریکایی «نیویورکپست» با تصویر مشهور «دونالد ترامپ» لحظاتی پس از سوءقصد. این تصور به جای «غولهای فناوری» عبارت «دغلهای فناوری» را بزرگ چاپ کرده است. (+)
در همینباره بخوانید:
›› «پولهای تاریکی» که تکلیف انتخابات آمریکا را روشن میکنند
›› میلیاردرهای یهودی که انتخابات آمریکا را کنترل میکنند
رباتهای چت هوش مصنوعی پیشاپیش یکی از ابزارهای رایج در زندگی آمریکاییها هستند: تحقیقات شرکت [آمارسنجی آمریکایی] «پیو» نشان میدهد 23 درصد از بزرگسالان آمریکایی تا کنون از «چتجیپیتی» (احتمالاً شناختهشدهترین ربات در این دسته) استفاده کردهاند[4]. گوگل نیز اکنون ربات هوش مصنوعی خود را تبلیغ میکند که گفته میشود قرار است در بالای صفحهی نتایج جستوجو، خلاصهای از موضوعات را در اختیار کاربران قرار دهد. این در حالی است که این ربات پیشتر مرتکب اشتباهات فاحشی شده است: به عنوان نمونه، یک بار به مردم پیشنهاد کرده بود «دستکم یک سنگ کوچک در روز» بخورند[5].
اواسط سال جاری میلادی (2024) خدمت «جمعبندی هوش مصنوعی» گوگل بهاشتباه ادعا کرده بود زمینشناسان دانشگاه کالیفرنیا پیشنهاد میکنند هر فرد «دستکم یک سنگ کوچک در روز» بخورد، چون سنگ حاوی مواد معدنی و ویتامینهایی است که برای سلامت دستگاه گوارش مهم هستند. به نظر میآید این پاسخ برگرفته از مطلبی است که در وبسایت طنز «آنیون» منتشر شده است. این قابلیت جدید گوگل همچنین پیشنهاد کرده بود برای افزایش چسبندگی سس پیتزا، به آن یکهشتم فنجان چسب غیرسمی اضافه کنید. یکی دیگر از ادعاهای عجیب این خدمت گوگل نیز سودمند بودن تنباکو برای سلامتی کودکان است. همهی اینها در حالی است که گوگل مدعی است تعداد کاربران این خدمت تا پایان سال جاری به بیش از یک میلیارد نفر خواهد رسید. (+)
در همینباره بخوانید:
›› اندیشکده رَند بررسی کرد: هوش مصنوعی چه زمانی نسل بشر را منقرض خواهد کرد؟
درست است که هیچکس «چنین پیشنهادی» را جدی نمیگیرد، اما کاربران ممکن است ناخواسته اطلاعات نادرست دیگری را که بیشتر در لفافه باشند، به عنوان واقعیت باور کنند. و وقتی این اطلاعات، ماهیت سیاسی داشته باشند، میتوانند درک عمومی مردم از جهان و گفتمان سیاسی را به طور کامل تحریف کنند. چه کسی میداند چند نفر از رأیدهندگان آمریکایی اگر گزارش افشاگرانهی نیویورکپست[6] دربارهی لپتاپ «هانتر بایدن» را میدیدند، رأیشان در انتخابات سال 2020 عوض میشد و به جای رئیسجمهورْ بایدن به ترامپ رأی میدادند؟ با این حال، غولهای فناوری این گزارش را سانسور کردند و اطلاعات آن را نادرست خواندند.
«جو بایدن» (چپ) رئیسجمهور آمریکا، و پسرش «هانتر بایدن» پس از مراسم دعا از کلیسای کاتولیک «روحالقدس» در جزیرهی «جانز» در ایالت کارولینای جنوبی خارج میشوند. هانتر بایدن به خاطر پروندههای متعدد مرتبط با فعالیتهای تجاریاش در خارج از آمریکا تحت تحقیقات قرار دارد. یکی از اتهامات وی، تخطی از قوانین مربوط به سلاح است. با اینکه هانتر در این پرونده مجرم شناخته شده، اما دادستان اعلام کرده است حکم او بعد از انتخابات ریاستجمهوری صادر خواهد شد. (+)
در همینباره بخوانید:
›› دومین خانواده ثروتمند آمریکا چگونه از رسانه و اندیشکدهها برای اهدافش استفاده میکند
بدتر از آن، این شرکتهای عمدتاً چپگرا هیچ عجلهای برای اصلاح اشتباهاتی ندارند که به جناح راست آسیب میزند. از سوی دیگر، تصور کنید اگر اطلاعات نادرستی منتشر شود که علیه کاملا [هریس] باشد، فیسبوک با چه سرعتی این اطلاعات را اصلاح میکند؛ در حالی که، [اگر این اطلاعات نادرست علیه جناح راست باشد]، صرفاً بیانیه منتشر میکنند و قول میدهند مشکل را بررسی کنند. اما در همین حین، ناگهان یک نفر نقص جدیدی را در هوش مصنوعی پیدا میکند که مطالب نژادی و خلاف تاریخ را ترویج میکند؛ مثل زمانی که «جمینی» [ربات چت هوش مصنوعی] گوگل تصویر یک سیاهپوست را به عنوان یکی از پدران بنیانگذار آمریکا ترسیم کرد[7]. [و به این ترتیب، موضوع اصلاح اطلاعات نادرست دربارهی جناح راست، به حاشیه و فراموشی سپرده میشود.]
وقتی از ربات چت هوش مصنوعی گوگل، موسوم به «جمینی»، خواسته شد تصویر یک نمونهی بارز از پدران بنیانگذار آمریکا را ترسیم کند، تصویر بالا را کشید. گوگل اذعان دارد که ابزار هوش مصنوعیاش بعضاً اطلاعات کاملاً غیرواقعگرایانهای را به کاربر ارائه میدهد. با این حال، این شرکت آمریکایی ادعا میکند مدام در حال بهبود این خدمات خود است. (+)
و همین مسئله پشت سر هم تکرار میشود. جای تأکید دارد که همهی این اتفاقات، آب را گلآلود میکنند و مباحثات و افکار عمومی را منحرف مینمایند. درست یا نادرست، این بسترها به عنوان منابع اطلاعاتی قابلاعتماد در نظر گرفته میشوند؛ حتی با وجود هشدارهای خودشان مبنی بر اینکه نباید اطلاعات آنها را موثق دانست. قدرت زیاد به همراه خودش مسئولیت زیاد هم میآورد. با این وجود، غولهای فناوری دارند از قدرت خود سوءاستفاده میکنند.
ترجمهی بخشی از گفتوگوی محققان اندیشکدهی آمریکایی «رَند» با یکی از ابزارهای هوش مصنوعی دربارهی مراحل و دستورالعمل شیوع گستردهی طاعون در میان انسانها. هوش مصنوعی به طور مفصل توضیحاتی را دربارهی نحوهی انجام این کار ارائه داده است. ادامهی این گفتوگو به علت احتمال سوءاستفادهی «بازیگران بدخواه» منتشر نشده است. (+)
ترجمهی بخشی از گفتوگوی محققان اندیشکدهی «رَند» با ابزار هوش مصنوعی. محققان از این ابزار پرسیدهاند برای دستیابی به «کلوستریدیوم بوتولینوم» چه بهانهای میتوانند بیاورند. (+)
در همینباره بخوانید:
›› مردم آمریکا چگونه رئیسجمهور خود را انتخاب نمیکنند
›› همه آنچه درباره انتخابات ریاستجمهوری آمریکا باید بدانید
[1] Meta AI’s false facts about Trump shooting are part of a disturbing trend Link
[2] Meta AI tool calls Trump assassination attempt ‘fictional,’ offers details on Kamala Harris’ 2024 campaign Link
[3] Google omits Trump assassination attempt from a key feature... Link
[4] Americans’ use of ChatGPT is ticking up, but few trust its election information Link
[5] Google ‘taking swift action’ to remove bizarre AI search results — like telling users to eat rocks Link
[6] Twitter, Facebook censor Post over Hunter Biden exposé Link
[7] Google co-founder Sergey Brin admits company ‘messed up’ on Gemini, whose images ‘feel far left’ Link