ماهان شبکه ایرانیان

تطبیق هوش مصنوعی با نیازهای اخلاقی جامعه

خطرات واقعی هوش مصنوعی

در واقع چشم‌انداز یک «نبرد سایبری» وجود دارد که در آن کشور‌های پرقدرت و سیستم‌های بزرگ فناوری وارد رقابت آزاد برای تجمیع داده افراد، به‌عنوان عاملی برای ایجاد برتری اقتصادی، پزشکی و امنیتی در سراسر جهان شده‌اند

توسعه هوش مصنوعی (artificial intelligence) و استفاده از قابلیت‌های آن در صنایع مختلف، به میدان رقابت جدید شرکت‌های بزرگ IT تبدیل شده است. برای نمونه می‌توان به آن کلیپ جنجالی تماس سیستم هوش مصنوعی گوگل با رستوران اشاره کرد که گوگل برای مشتری خود میز رزرو می‌کرد و حتی به راحتی به سوال‌ها پاسخ می‌داد. نام آن سیستم داپلکس (DUPLEX) است و حالا گوگل تصمیم گرفته آن را روی گوشی‌های جدیدش عرضه کند.
 
اگرچه سپردن این دست کار‌ها به یک دستیار هوشمند یا روبات خوشایند است، اما روی دیگر این فناوری نگرانی از فراگیر شدن استفاده از فناوری است. نگرانی‎ای که حتی پای بزرگان دنیای تکنولوژی مانند ایلان ماسک را به میان کشید تا نسبت به تسخیر زندگی بشر توسط هوش مصنوعی و روبات‌ها را هشدار دهد. در همین راستا، مجمع جهانی اقتصاد در گزارش اخیرش اشاره کرده جهان امروزی فورا به ایجاد یک قرارداد اجتماعی جدید نیاز دارد تا ایمنی نوآوری فناورانه، به ویژه هوش مصنوعی و هماهنگی آن با نیاز‌های اخلاقی یک جامعه جهانی را تضمین کند.
 
خطرات واقعی هوش مصنوعی
سوفیا یک روبات انسان‌نما که می‌تواند صحبت کند و حرکات واقع‌بینانه را انجام دهد

 
ازدحام روبات‌ها، پست‌های هدفمند یا به اصطلاح تاریک فیس‌بوک و وب‌سایت‌های خبری جعلی، مدعی یک قلمرو آنلاین اینترنتی شده‌اند که پیامد‌های قابل توجهی در سطح جهانی دارد. برای مثال، اخبار دخالت‎ و نقش روسیه در انتخابات ریاست جمهوری آمریکا در سال 2016 را در نظر بگیرید. ظاهرا روسیه یک کاندیدا را با راه‌اندازی یک کمپین عظیم شامل تبلیغات پولی، حساب کاربری‌های جعلی در رسانه‌های اجتماعی و محتوای هدف‌گذاری شده، حمایت کرد. یا در چین، غول‌های دیجیتالی مانند علی‌بابا و تنسنت، میلیون‌ها دوربین مجهز به فناوری تشخیص چهره را برای ثبت جریان مداوم داده‌های احساسی شهروندان مستقر کرده‌اند. گزارش سازمان ملل متحد تایید کرده در میانمار پست‌های فیس‌بوک باعث نشر سخنان نفرت‌انگیز و ایجاد تفرقه علیه مسلمانان روهینگیا شد.

اتحاد پرقدرت و سودآور بین هوش مصنوعی و یک جامعه مبتنی بر داده‌ها، باعث شده شبکه‌های اجتماعی به معماران مبادلات جامعه امروزی و رهبران جدید تغییر شکل و ساختار واقعی واقعیت تبدیل شوند. به‌طور همزمان، فناوری‌های مبتنی بر هوش مصنوعی مایل به تضعیف مکانیزم‌های حکومت جهانی، به جای اجرای آن خواهند بود. در همین راستا، اضطراب عمومی درباره خسارت تبدیل شدن به یک انقلاب الگوریتمی و از دست دادن کنترل آن یا فرار از پاسخگویی در مقابل آن افزایش یافته است. در نهایت اینکه اعتماد به حکومت ملی و جهانی در نقطه شکست است. به این ترتیب، سازمان ملل متحد با یک مجموعه گسترده از چالش‌هایی در این زمینه مواجه است که در ادامه به آن اشاره می‌کنیم.

هوش مصنوعی و تضعیف حقیقت
نخست اینکه هوش مصنوعی به‌طور ذاتی یک تکنولوژی با کاربرد دوگانه و با پیامد‌های قدرتمندی (هم مثبت و هم منفی) است که پیش‌بینی، محدود کردن یا تغییر محتوای آن را دشوار می‌کند. برای نمونه، Deepfake را در نظر بگیرید. برنامه‌های پیچیده هوش مصنوعی که اکنون می‌تواند صداها، تصاویر و ویدئو‌ها را دستکاری کرده و هویت‌های جعلی را ایجاد کند که اغلب تمایز آن از نمونه اصلی غیرممکن است. الگوریتم‌های یادگیری عمیق (Deep-learning) می‌توانند با دقت شگفت‌انگیز، با ترکیب لب‌های انسانی (لب خوانی) و تا حدودی شبیه‌سازی حالت و شکل‌های مختلف صورت، سخنرانی کنند.

ممکن است پس از به نتیجه رسیدن این پروژه‌ها در آزمایشگاه، چنین شبیه‌سازی‌هایی به راحتی با اثرات گسترده‌ای مورد سوءاستفاده قرار گیرد (این موضوع در حال حاضر در سطح پایین اتفاق می‌افتد). در آستانه انتخابات، فیلم‌های Deepfake می‌تواند به اشتباه تصاویر مقامات دولتی را که در حال انجام کار‌های غیرقانونی مانند دریافت رشوه یا پولشویی هستند را نشان دهد. هراس عمومی با انتشار هشدار‌های ویدئویی درباره بیماری‌های غیرواقعی یا حملات سایبری ایجاد شده و حوادث جعلی به‌طور بالقوه منجر به یک بحران جهانی شود. به هر حال، چنین قابلیت‌ها و شبیه‌سازی‌های گمراه‌کننده می‎تواند به‌طور موثری بر افکار عمومی تأثیر گذاشته و پیامد‌های بلندمدت و پرقدرتی برای نقش سازمان ملل در صلح و امنیت داشته باشد. همچنین انتشار اخبار جعلی، ضمن تضعیف حس اعتماد و حقیقت میان شهروندان و دولت (در واقع در میان دولت‌ها) می‌تواند عمیقا سیستم حکمرانی جهانی را از بین ببرد.

هوش مصنوعی و نظارت دقیق
دوم، هوش مصنوعی در حال حاضر با طیف وسیعی از سایر فناوری‌ها از جمله فناوری‌های زیستی، به منظور تقویت امنیت جهانی، هماهنگ بوده و همکاری می‌کند. همچنین سیستم‌های این فناوری در سراسر جهان با استفاده از داده‌های کلان به‌دست آمده مانند الگو‌های ترافیکی شهرها، بازار‌های مالی، داده‌های روند رفتار مصرف‌کننده، پرونده‌های سلامت و علم ژنتیک آموزش دیده تا به منظور پیش‌بینی جنبه‌های مختلف زندگی روزمره انسان‌ها کاربردی باشد. فناوری‌های هوش مصنوعی می‌توانند داده‌های رفتاری و بیولوژیک انسان و حتی پیامد‌های آن را در شیوه‌های نوآورانه و اغلب دستکاری شده کنترل و مهار کنند. به‌عنوان مثال، عروسک هوشمند My Friend Cayla، داده‌های صوتی و احساسات کودکانی را که با آن بازی می‌کنند، به سیستم‌های کلاد می‌فرستاد. البته این اتفاق در نهایت منجر به شکایت کمیسیون تجاری فدرال آمریکا و ممنوعیت استفاده از آن در آلمان شد.

در آمریکا، در حال حاضر سیستم‌های تجزیه و تحلیل احساسی در دادگاه برای تشخیص و راست‌آزمایی اظهارات افراد استفاده می‌شود. حتی ممکن است به زودی این فناوری در مصاحبه‌های شغلی برای ارزیابی پاسخ افراد و آمادگی شغلی آن‌ها به کار برده شود. توانایی هوش مصنوعی برای نفوذ و کنترل بالقوه روی رفتار‌های فردی انسان پیامد‌های مستقیمی برای فعالیت‌ها و پیمان‌های حقوق بشر سازمان ملل متحد دارد. در حقیقت، شکل‌های جدید کنترل اجتماعی و زیست‌محیطی مستلزم تجدیدنظر درباره چارچوب کنونی است تا ضمن نظارت بر اعلامیه جهانی حقوق بشر، آن را اجرا کند. همچنین به‌طور قطع یک سیستم چندجانبه برای پیش‌بینی بهتر و درک این زمینه نوظهور مورد نیاز است.

میدان نبرد هوش مصنوعی
در نهایت، توانایی فناوری‌های مبتنی بر هوش مصنوعی برای تأثیرگذاری بر جمعیت‌های بزرگ، از سرعت و ارزش بالایی برخوردار بوده که مطمئنا نمایشی برای تضاد‌های آینده است. در واقع چشم‌انداز یک «نبرد سایبری» وجود دارد که در آن کشور‌های پرقدرت و سیستم‌های بزرگ فناوری وارد رقابت آزاد برای تجمیع داده افراد، به‌عنوان عاملی برای ایجاد برتری اقتصادی، پزشکی و امنیتی در سراسر جهان شده‌اند. شکل‌های استعمار سایبری (cyber-colonization) به‌عنوان دولت‌های قوی و قادر به استفاده از هوش مصنوعی و بیوتکنولوژی برای درک و کنترل سایر جوامع و اکوسیستم‌ها در حال توسعه است.

حکمرانی جهانی هوش مصنوعی
جوامع امروزی از لحاظ سیاسی، قانونی و اخلاقی برای استقرار هوش مصنوعی آماده نیستند. سازمان ملل متحد که چند دهه قبل از ظهور این فناوری‌ها تأسیس شده، به دلایل مختلفی برای توسعه یک حکومت مسوولیت‌پذیر که بتواند پتانسیل هوش مصنوعی را از این ریسک‌ها دور کرده و به سوی ایمنی و رفاه جمعی انسان‌ها هدایت کند، ضعیف ظاهر شده است.
 
در واقع، احیای برنامه‌های ملی‌گرا در سراسر جهان به یک ظرفیت سیستم چند جانبه ناتوان اشاره دارد که می‌توان نقش قابل‌ملاحظه‌ای در مدیریت جهانی هوش مصنوعی ایفا کند. شرکت‌های بزرگ و کشور‌های پرقدرت ممکن است در ایجاد رویکرد‌های چندجانبه برای تحقق آنچه که آن‌ها تکنولوژی‌های سودآور و اختصاصی در نظر می‌گیرند، کمی توجه کنند. اما برخی از راهکار‌های نوآورانه وجود دارد که در آن سازمان ملل متحد می‌تواند به ایجاد نوع شبکه‌های مشارکتی و شفاف کمک کند تا اعتماد را حفظ و تقویت کند.

مرکز تحقیقات سیاست‌گذاری در دانشگاه ملل متحد (UNU) که مسوول ارائه استراتژی دبیرکل سازمان ملل در مورد فناوری‌های جدید است، یک «هوش مصنوعی و پلت‌فرم حکمرانی جهانی» به‌عنوان یک فضای فراگیر برای محققان، سیاست‌گذاران، شرکت‌ها و اندیشه‌گران ایجاد کرده تا چالش‌های سیاستی جهانی مطرح شده توسط هوش مصنوعی کشف کنند.
 
با توجه به مأموریت تحت نظارت رهبران در این زمینه، این پلت‌فرم برای ایجاد بینش منحصر به فرد و جامع برای اطلاع رسانی بحث‌های موجود است. این بینش از طرف سازمان ملل متحد، سازمان‌های چندجانبه، صندوق‌ها، برنامه‌ها و سایر سهامداران پشتیبانی می‌شود به‌طوری که آن‌ها خودشان و نقش‌هایشان را در شکل‌گیری حکمرانی هوش مصنوعی جدا از یکدیگر در نظر نمی‌گیرند.
 
شاید مهم‌ترین چالش برای سازمان ملل در این زمینه، ایجاد حس اعتماد به سیستم چند جانبه ایجاد شده است. اما اگر آن‌طور که روند‌های فوق نشان می‌دهند، فناوری‌های مبتنی بر هوش مصنوعی، مساله‎ای فردی و منحصر به هر دولت بوده و هیچ‌گونه شکل مشترک از حکومتداری ندارد، آن زمان خطر واقعی به وجود می‌آید که ثبات جهانی را تضعیف می‌کند.
 
ژئوپلیتیک جدید هوش مصنوعی
قیمت بک لینک و رپورتاژ
نظرات خوانندگان نظر شما در مورد این مطلب؟
اولین فردی باشید که در مورد این مطلب نظر می دهید
ارسال نظر
پیشخوان