ماهان شبکه ایرانیان

هوش مصنوعی و آینده‌ی انسان

کارشناسان می‌گویند ظهور هوش مصنوعی باعث بهبود زندگی بیشتر مردم در دهه‌ی آینده می‌شود، اما بسیاری نگران تأثیر پیشرفت‌های هوش مصنوعی بر مفهوم انسان بودن، بهره‌وری و اختیار انسان هستند.

نویسندگان: جنا اندرسون، لی رینی و الکس لوچسنگر
ترجمه: دکتر علی شاکر . کارشناس ارتباطات

 

زندگی دیجیتال در حال تقویت توانایی‌های انسانی و برهم زدن فعالیت‌های قدیمی بشر است. سامانه‌های مبتنی بر کد به بیش از نیمی از ساکنان جهان نفوذ کرده‌اند و اطلاعات و ارتباطات محیطی را در اختیار آن‌ها قرار می‌دهند؛ اتفاقی که پیش از این قابل تصور نبود، هم فرصت‌های بی‌سابقه‌ای را به ارمغان آورده است و هم تهدیدهای تازه‌ای ایجاد کرده است. حال پرسش این است که با گسترش بیشتر هوش مصنوعی (AI) مبتنی بر الگوریتم‌های نوظهور، آیا حال مردم نسبت به امروز بهتر می‌شود؟

حدود 979 پیشگام فناوری، نوآور، توسعه‌دهنده، رهبر تجارت و سیاست، پژوهشگر و فعال اجتماعی به این سؤال در یک نظرسنجی جامع از کارشناسان در تابستان 2018 پاسخ دادند.

کارشناسان پیش‌بینی کرده‌اند که هوش مصنوعی شبکه‌ای، اثربخشی انسان را تقویت می‌کند، اما می‌تواند استقلال، اختیار و توانایی‌های انسان را هم تهدید کند. آنها از گستره‌ی وسیعِ این امکانات سخن گفتند؛ اینکه رایانه‌ها ممکن است در انجام کارهایی مانند تصمیم‌گیری پیچیده، استدلال و یادگیری، تحلیل‌های پیشرفته و تشخیص الگو، دقت دیداری، تشخیص گفتار و ترجمه زبان با هوش و توانایی‌های انسان برابری کنند یا حتی از آن‌ها فراتر روند. از نظر این پژوهشگران و کارشناسان، سامانه‌های «هوشمند» در جوامع، وسایل نقلیه، ساختمان‌ها و تاسیسات زیربنایی، مزارع و فرآیندهای کسب‌وکار باعث صرفه‌جویی در زمان، هزینه و جان انسان‌ها می‌شوند و فرصت‌هایی را برای افراد برای داشتن آینده‌ای شخصی‌سازی‌شده‌تر فراهم می‌کنند.

بسیاری از افراد خوش‌بین، تمرکز خود را بر مراقبت‌های بهداشتی و کاربردهای فراوان هوش مصنوعی در تشخیص و درمان بیماران یا کمک به سالمندان برای داشتن زندگی‌ای کامل‌تر و سالم‌تر قرار دادند. آنان همچنین نسبت به نقش هوش مصنوعی در کمک به برنامه‌های گسترده‌ی بهداشت عمومی که حول داده‌های عظیمی بنا شده‌اند که ممکن است در سال‌های آینده در مورد همه چیز، از ژنوم‌های شخصی گرفته تا تغذیه، جمع‌آوری شود، ابراز شور و اشتیاق کردند. علاوه بر این، تعدادی از این کارشناسان پیش‌بینی کردند که هوش مصنوعی باعث تغییرات مورد انتظار در نظام‌های آموزشی رسمی و غیررسمی خواهد شد.

با این حال، بیشتر کارشناسان، صرف نظر از خوش‌بینی یا بدبینی‌شان، نگرانی‌هایی را در مورد تأثیر بلندمدت این ابزارهای جدید بر عناصر اساسی انسان بودن ابراز داشتند. از تمامی پاسخ‌دهندگان در این نظرسنجی غیرعلمی خواسته شد تا در مورد اینکه چرا احساس می‌کنند هوش مصنوعی باعث بهبود وضعیت مردم می‌شود یا خیر، توضیح دهند.

بسیاری از این کارشناسان نگرانی‌های عمیقی را به بازگو کردند و بسیاری نیز راه‌هایی را برای رسیدن به راه‌حل پیشنهاد دادند. مضامین اصلی این گفت‌وگوها در مورد تهدیدها و راه‌حل‌ها، در جدول زیر خلاصه شده است:

هوش مصنوعی و آینده‌ی انسان

 

هوش مصنوعی و آینده‌ی انسان

 


به طور خاص، از شرکت‌کنندگان خواسته شد موارد زیر را در نظر بگیرند:

«اگر بخواهیم سال 2030 را پیش‌نگری کنیم، می‌توان گفت تحلیلگران انتظار دارند که وابستگی مردم به هوش مصنوعی (AI) شبکه‌ای در سامانه‌های دیجیتال پیچیده حتی بیشتر شود. برخی می‌گویند ما همچنان با اجرای گسترده‌ی این ابزارهای شبکه‌ای، در مسیر تاریخیِ تقویت زندگی خود با نتایج عمدتاً مثبت حرکت خواهیم کرد. برخی دیگر می‌گویند وابستگی روزافزون ما به این سیستم‌های هوش مصنوعی و سیستم‌های مرتبط، به احتمال زیاد منجر به مشکلات گسترده خواهد شد.

سوال ما: به نظر شما تا سال 2030، پیشرفت هوش مصنوعی و سیستم‌های فناوری مرتبط، بیشتر باعث تقویت و توانمندسازی انسان‌ها می‌شود؟ به عبارت دیگر، آیا در اکثر مواقع، حال اکثر مردم نسبت به امروز بهتر خواهد بود؟ یا این احتمال بیشتر می‌رود که پیشرفت هوش مصنوعی و سیستم‌های فناوری مرتبط، استقلال و اختیار انسان را تا حدی کاهش دهد که حال اکثر مردم نسبت به وضعیت فعلی بهتر نباشد؟»

با وجود نگرانی‌هایی که در مورد معایب هوش مصنوعی وجود دارد، در مجموع، 63 درصد از پاسخ‌دهندگان به این پرسشنامه ابراز امیدواری کردند که حال بیشتر افراد در سال 2030 عمدتاً بهتر خواهد بود، و 37 درصد گفتند که حال مردم بهتر نخواهد شد.
برخی از رهبران فکری که در این پرسشنامه شرکت کردند، گفتند که گسترش اتکای انسان به سیستم‌های فناورانه تنها در صورتی به خوبی پیش خواهد رفت که به چگونگی مهندسی، توزیع و به‌روزرسانی این ابزارها، پلتفرم‌ها و شبکه‌ها توجه زیادی شود. برخی از پاسخ‌های کلی و قدرتمند شامل پاسخ‌های زیر بود:

«سونیا کاتایل»، از مدیران مرکز حقوق و فناوری برکلی و عضو هیئت مشاوره‌ی دوره‌ی افتتاحیه‌ی شورای اقتصاد دیجیتال وزارت بازرگانی ایالات متحده: «در سال 2030، مهم‌ترین مجموعه پرسش‌ها درباره‌ی این است که برداشت‌های ما از هوش مصنوعی و کاربردهای آن، چگونه بر مسیر حقوق مدنی در آینده تأثیر می‌گذارد. پرسش‌هایی در مورد حریم خصوصی، آزادی بیان، حق تجمع و ساختار فناورانانه‌ی شخصیت انسان، همگی در این بستر جدید هوش مصنوعی دوباره مطرح خواهند شد و عمیق‌ترین باورهای ما درباره‌ی برابری و فرصت برای همه را زیر سوال خواهند برد. اینکه چه کسی در این دنیای جدید سود می‌برد و چه کسی از آن محروم می‌شود، به این بستگی دارد که امروز تا چه حد گسترده به تحلیل این پرسش‌ها بپردازیم، چرا که این تحلیل، آینده را شکل خواهد داد».

«اریک برینکجولفسون»، مدیر ابتکار اقتصاد دیجیتالِ مؤسسه‌ی فناوری ماساچوست و نویسنده‌ی کتاب «ماشین، پلتفرم، جمعیت: مهار آینده‌ی دیجیتال ما»: «هوش مصنوعی و فناوری‌های مرتبط در حال حاضر در بسیاری از زمینه‌ها به عملکردی فراتر از انسان دست یافته‌اند و تردیدی نیست که قابلیت‌های آن‌، احتمالاً به میزان قابل توجهی، تا سال 2030 بهبود می‌باید. به نظرم این احتمال هست که از این قدرت برای بهتر کردن دنیا استفاده کنیم. برای مثال، می‌توانیم عملاً فقر جهانی را از بین ببریم، بیماری‌ها را به طور چشمگیری کاهش دهیم و برای تقریباً همه مردم روی کره‌ی زمین آموزش بهتری فراهم کنیم. با این گفته، هوش مصنوعی و یادگیری ماشینی همچنین می‌توانند برای تمرکز بیشتر ثروت و قدرت و جا گذاشتن بسیاری از مردم پشت سر، و برای ایجاد سلاح‌های حتی هولناک‌تر مورد استفاده قرار گیرند. هیچ یک از این نتایج اجتناب‌ناپذیر نیست؛ بنابراین، نپرسیم «چه اتفاقی خواهد افتاد؟»، بپرسیم «انتخاب ما چیست؟» باید مطمئن شویم که فناوری با ارزش‌های ما مطابقت دارد یا نه؟ دولت، نظام‌های مالی و دانشگاه‌ها می‌بایست همزمان با تک‌تک افراد بشر به این پرسش‌ها پاسخ دهند».

«برایان جانسون»، بنیان‌گذار و مدیرعامل شرکت کرنل، توسعه‌دهنده‌ی پیشرو رابط‌های عصبی پیشرفته، و همچنین بنیان‌گذار او.اس فاند، یک شرکت سرمایه‌گذاری خطرپذیر: «به شدت معتقدم که پاسخ به این سوال بستگی به این دارد که آیا می‌توانیم سیستم‌های اقتصادی خود را به سمت اولویت دادن به بهبود اساسی انسان و جلوگیری از روند بی‌اهمیت شدن انسان در مواجهه با هوش مصنوعی سوق دهیم یا نه. منظورم فقط مشاغل نیست؛ بلکه منظورم بی‌اهمیت بودن واقعی و اگزیستانسیالیستی است. چنین اتفاقی نتیجه‌ی ندادن اولویت به رفاه و ادراک انسان است».
«مارینا گوربیس»، مدیر اجرایی مؤسسه‌ی آینده: «بدون تغییرات قابل توجه در اقتصاد سیاسی و رژیم‌های حکمرانی داده‌ی ما، [هوش مصنوعی] به احتمال زیاد به نابرابری‌های اقتصادی و نظارت بیشتر دامن می‌زند و به تعاملات برنامه‌ریزی‌شده و غیرمبتنی بر انسان، می‌رسد. هر بار که محیط‌های‌مان را برنامه‌ریزی می‌کنیم، در نهایت داریم همین کار را با خود و تعاملات‌مان انجام می‌دهیم. انسان‌ها باید استانداردتر شوند و شانس و ابهام را از تعاملات حذف کنیم. و البته این ابهام و پیچیدگی، جوهره‌ی انسان بودن است».

«جودیت دونات»، نویسنده‌ی کتاب «ماشین اجتماعی، طراحی‌هایی برای زندگی آنلاین» و عضو هیئت علمی مرکز برکمن کلاین برای اینترنت و جامعه در دانشگاه هاروارد: «تا سال 2030، بیشتر موقعیت‌های اجتماعی توسط ربات‌ها تسهیل خواهد شد؛ برنامه‌های به‌ظاهر هوشمند که به شیوه‌ای شبیه انسان با ما تعامل برقرار می‌کنند. در خانه، والدین از ربات‌های ماهری برای کمک به بچه‌ها در انجام تکالیف و برانگیختن گفت‌وگوهای سر میز شام استفاده خواهند کرد . در محل کار، ربات‌ها جلسات را اداره می‌کنند. یک رباتِ رازدار برای سلامت روانی ضروری تلقی می‌شود و ما به طور فزاینده‌ای برای دریافت مشاوره در مورد هر چیزی، از اینکه چه بپوشیم تا با چه کسی ازدواج کنیم، به چنین همدم‌هایی روی می‌آوریم. ما انسان‌ها به شدت به اینکه دیگران چگونه ما را می‌بینند، اهمیت می‌دهیم – و کسانی که به دنبال تأیید آن‌ها هستیم، به طور فزاینده‌ای [دیگر انسان‌هایی شبیه ما نیستند و در واقع] مصنوعی خواهند بود. تا آن زمان، تفاوت بین انسان و ربات‌ها به طور قابل توجهی کم‌رنگ می‌شود.

صدا، ظاهر و رفتار ربات‌ها از طریق صفحه‌ی نمایش و پروژکتور، از انسان‌ها قابل تشخیص نخواهد بود و حتی ربات‌های فیزیکی هم، هرچند آشکارا غیرانسانی هستند، چنان رفتارهای صمیمانه خواهند داشت که ما آنها را موجوداتی اندیشمند و احساساتی فرض می‌کنیم که در حد ما یا حتی برتر از ما هستند. ارتباطات روزمره‌ی خود ما نیز به شدت تقویت می‌شود؛ چون برنامه‌ها، بسیاری از پیام‌های ما را می‌نویسند و در عمل یک صورتی آنلاین/واقعیت افزوده‌طور از ما به صورت محاسباتی ساخته خواهد شد. برای همین بزودی، گفتار و رفتار خام و بدون کمک انسان، به طرز خجالت‌آوری دست و پاگیر، کُند و ابتدایی به نظر خواهد رسید. ربات‌ها به انبوهی از داده‌ها در مورد هر یک از ما دسترسی دارند. بنابراین، به راحتی می‌توانند ما را به خود جذب و متقاعد کنند.

تصویری از سامانه‌ی تشخیص خودرو و افراد برای استفاده توسط مجریان قانون در کنفرانس فناوری GPU پارسال- واشنگتن دی.سی. در این تصویر کاربردهای جدید هوش مصنوعی و یادگیری عمیق را می‌بینید. (Saul Loeb/AFP/Getty Images)

هوش مصنوعی و آینده‌ی انسان

 


دلیل است که این رفتار برای پیشبرد هر هدفی که در «ذهن» دارند، مؤثرترین راه محاسبه شده است. اما آن اهداف چه هستند؟ هوش مصنوعی وانمود می‌کند که مثل انسان‌ها اهداف اجتماعی دارد، مثل مورد احترام قرار گرفتن، اما در واقع فقط دارد به نفع صاحبان خود عمل می‌کند. این ماشین رفتار دوستانه و صمیمی دارد. مشاوره می‌دهد و در کارهای مختلف کمک می‌کند. چرا؟ برای اینکه انسان‌ها به آن اعتماد کنند و از اطلاعات انسان‌ها استفاده کند و آنان را به نفع صاحبان هوش مصنوعی هدایت کند .

«اندرو مک‌لاکلین»، مدیر اجرایی مرکز تفکر خلاق در دانشگاه ییل، که پیش از این معاون ارشد فناوری ایالات متحده برای باراک اوباما و رهبر سیاست عمومی جهانی گوگل بوده است: «سال 2030 در آینده‌ی دوری نیست. به نظر من، نوآوری‌هایی مانند اینترنت و هوش مصنوعی شبکه‌ای، در کنار منافع عظیم کوتاه‌مدت، معایب بلندمدتی نیز دارند که شناسایی آن‌ها ممکن است ده‌ها سال طول بکشد. هوش مصنوعی باعث ایجاد طیف گسترده‌ای از بهینه‌سازی‌های کارآمدی می‌شود، اما همچنین تبعیض پنهان و مجازات خودسرانه‌ی افراد را در زمینه‌هایی مانند بیمه، جست‌وجوی کار و ارزیابی عملکرد ممکن می‌سازد.»

«مایکل ام. رابرتز»، اولین رئیس و مدیرعامل شرکت تخصیص نام‌ها و شماره‌های اینترنتی (ICANN) و عضو تالار مشاهیر اینترنت: «طیف فرصت‌های موجود برای اینکه عوامل هوشمند، هوش انسان را تقویت کنند، هنوز تقریباً نامحدود است. مسئله‌ی اصلی این است که هرچه یک عامل راحت‌تر باشد، نیاز بیشتری به دانستن در مورد شما دارد – ترجیحات، زمان‌بندی، ظرفیت‌ها و غیره – که منجر به یک معامله می‌شود: کمک بیشتر، نیازمند تجاوز بیشتر به حریم خصوصی است. این یک مسئله‌ی سیاه و سفید نیست – در مورد طیف وسیعی از راه‌حل‌های مرتبط با این حریم خصوصی بحث‌های بی‌پایانی خواهد شد. سوابق تا به امروز نشان می‌دهد که راحتی بر حریم خصوصی غلبه می‌کند. من گمان می‌کنم این روند ادامه خواهد یافت.»

«دانا بوید»، پژوهشگر ارشد مایکروسافت و بنیان‌گذار و رئیس مؤسسه‌ی تحقیقات داده و جامعه: «‌هوش مصنوعی ابزاری است که انسان‌ها برای اهداف مختلف از جمله کسب قدرت از آن استفاده خواهند کرد. همان‌طور که پیشرفت‌های علمی و اقدامات بشردوستانه با هوش مصنوعی همراه خواهند بود، سوءاستفاده‌هایی نیز از قدرت به کار گرفته شده با هوش مصنوعی صورت خواهد گرفت. متأسفانه، خطوط روندی خاصی وجود دارد که به احتمال زیاد باعث بی‌ثباتی گسترده خواهد شد. به عنوان مثال، تغییرات آب و هوایی و مهاجرت ناشی از آن را در نظر بگیرید. این روند اروپا و آمریکا را بیشتر بی‌ثبات خواهد کرد و من انتظار دارم که در شرایط بحران‌های ژئوپلیتیکی دیگر، به دلیل وحشت، شاهد استفاده‌ی مخرب از هوش مصنوعی باشیم.»

«ایمی وب»، بنیان‌گذار مؤسسه‌ی آینده‌ی امروز و استاد پیش‌بینی استراتژیک در دانشگاه نیویورک: «ساختارهای شبکه‌ی ایمنی اجتماعی که در حال حاضر در ایالات متحده و بسیاری از کشورهای دیگر جهان وجود دارد، برای گذار ما به هوش مصنوعی طراحی نشده‌اند. این گذار از طریق هوش مصنوعی 50 سال یا بیشتر طول می‌کشد. با حرکت به سوی سومین دوره‌ی محاسبات، و با عمیق‌تر شدن وابستگی تک‌ تک صنایع به سیستم‌های هوش مصنوعی، به کارگران دانش‌آموخته‌ی ترکیبی جدیدی نیاز خواهیم داشت که بتوانند در مشاغلی کار کنند که قبلاً هرگز وجود نداشته است. به کشاورزانی نیاز داریم که با مجموعه‌های داده‌ی بزرگ کار کنند.

متخصصان انکولوژی که به عنوان متخصصان رباتیک آموزش دیده‌اند. زیست‌شناسانی که به عنوان مهندسان برق آموزش دیده‌اند. ما فقط یک بار و با چند تغییر در برنامه‌ی درسی، نیازی به آماده‌سازی نیروی کار خود نداریم. با بلوغ هوش مصنوعی، به نیروی کار پاسخگو نیاز خواهیم داشت که بتواند هر چند سال یکبار با فرآیندها، سیستم‌ها و ابزار جدید سازگار شود. نیاز به این زمینه‌ها سریع‌تر از آن چیزی است که ادارات کار، مدارس و دانشگاه‌های ما اذعان دارند. نگاه کردن به گذشته از دریچه‌ی حال و نادیده گرفتن ناآرامی‌های اجتماعی ناشی از بیکاری گسترده‌ی ناشی از فناوری، آسان است. ما باید به یک حقیقت دشوار که تعداد کمی حاضرند آشکارا آن را بیان کنند، بپردازیم.

 هوش مصنوعی در نهایت باعث می‌شود تعداد زیادی از مردم برای همیشه از کار بی‌کار شوند. همانطور که نسل‌های قبل شاهد تغییرات اساسی در دوران انقلاب صنعتی و پس از آن بودند، سرعت بالای فناوری به احتمال زیاد به این معنی است که نسل انفجار جمعیت و مسن‌ترین اعضای نسل ایکس – به ویژه کسانی که مشاغل آن‌ها توسط ربات‌ها قابل تکرار است – بدون سرمایه‌گذاری قابل توجه زمان و تلاش، قادر به بازآموزی برای انواع دیگر کار نخواهند بود.»

«بری چوداکوف»، بنیان‌گذار و مدیر ارشد سِرتیِن ریسرچ: «تا سال 2030، همکاری انسان و ماشین/هوش مصنوعی برای مدیریت و مقابله با اثرات چندین شتاب همزمان، از جمله پیشرفت گسترده‌ی فناوری، جهانی‌سازی، تغییرات آب و هوایی و مهاجرت‌های جهانی همراه آن، یک ابزار ضروری است. در گذشته، جوامع انسانی از طریق غریزه و شهود، تغییر را مدیریت می‌کردند، اما هما‌نطور که اریک تلر، مدیرعامل گوگل ایکس، گفته، "ساختارهای اجتماعی ما نتوانسته‌اند با سرعت تغییر همگام شوند." برای همگام شدن با آن تغییر و مدیریت فهرستی در حال رشد از "مشکلات بغرنج" تا سال 2030، هوش مصنوعی – یا با استفاده از عبارت جوی ایتو، هوش گسترده ارزش تقریباً تمام حوزه‌های رفتار و تعامل انسان را ارزیابی و بازارزیابی خواهد کرد. هوش مصنوعی و فناوری‌های پیشرفته چارچوب پاسخ و چارچوب زمانی ما را تغییر می‌دهد (که به نوبه خود، حس زمان ما را هم عوض می‌کند).

در گذشته که تعاملات اجتماعی در مکان‌هایی مانند محل کار، مدرسه، کلیسا و محیط‌های خانوادگی رخ می‌داد، تعاملات اجتماعی به طور فزاینده‌ای در زمان مداوم و همزمان اتفاق خواهد افتاد. اگر خوش‌شانس باشیم، از 23 اصل آسی‌لومار هوش مصنوعی که توسط مؤسسه‌ی آینده‌ی زندگی ترسیم شده است، پیروی خواهیم کرد و به سمت "نه هوش بدون جهت، بلکه هوش سودمند خواهیم رفت." مشابه بازدارندگی هسته‌ای که از اطمینان به نابودی متقابل ناشی می‌شود، هوش مصنوعی و سیستم‌های فناوری مرتبط، نیرویی برای یک رنسانس اخلاقی‌اند.

ما باید آن رنسانس اخلاقی را در آغوش بگیریم، یا با معضلاتی اخلاقی روبه‌رو شویم که می‌تواند منجر به نابودی انسان شود. ... بزرگترین امید من برای همکاری انسان و ماشین/هوش مصنوعی، یک رنسانس اخلاقی و معنوی است – ما یک ذهنیت بلندپروازانه پیش می‌گیریم و برای اتفاق‌های پرشتابی که به سمت ما می‌آیند، با هم متحد می‌شویم. بزرگترین ترس من این است که بدون تفکر یا پاسخ هوشمندانه با این پدیده‌های مواجه شویم. برای نمونه در شبکه شاهد پاسخ فوری و احساسی، انزوا و انفعال پشت صفحه نمایش، مقایسه بی‌پایان ارزش خود با دیگر کاربران، خودنمایی‌های جعلی و... هستیم.

«جان سی. هاونز»، مدیر اجرایی ابتکار جهانی اخلاق سیستم‌های خودمختار و هوشمند مؤسسه‌ی مهندسان برق و الکترونیک (IEEE) و شورای هوش گسترده: «اکنون، در سال 2018، بیشتر مردم جهان نمی‌توانند به داده‌های خود دسترسی داشته باشند، بنابراین هر بحثی درباره‌ی «تکمیل انسان با هوش مصنوعی» زمینه‌ی مهم کنترل اطلاعات و هویت افراد را نادیده می‌گیرد. به زودی شناسایی هر سیستم خودمختار یا هوشمندی که الگوریتم‌هایش به شکلی با داده‌های انسانی در ارتباط نباشد، بسیار دشوار خواهد شد.»

«باتیا فریدمن»، استاد تعامل انسان و رایانه در دانشکده‌ی اطلاعات دانشگاه واشنگتن: «توانایی‌های علمی و فناورانه‌ی ما از توانایی‌های اخلاقی‌مان فراتر رفته و همچنان فراتر هم می‌رود– یعنی توانایی استفاده‌ی عاقلانه و انسانی از دانش و ابزارهایی که توسعه می‌دهیم. ... جنگ خودکار – زمانی که سلاح‌های خودکار بدون دخالت انسان، انسان‌ها را می‌کشند – می‌تواند منجر به عدم پذیرش مسئولیت برای گرفتن جان دشمن یا حتی عدم آگاهی از کشته شدن دشمن شود. چیزی کمتر از نوع جامعه‌ای که می‌خواهیم در آن زندگی کنیم و چگونگی تجربه‌ی انسانیت‌مان در خطر است.»

«گرگ شانن»، دانشمند ارشد بخش CERT در دانشگاه کارنِگی مِلون: «بهبود و بدتر شدن با نسبت چهار به یک و نسبت بلندمدت دو به یک ظاهر خواهد شد. هوش مصنوعی برای کارهای تکراری که برای انجام دادن‌شان «تقریباً» بودن و حضور شما کافی است (و انسان‌ها هم از آن کارها بیزارند)، عملکرد خوبی خواهد داشت. ... همان‌طور که برنامه‌های کاربردی سلامت به طور هوشمندانه‌ای ما را به سمت سلامتی سوق می‌دهند، هشدارهایی در مورد رویدادهای قریب‌الوقوع قلبی/سکته مغزی صادر می‌کنند و مراقبت‌های بهداشتی خودکار را برای افراد کم‌برخوردار (مناطق دوردست) و کسانی که نیاز به مراقبت طولانی‌مدت دارند (مراقبت از سالمندان) ارائه می‌دهند، قطعاً زندگی بهتر می‌شود. 

در مورد آزادی، خطرات آشکاری وجود دارد. هوش مصنوعی با ایجاد موجوداتی با قابلیت‌های فکری معنادار برای نظارت، اعمال و حتی مجازات افراد بر قدرت اختیار تأثیر می‌گذارد. کسانی که می‌دانند چگونه از آن استفاده کنند، قدرت بالقوه‌ی عظیمی نسبت به کسانی خواهند داشت که نمی‌دانند یا نمی‌توانند از آن استفاده کنند. خوشبختی آینده واقعاً نامشخص است. برخی افراد کنترل خود را در بازی‌ها، کار و جامعه به هوش مصنوعی واگذار خواهند کرد، درست همان‌طور که بحران مواد افیونی امروزه کنترل را از افراد سلب می‌کند. از طرف دیگر، بسیاری از کارهای معمولی و خسته‌کننده رها خواهند شد. اگر عناصری از خوشبختی جامعه بخشی از اهداف هوش مصنوعی باشد، پس هوش مصنوعی می‌تواند انفجاری از خوشبختی را به وجود آورد.»

«کوستاس الکساندریس»، نویسنده‌ی کتاب «بررسی دینامیک‌های پیچیده در سیستم‌های هوشمند مبتنی بر چندین عامل» : «بسیاری از تصمیمات روزمره‌ی ما با حداقل دخالت کاربر نهایی  خودکار خواهند شد. استقلال و/یا آزادی، فدای راحتی انسان می‌شود و نسل‌های جدید شهروندان به ساختارها و فرآیندهای هوش مصنوعی شبکه‌ای وابسته‌تر خواهند شد. چالش‌هایی وجود دارد که در زمینه تفکر انتقادی و ناهمگنی نیاز به رسیدگی دارد. وابستگی متقابل شبکه‌ای به احتمال زیاد آسیب‌پذیری ما را در برابر حملات سایبری افزایش می‌دهد. همچنین احتمال زیادی وجود دارد که شکاف‌های عمیق‌تری بین «دارا» و «ندار» دیجیتال و همچنین بین زیرساخت‌های دیجیتالی وابسته به فناوری ایجاد شود. در نهایت، مسئله‌ی مالکیت و کنترل «قله‌های فرماندهی» زیرساخت شبکه‌ی دیجیتال وجود دارد.»

اسکار گاندی، استاد بازنشسته‌ی ارتباطات در دانشگاه پنسیلوانیا: «ما از همان ابتدا با یک فرضیه‌ی بدون پشتوانه مواجه هستیم، زمانی که از ما خواسته می‌شود «همکاری» انسان و ماشین را تصور کنیم. تعامل کمی متفاوت است، اما همچنان با اعطای نوعی هویت – شاید حتی شخصیت – به ماشین‌هایی که برای عبور از انواع فرصت‌ها و چالش‌ها از آن‌ها استفاده خواهیم کرد، لکه‌دار شده است.»

همان‌طور که در حال حاضر با تکیه بر «دیگران» (از جمله سیستم‌های فناوری، وسایل و شبکه‌ها) برای به دست آوردن چیزهایی که برایشان ارزش قائل هستیم و اجتناب از چیزهای دیگر (که ممکن است از آن‌ها آگاه باشیم یا نباشیم) با مشکلاتی روبه‌رو هستیم، مشکلات آینده نیز بسیار شبیه هستند.»

«جیمز اسکوفیلد اورورک»، استاد مدیریت در دانشگاه نوتردام: «فناوری در طول تاریخ ثبت‌شده، عمدتاً مفهومی بی‌طرف بوده است. ارزش آن همیشه به کاربردش بستگی داشته است. هوش مصنوعی و سایر پیشرفت‌های فناورانه برای چه هدفی به کار خواهند رفت؟ از باروت گرفته تا موتورهای احتراق داخلی و شکافت هسته‌ای، همگی به روش‌های مفید و مخرب به کار گرفته شده‌اند. با فرض اینکه بتوانیم هوش مصنوعی را مهار یا کنترل کنیم (و نه برعکس)، اینکه آیا اوضاع ما بهتر شود، کاملاً به ما (یا نسل‌های آینده‌ی ما) بستگی دارد. «دوست عزیز بروتوس، دست تقصیر از آستین ستارگان بیرون نمی‌آید، این ماییم که انگار التماس می‌کنیم زیر سلطه باشیم .»

«سایمون بیگز»، استاد هنرهای بین‌رشته‌ای در دانشگاه ادینبورگ: «هوش مصنوعی برای تقویت توانایی‌های انسان عمل خواهد کرد. مشکل نه هوش مصنوعی، بلکه انسان‌ است. ما به عنوان یک گونه، پرخاشگر، رقابتی و تنبل هستیم. اما همچنین همدل، جامعه‌محور و (گاهی!) فداکار هم هستیم. ما ویژگی‌های بسیاری دیگر نیز داریم. همه اینها تقویت خواهند شد. با توجه به سوابق تاریخی، باید فرض کنیم که بدترین ویژگی‌های ما تقویت خواهند شد. انتظار من این است که در سال 2030 از هوش مصنوعی به طور معمول برای جنگیدن و کشتن انسان‌ها استفاده شود، بسیار مؤثرتر از آنچه اکنون می‌توانیم بکشیم. ما به عنوان جوامع تحت تأثیر کمتری از این موضوع قرار خواهیم گرفت، زیرا ما خودمان در حال جنگیدن و کشتن نیستیم. توانایی ما برای تغییر رفتارمان، با در نظر گرفتن همدلی و چارچوب اخلاقی مرتبط، با جدایی بین قدرت اختیار و عمل کشتن کاهش خواهد یافت. نمی‌توانیم انتظار داشته باشیم که سیستم‌های هوش مصنوعی ما به جای ما اخلاقی باشند – آن‌ها نخواهند بود، زیرا برای کشتن کارآمد طراحی شده‌اند، نه کشتن متفکرانه. 

نگرانیِ مهمِ دیگرم در مورد نظارت و کنترل است. ظهور سیستم اعتبار اجتماعی چین (SCS) نشان‌دهنده‌ی آن چیزی است که به احتمال زیاد در آینده اتفاق خواهد افتاد. ما درون یک SCS وجود خواهیم داشت، در حالی که هوش مصنوعی نمونه‌های ترکیبی از خودمان را می‌سازد که ممکن است شبیه به ما باشند یا نباشند. اما حقوق و امکانات ما به عنوان افراد توسط SCS تعیین خواهد شد.»

«مارک سرمن»، مدیر اجرایی بنیاد موزیلا: «هوش مصنوعی همچنان به تمرکز قدرت و ثروت در دست چند انحصار بزرگ مستقر در آمریکا و چین ادامه خواهد داد. بیشتر مردم – و بخش‌هایی از جهان – وضعیت بدتری خواهند داشت.»

«ویلیام اوریکچیو»، پژوهشگر رسانه و استاد مطالعات تطبیقی رسانه در MIT: «هوش مصنوعی و کاربردهای مرتبط با آن با سه مشکل روبه‌روست:

1.    توسعه با سرعت قانون مور
2.    توسعه در دست [عده‌ای از] نخبگان فناورانه و اقتصادی
3.    توسعه بدون بهره‌مندی از یک جامعه مطلع یا درگیر.

 مردم به مجموعه‌ای از مصرف‌کنندگانی تقلیل یافته‌اند که منتظر فناوری بعدی هستند. مفهوم «پیشرفت» چه کسی [یا کدام گروه فکری] غالب خواهد شد؟ شواهد زیادی وجود دارد که هوش مصنوعی برای کسب سود، بدون توجه به پیامدهای آن استفاده می‌شود. مثلاً  [به] ارزش‌های دیرینه‌سال انسان [بی‌توجهی می‌کند]؛ [از این ابزار] برای تقویت کنترل دولتی می‌توان استفاده کرد. حتی از آن می‌توان برای امتیازدهی «اعتبار اجتماعی» شهروندان بدون مشارکت خود شهروندان، سوءاستفاده کرد.

هوش مصنوعی مانند فناوری‌های پیش از خود، بی‌طرف است. دستان جامعه آن را پرورش می‌دهد و سرپا می‌کند. اما در غیاب یک جامعه باسواد در زمینه‌ی هوش مصنوعی، تصمیم‌گیری در مورد بهترین شیوه‌ی استقرار هوش مصنوعی به منافع خاص واگذار می‌شود. آیا این به معنای استقرار عادلانه، کاهش بی‌عدالتی اجتماعی و هوش مصنوعی در خدمت مردم خواهد بود؟ از آنجایی که پاسخ به این سوال اجتماعی است نه فناورانه، من بدبین هستم. راه‌حل؟ ما نیاز به توسعه‌ی یک جامعه‌ی باسواد در زمینه‌ی هوش مصنوعی داریم، که به معنای توجه ویژه در بخش آموزشی و رسانه‌های عمومی است. ما باید تنوع را در توسعه‌ی فناوری‌های هوش مصنوعی تضمین کنیم. و تا زمانی که مردم، نمایندگان منتخب آنان و رژیم‌های حقوقی و نظارتی‌شان بتوانند با این تحولات سریع همگام شوند، باید در توسعه‌ی هوش مصنوعی احتیاط و نظارت را اعمال کنیم.»

بخش باقی‌مانده‌ی این گزارش به سه بخش تقسیم می‌شود که از مشاهدات امیدوارکننده و انتقادی صدها پاسخ‌دهنده‌ی دیگر حاصل شده است:
 1) نگرانی‌ها در مورد تکامل انسان و هوش مصنوعی
 2) راه‌حل‌های پیشنهادی برای رسیدگی به تأثیر هوش مصنوعی
 3) انتظاراتی که از زندگی در سال 2030 وجود دارد، از جمله چشم‌اندازهای مثبت پاسخ‌دهندگان نسبت به کیفیت زندگی و آینده‌ی کار، مراقبت‌های بهداشتی و آموزش.

در ضمن، برخی از پاسخ‌ها برای سبک نوشتار این مقاله، کمی ویرایش شده‌اند .

قیمت بک لینک و رپورتاژ
نظرات خوانندگان نظر شما در مورد این مطلب؟
اولین فردی باشید که در مورد این مطلب نظر می دهید
ارسال نظر
پیشخوان
تبلیغات متنی