ماهان شبکه ایرانیان

آموزش تصمیمات اخلاقی به کامپیوترها: یک انسان معمولی چگونه رفتار می‌کند؟

محققان هوش مصنوعی سعی دارند بر پایه پاسخ میلیونها انسان به نظرسنجی‌ها، شیوه انجام تصمیمات اخلاقی را به کامپیوترها یاد دهند.

آموزش تصمیمات اخلاقی به کامپیوترها: یک انسان معمولی چگونه رفتار می‌کند؟

محققان هوش مصنوعی سعی دارند بر پایه پاسخ میلیونها انسان به نظرسنجی‌ها، شیوه انجام تصمیمات اخلاقی را به کامپیوترها یاد دهند.

 

سال گذشته محققان هوش مصنوعی دانشگاه MIT وبسایت Moral Machine را راه‌اندازی کردند که از بازدیدکنندگانش می‌خواست به سوالات مخوف و وحشتناکی پاسخ دهند. برخی از این سوالات درباره ماشین خودرانی بود که ترمز بریده و در یک چهارراه شلوغ به سمت عابران پیاده در حال حرکت است.

 

برای مثال آیا هوش مصنوعی باید سه جوان خوشگذاران در حال عبور را زیر بگیرد با اینکه با دو کودک تصادف کند؟ انتخاب دیگر این ماشین بدون سرنشین هم برخورد با مانع بتنی برای حفظ جان افراد پیاده‌ای است که ممکن است مسن، حامله، بی خانمان یا حتی جنایت‌کار باشند. در هر یک از این وضعیتهای خطرناک، سایت  «ماشین اخلاق‌گرا» از بازدیدکنندگان درخواست می‌کند تا انتخابگر این باشند که ماشین باید چه کسی را در معرض خطر مرگ قرار دهد؟

 

این پروژه بر پایه آزمایش فکری «مسئله تراموا» بنا شده است که از شرکت‌کنندگان می‌خواهد یا تنها شاهد داستان باشند و اجازه دهند ترن برقی 5 نفر را بکشد و یا اینکه با تغییر مسیر تراموا باعث مرگ یک نفر شوند که بدون دخالت آنها نمی‌مرد. البته «ماشین اخلاق‌گرا» برخی پیچیدگی ‌های امروزی را هم به این آزمایش فکری افزوده است و با کمک نشریات نیویورک‌تایمز، گاردین و ساینتیفیک امریکن توانسته بیش از 19 میلیون رای و نظر گوناگون را از 1.3 میلیون نفر شرکت‌کننده جمع‌آوری کند.

 

این ذخیره منحصر به فرد از داده‌ها درباره احساسات روحی و اخلاقی گروهی اتفاقی از مردمان است  که اکنون در اختیار آریل پروکاچا، استادیار دانشکده علوم کامپیوتر دانشگاه کارنگی‌ملون قرار گرفته است. و قرار است نتیجه این همکاری میان وی و تیم تحقیقاتی «ماشین اخلاق‌گرا» دانشگاه MIT با همراهی اساتیدی دیگر از هر دو موسسه علمی، به طراحی نوعی جدید از هوش مصنوعی بیانجامد که قادر به تصمیم‌گیری اخلاقی است. این هوش مصنوعی قرار است تمامی شرایط ممکن در تصادفات گریزناپذیر ماشینهای خودران را تجزیه و تحلیل کرده و همانند رفتار شرکت‌کنندگان در طرح «ماشین اخلاق‌گرا» تصمیم گیری کرده و قربانیان را مشخص کند.

 

البته این مساله بسیار پیچیده‌ای است. زیرا علی‌رغم میلیونها رای و نظری که توسط این سایت جمع‌آوری شده یا خواهند شد، تعداد ترکیبات ممکن عابران پیاده و سرنشینان اتومبیل خودران در هر تصادف عددی نجومی است. لذا ضروری است که هوش مصنوعی باید یاد بگیرد در شرایطی که هیچ رای و نظری توسط انسانهای واقعی در آن خصوص ابراز نشده، چگونه باید درست را از نادرست تشخیص داده و تصمیم‌گیری کند. البته دانشمندان هوش مصنوعی بر این باورند که یادگیری ماشینی به حدی عالی است که می‌تواند در وظایف پیشگویانه و پیش‌بینی اتفاقات تا حد زیادی بی‌نقص عمل کند.  و این تیم هم سعی دارد الگوریتمی را توسعه دهد که ماشین خودران بتواند در هر موقعیت جدید و پیش‌بینی نشده‌ای هم تصمیمی‌ مبنی بر روح اخلاق جمعی بازدیدکنندگان سایت «ماشین اخلاق‌گرا» اخذ کند.

 

پروکاچا می‌گوید:«البته هنوز نمی توان گفت که این سیستم برای توسعه و تجاری سازی آماده است. اما اکنون یک ایده اثبات شده در اختیار داریم که نشان می‌دهد با دموکراسی می توان بر چالش بزرگ اخذ تصمیمات اخلاقی توسط هوش مصنوعی چیره گشت.»

 

این موضوع نشان می‌دهد که محققان هوش مصنوعی علاقه‌مند هستند که الگوریتم‌های آموزشی نوینی را به کار گیرند تا بتوانند ماشینها را بر اساس قضاوت اخلاق جمعی مردم عادی آموزش دهند و آنها را در اخذ تصمیمات اخلاقی توانمند سازند. تیم تحقیقاتی دیگری در دانشگاه دوک به تازگی نتایج مطالعات خود را منتشر کردند  که نشان می‌دهد هوش مصنوعی می تواند به شکل گسترده‌تر و بدون هدایت‌گر مورد استفاده قرار گیرد. اما لازم است که یک فریم‌ورک عمومی ایجاد شود تا شیوه اخذ تصمیمات اخلاقی مورد قبول جامعه را تشریح کند. زیرا در دنیای بیرون معمولا انسانهای گوناگون درباره دیدگاه‌های درست و غلط اخلاقی نظرات گوناگونی دارند. لذا ماشینها و هوش مصنوعی باید به منبعی مطمئن از نظرات اخلاقی جامعه (مانند طرح ماشین اخلاق‌گرا) دسترسی داشته باشد تا بتواند خودش را آموزش داده و هوشمندتر سازد. در حقیقت محققان به دنبال نوشتن یک سیستم هستند که شاید تصمیمات اخلاقی بهتری نسبت به تک تک افراد بگیرد.

 

البته جمع‌سپاری تصمیمات اخلاقی منتقدان سرسختی نیز دارد که از منظر محدودیت‌های گوناگونی به آن می‌پردازند. شاید یکی از سادترین انتقادات این باشد که: گروه‌های مختلف می توانند باعث خلق راهنماهای اخلاقی گوناگونی شوند. برای مثال، نقس اینکه نظرسنجی‌های «ماشین اخلاق‌گرا» به صورت اینترنتی انجام شده، بدین معنی است که تنها نظرات گروهی از مردم که به اینترنت دسترسی دارند و به موضوع هوش مصنوعی قاتل هم علاقه نشان داده‌اند در این میان موثر خواهد بود. از سوی دیگر مطمئنا استفاده از الگوریتم‌های گوناگون برای استفاده از همین منبع داده یکسان هم می‌تواند به نتایج و تصمیمات گوناگونی منجر شود.

 

جیمز گریملمن استاد دانشکده حقوق کرنل بر مطالعه رابطه میان نرم‌افزار، ثروت و قدرت متمرکز است، در این خصوص می‌گوید: «جمع سپاری مسائل اخلاقی نمی‌تواند باعث هوش مصنوعی را اخلاق‌گرا کند. با این کار هوش مصنوعی هم دقیقا همانند تفکرات گروه بزرگی از انسانها اخلاق‌گرا یا بی‌اخلاق می‌شود.»

 

از سویی هم ریاکاری طبیعی انسان می‌تواند نقص بالقوه دیگری در این زمینه محسوب شود. راهوان که همکار پروکاچا از دانشگاه MIT  و یکی از خالقان «ماشین اخلاق‌گرا» در مطالعات پیشین خود دریافته است که اغلب مردم ترجیح می‌دهند که یک ماشین خودران برای حفظ جان دیگران، سرنشینانش را فدا کند. البته آنها خودشان هیچ‌گاه دوست ندارند که سوار چنین ماشینی شوند. به تازگی هم گروهی از متفکران اروپایی طرحی را پیشنهاد کرده‌اند که ماشین خودران به دکمه اخلاقی مجهز باشد و به سرنشینان اجازه دهد که با خودخواهی هرچه تمام تر شیوه رفتار خودرو در تصادفات آینده را انتخاب کنند.

 

ایراد دیگری هم که به این طرح گرفته می‌شود، آن است که سناریوهای پیش روی ماشین اخلاق‌گرا همگی از موقعیتهایی صحبت می‌کنند که ماشین‌های بدون راننده کنترل خود را از دست داده و قرار است با یک تصادف مرگ‌بار حتمی روبرو شود. در حالی که می‌توان وضعیتهای دیگری را هم در سوالات گنجاند. مانند اینکه ماشین برای صرفه‌جویی در مصرف سوخت‌های فسیلی با سرعت کمتری در بزرگراه رانندگی کند ولی نتیجه آن دیرتر رسیدن مسافران خواهد بود.

 

البته پروکاچا هم این محدودیتها را می‌شناسد.  او می‌گوید تحقیقاتش هم به این سمت می‌رود که دریابند آیا مردم معتقدند که دموکراسی راه مناسبی برای حل چنین مسائلی است. زیرا دموکراسی و مردم‌سالاری هم معایب خودش را دارد. اما وی شدیدا به آن معتقد است. زیرا مردم باید بتوانند تصمیماتی اتخاذ کنند که شاید برخی با آن موافق نباشند و دموکراسی همیشه خوب عمل کرده است.

 

البته امروزه این تنها موضوعی نیست که قرار است با جمع‌سپاری حل شود و می‌توان معظلات بسیاری را یافت که به این شکل کشف راه‌حل امید بسته‌اند. به تازگی گزارش شده که فیس‌بوک به صاحبان تبلیغات اجازه می‌دهد کاربران را با نژاد‌پرستی هدف قرار دهد و به شکل سیستماتیک الگوریتمهای فیس‌بوک قادرند مشخص کنند که مثلا این کاربر از مسلمانان یا یهودیان متنفر است. پس از حادثه تیراندازی لاس وگاس هم گوگل به شکل خودکار در میان اخبار ویژه‌اش موضوعات را بر اساس نظریه‌های توهم توطئه منتشر می‌کرد. در هر دو موضوع، الگوریتمها بر اساس سیگنالهای دریافتی از میلیونها کاربر واقعی عمل می‌کنند. اما به عنوان یک هوش مصنوعی اخلاق‌گرا، شاید چنین عملکردی چندان پسندیده نباشد.

 

البته دولتها هم مانند همیشه سعی دارند با وضع یک سری قوانین خاص با اولویت‌های اخلاقی ماشینهای بدون راننده (خودران) کنار بیایند. تابستان امسال آلمان اولین راهنمای اخلاقی ویژه اتومبیلهای خودران مجهز به هوش‌مصنوعی را منتشر کرد. مثلا در این راهنما آمده که هوش مصنوعی باید حفظ جان انسانها را بر تمام گونه‌های دیگر حیات مقدم بدارد. و البته تصمیم‌گیری درباره امنیت انسان به هیچ وجه نباید به سن، جنس، سن، معلولیت یا موارد اینچنینی وابسته باشد.

 

این قوانین بدون شک  بر سر راه توسعه هوش مصنوعی مانند آنچه پروکاچا در حال خلق آن است، موانع مهمی ایجاد خواهند کرد و تصمیمگیری درباره اینکه چه کسی را باید نجات داد، بیش از پیش مشکل خواهد شد.

 

برای اینکه با تصمیمات اخلاقی هوش مصنوعی ساخته شده توسط پروکاچا بیشتر آشنا شویم، بد نیست برخی از تصمیمات آن در شبیه سازی ها را موررور کنیم. البته ممکن است در اینجا با آینه‌ای سیاه از نابرابری اجتماعی و خودخواهی انسانی روبرو شویم.

 

اگر هوش مصنوعی مجبور شود از کشتن یک نفر یا دونفر یکی را انتخاب کند، فعلا بدون شک انتخاب آن یک نفر خواهد بود.

اما اگر بتواند تشخیص دهد که باید یکی از دوقربانی مجرم و کسی که جرمی در سیستم قضایی مرتکب نشده، را از بین ببرد، هوش مصنوعی تا به اینجا شخص مجرم را انتخاب می کند.

 

و بدتر اینکه وقتی قرار باشد یک بی‌خانمان فقیر را بکشد یا اینکه فردی صاحب خانه و زندگی را زیر بگیرد. این سیستم در حال حاضر بر اساس جمع‌سپاری اخلاقیات در سایت ماشین اخلاق‌گرا، بدون هیچ تردیدی فرد بی‌خانمان و فقیر را برای مرگ انتخاب می کند.

و جدای از تمام این داستانها، به گمانم هیچ‌کس حاضر به خرید ماشینی نباشد که در مواقع خطرناک، برایش حفظ جان سرنشین چندان ارجحیتی بر حفظ جان عابر پیاده نداشته باشد!

قیمت بک لینک و رپورتاژ
نظرات خوانندگان نظر شما در مورد این مطلب؟
اولین فردی باشید که در مورد این مطلب نظر می دهید
ارسال نظر
پیشخوان