اصول اخلاقی پنتاگون برای استفاده از هوش مصنوعی در جنگ

پنتاگون بطور رسمی اصول اخلاقی مرتبط با کاربرد هوش مصنوعی در ساخت تسلیحات را به تصویب رساند.

اصول اخلاقی پنتاگون برای استفاده از هوش مصنوعی در جنگ

به گزارش اسپوتنیک با استناد به گزارش وزارت دفاع آمریکا، پنتاگون اصول اخلاقی برای سرعت بخشیدن به استفاده از هوش مصنوعی و فن آوری در میدان جنگ را به تصویب رساند.

این توصیه به مارک اسپر وزیردفاع آمریکا در پاییز سال 2019 پس از 15 ماه دوره طراحی اصول اخلاقی ماشین رزمی ارسال شد.

امکان اینکه هوش مصنوعی در آینده نزدیک بطور مستقل بتواند وظایف جنگی را به انجام برساند  بحث های داغ و انتقادات شدیدی را خطاب به نظامیان در آمریکا و فراسوی آن کشور برانگیخته است.

وزیر دفاع آمریکا در این خصوص گفت:«آمریکا همراه با متحدان و شرکای خود باید به استفاده از هوش مصنوعی  در جنگ سرعت بخشد و در استفاده از آن برای دفاع از امنیت ملی به برتری جهانی برسد تا بتوانیم موضع استراتژیکی خود را حفظ کنیم و از نظم جهانی حفاظت کنیم».

به گفته وی تکنولوژی نباید بر رفتار مسئولانه و قانونی نظامیان تأثیر بگذارد. اکنون پنتاگون 5 اصل مهم را در نظر خواهد گرفت. هوش مصنوعی باید مسئول،قابل فهم، قابل اطمینان و قابل هدایت و متناسب باشد.

اصول کاربرد هوش مصنوعی در جنگ توسط مرکز کارشناسی پنتاگون طراحی می شود که علاوه بر نظر نظامیان و کارمندان، عقاید کارشناسان فنی نیز مورد توجه قرار می گیرد.

قیمت بک لینک و رپورتاژ
نظرات خوانندگان نظر شما در مورد این مطلب؟
اولین فردی باشید که در مورد این مطلب نظر می دهید
ارسال نظر
پیشخوان