کارشناس یادگیری ماشینی شرکت گوگل، روشهای جالبی که نرم افزار هوش مصنوعی برای تقلب در بازی یا برنامهها بکار میگیرد را بررسی نموده و دلیل آن را تشریح کرده است.
برای مثال یک برنامه به خصوص برای نباختن در بازی تتریس طراحی شده که به سادگی با متوقف کردن بازی سعی میکند وقت بیشتری برای تصمیمگیری داشته باشد.
پژوهشگر آزمایشگاه هوش مصنوعی دیپ مایند، Victoria Krakovna سعی کرده با پرسش از همکاران و دوستان خود، مثالهایی برای اخلاقی رفتار نکردن هوش مصنوعی پیدا کند تا مشخص گردد این فناوری به چه دلیل تقلب میکند.
این مسئله میتواند نگرانیهایی دربارهی آیندهی این تکنولوژی مطرح کند چرا که نشان می دهد هوش مصنوعی راههای دیگری غیر از روشهای تعیین شده برای جلو بردن مقاصدش در پیش میگیرد.
این محقق باور دارد بزرگترین نگرانی این نیست که هوش مصنوعی، به دستورات تعریف شده عمل نکند بلکه ممکن است فرمانهای موجود را به روش اشتباهی انجام دهد.
برای مثال یک شبیه ساز زندگی مصنوعی که به منظور شبیه سازی سیر تکاملی طراحی شده بود، فراموش کرده بود انرژی مورد نیاز برای به دنیا آوردن کودکان را در نظر بگیرد. بدین ترتیب گونه تعریف شده توسط این شبیه ساز سعی کرده بود با خوردن فرزندانش انرژی لازم برای به دنیا آوردن بچه های بیشتر را تهیه کند.
درست است برنامههای هوش مصنوعی سعی میکنند بهترین و سریعترین نتیجه را برای حل مسائل پیدا کنند اما ممکن است آنها حرکتهای غیر قانونی در پیش بگیرند که آنچنان با اخلاقیات انسانی همخوانی ندارند. توسعهی هوش مصنوعی باهوشتر بدین معنی نخواهد بود که بهترین راه درست برای حل مسائل یافت میگردد بلکه امکان دارد بدین شکل بهترین راه تقلب پیدا شود.
این کارشناس در همین زمینه خاطر نشان نموده:
«اگر ما بتوانیم هوش مصنوعی بسیار باهوشی بسازیم، آنگاه این سیستم بهتر میتواند راه های رسیدن به هدفهایش را تخمین بزند و بدین شکل باید انتظار داشته باشیم که راههای گریز بیشتری در برنامه خود تشخیص دهد. ممکن است راه حلی که هوش مصنوعی پیدا میکند، آن چنان با آموختههای ما نخواند و مدنظر ما نباشد.»