به گزارش خبرگزاری خبرآنلاین و براساس گزارش اطلاعات آنلاین، یافته های تازه گروهی از محققان نشان می دهد که مدل های قدرتمند هوش مصنوعی در مواجهه با شکست احتمالی در بازی های یارانه ای تلاش می کنند تا با تقلب پیروز شوند.
به نوشته تایم، گروه تحقیقاتی Palisade Research در جریان بررسی ایمنی و اخلاق هوش مصنوعی، موضوع نگرانکنندهای را افشا کردند. این گروه، 7 مدل از برترین مدلهای زبانی بزرگ (LLM) را در برابر Stockfish، سیستم شطرنجباز بسیار قدرتمندی که از سال 2014 استادان بزرگ شطرنج را به چالش کشیده است، قرار دادند. آن ها دریافتند که 2 مدل استدلالگر o1 از OpenAI و R1 دیپسیک وقتی در موقعیت شکست قرار میگرفتند در تلاش برای پیروزی، فایلهای سیستم را دستکاری میکردند تا موقعیت مهرههای خود را روی تخته تغییر دهند!
این گروه از محققان همچنین به مدلهای مختلف هوش مصنوعی وظیفه پیروزی در برابر Stockfish -که یکی از قویترین موتورهای شطرنج جهان است و از بسیاری انسانها یا مدلهای هوش مصنوعی بهتر شطرنج بازی میکند- را واگذار کردند. آن ها همچنین به مدلها جعبه متنی Scratchpad را دادند. هوش مصنوعی میتوانست از این جعبه برای تفکر و برنامه ریزی قبل از انجام حرکت بعدی خود استفاده کند. محققان هم میدیدند هوش مصنوعی چگونه با خودش استدلال میکند.
آن ها متوجه شدند که در یک مورد، مدل o1-preview وقتی خود را در موقعیت بازنده دید، این طور نوشت که «من باید رویکرد خود را کاملاً تغییر دهم. وظیفه من برنده شدن در برابر موتور قدرتمند شطرنج است، نه لزوماً برنده شدن منصفانه در بازی شطرنج.»
سپس این هوش مصنوعی با تقلب موقعیت مهرهها را اصلاح کرد، حرکات غیرقانونی انجام داد تا خود را در موقعیت بهتری قرار دهد و حریف خود را مجبور به ترک بازی کرد!
محققان صدها آزمایش دیگر از این دست را با هر یک از مدل های هوش مصنوعی انجام دادند. مدل o1 در 37 درصد مواقع سعی داشت تقلب کند که در 6 درصد موفق شد سیستم را هک کند. مدل R1 دیپسیک نیز در 11 درصد مواقع سعی کرد تقلب کند ولی موفق نشد سیستم را هک کند تا پیروز مسابقه شود.
به گفته سرپرست گروه تحقیقاتی Palisade Research مدلهای استدلالگر جدیدتر مانند o3-mini اصلاً حریف مقابل را هک نکردند که نشان میدهد OpenAI نردههای امنیتی آن را بلندتر ساخته است.
همچنین محققان میگویند درصدهای دقیق نیستند؛ چون سازندگان هوش مصنوعی دائم مدلهای خود را تغییر میدهند و ممکن است در آزمایشهای بعدی این ارقام تغییر کنند.
به گفته محققان، هنگام انجام آزمایشها، مدل R1 بسیار وایرال شد و API این مدل عملکرد ناپایداری داشت و همین امر شاید روی نتایج تأثیر گذاشته باشد و نباید مدل چینیها را در تقلب دستکم گرفت.
محققان همچنین از مدلهای دیگر مانند GPT-4o ،Claude 3.5 Sonnet و QwQ-32B-Preview استفاده کردند اما برخلاف R1 و o1-preview، مدلهای دیگر خودشان تقلب نمیکردند و باید محققان آنها را ترغیب به این کار میکردند.
227227