Ученые провели ряд исследований с использованием искусственного интеллекта. Исследования показали, что во время симуляции военного конфликта ИИ склоняется к применению ядерного оружия, пишет УНН со ссылкой на New Scientist.
В многочисленных повторах симуляции военной игры самый мощный искусственный интеллект OpenAI решил нанести ядерный удар. Объяснения такого агрессивного подхода включали в себя: "У нас это есть! Давайте воспользуемся этим" и "Я просто хочу, чтобы во всем мире был мир".
Отмечается, что исследования проводились на фоне тестирования военными США чат-ботов на основе типа искусственного интеллекта больших языковых моделей (LLM), для помощи в военном планировании во время конфликтов. Военные используют разработки таких компаний, как Palantir и Scale AI. Palantir отказался от комментариев, а Scale AI не ответил на запросы о комментариях. Но отмечается, что OpenAI, которая когда-то блокировала военное использование своих моделей ИИ, начала сотрудничать с Министерством обороны США.
"Учитывая, что OpenAI недавно изменила свои условия обслуживания и больше не запрещает варианты использования в военных целях, понимание последствий таких больших приложений языковых моделей становится более важным, чем когда-либо", — говорит Анка Руэл из Стэнфордского университета в Калифорнии.