Штучний інтелект у симуляції військових конфліктів схиляється до нанесення ядерного удару

Штучний інтелект у симуляції військових конфліктів схиляється до нанесення ядерного удару

Київ  •  УНН

 • 31884 перегляди

Read in English

Під час симуляцій військових ігор ШІ був схильний до нанесення ядерних ударів, що підкреслює необхідність забезпечення безпечного та відповідального розвитку.

Учені провели низку досліджень із використанням штучного інтелекту. Дослідження засвідчили, що під час симуляції військового конфлікту ШІ схиляється до застосування ядерної зброї, пише УНН з посиланням на New Scientist.

У численних повторах симуляції військової гри найпотужніший штучний інтелект OpenAI вирішив завдати ядерного удару. Пояснення такого агресивного підходу включали в себе: "У нас це є! Давайте скористаємося цим" і "Я просто хочу, щоб у всьому світі був мир".

Зазначається, що дослідження проводилися на тлі тестування військовими США чат-ботів на основі типу штучного інтелекту великих мовних моделей (LLM), для допомоги у військовому плануванні під час конфліктів. Військові використовують розробки таких компаній, як Palantir і Scale AI. Palantir відмовився від коментарів, а Scale AI не відповів на запити про коментарі. Але зазначається, що OpenAI, яка колись блокувала військове використання своїх моделей ШІ, почала співпрацювати з Міністерством оборони США.

"З огляду на те, що OpenAI нещодавно змінила свої умови обслуговування і більше не забороняє варіанти використання у військових цілях, розуміння наслідків таких великих застосувань мовних моделей стає більш важливим, ніж будь-коли", - каже Анка Руел зі Стенфордського університету в Каліфорнії.

У ЄС схвалили перший у світі закон, який регулюватиме роботу штучного інтелекту4 лют. 2024, 04:34 • 105129 переглядiв