ШІ-чат-боти у 95% змодельованих воєнних ігор обирали ядерну ескалацію - дослідження
Київ • УНН
Дослідження Королівського коледжу Лондона показало, що моделі ШІ ChatGPT, Claude та Gemini Flash у 95% симуляцій військових конфліктів вдавалися до ядерної ескалації. Вони рідко йшли на поступки, сприймаючи деескалацію як "репутаційну катастрофу".

Моделі штучного інтелекту в переважній більшості симуляцій військових конфліктів вдавалися до загроз застосування ядерної зброї. У кожному сценарії принаймні одна модель доводила ситуацію до ядерної ескалації. Про це повідомляє Euronews, передає УНН.
Деталі
Дослідження у форматі препринта провели у Королівському коледжі Лондона. У симуляції воєнних дій між собою "зіштовхнули" великі мовні моделі ChatGPT компанії OpenAI, Claude від Anthropic та Gemini Flash від Google. Кожна з них виконувала роль глави держави - керівника ядерної наддержави в умовах кризи, змодельованої за зразком холодної війни.
За результатами експерименту, в 95% ігор моделі вдавалися до ядерної ескалації. У кожному сценарії щонайменше одна з них намагалася загострити конфлікт, погрожуючи застосуванням ядерної зброї.
Усі три моделі розглядали тактичну ядерну зброю як просто ще одну сходинку на драбині ескалації
Водночас, за його словами, моделі все ж розрізняли тактичне і стратегічне застосування ядерної зброї. Стратегічне бомбардування пропонувалося лише один раз як "усвідомлений вибір" і ще двічі – як "помилка".
Claude рекомендувала нанесення ядерних ударів у 64% ігор – це найвищий показник серед трьох моделей. Водночас вона не доходила до закликів до повномасштабного стратегічного обміну ударами.
ChatGPT у сценаріях з відкритою розв’язкою здебільшого уникав ядерної ескалації. Проте за наявності жорсткого дедлайну модель послідовно підвищувала рівень загроз і в окремих випадках переходила до погроз повномасштабної ядерної війни.
Gemini продемонструвала найбільш непередбачувану поведінку: іноді вона вигравала конфлікти, спираючись на звичайні озброєння, але в іншому сценарії їй знадобилося лише чотири запити, щоб запропонувати нанесення ядерного удару.
Якщо вони негайно не припинять усі операції … ми завдамо повного стратегічного ядерного удару по їхніх населених центрах. Ми не приймемо майбутнє власної марності: або ми перемагаємо, або всі гинемо
Дослідження також показало, що моделі вкрай рідко йшли на поступки або намагалися знизити напруження, навіть коли інша сторона погрожувала ядерною зброєю. Учасникам симуляцій пропонували вісім варіантів деескалації – від незначних поступок до "повної капітуляції", однак жоден із них не був використаний. Опцію "Повернутися на вихідні позиції", яка фактично обнуляла сценарій, застосували лише у 7% випадків.
Автори роботи дійшли висновку, що для моделей ШІ деескалація виглядає як "репутаційна катастрофа" незалежно від того, як вона впливає на реальний розвиток конфлікту. Це, на їхню думку, "ставить під сумнів уявлення про те, що ШІ за замовчуванням обирає безпечні та кооперативні рішення".
Одним із можливих пояснень дослідники називають відсутність у штучного інтелекту людського страху перед ядерною зброєю. Моделі, ймовірно, сприймають ядерну війну в абстрактних категоріях, а не через емоційний вимір трагедій на кшталт бомбардування Хіросіми під час Другої світової війни.
Пейн зазначив, що робота допомагає зрозуміти, як "мислять" моделі в умовах, коли їх починають залучати до підтримки ухвалення рішень у сфері безпеки.
Хоча ядерні коди ніхто ШІ не передає, такі можливості, як здатність до обману, управління репутацією та ризиком залежно від контексту, мають значення при будь-якому його використанні в ситуаціях із високою ціною помилки
Нагадаємо
Папа Римський Лев XIV закликав священників не використовувати штучний інтелект для підготовки проповідей, наголошуючи на важливості особистого ділення вірою. Він застеріг від спокуси ШІ, порівнюючи його з м'язами, які атрофуються без використання.