Головна Новини HI-tech технології Штучний інтелект пропонує завдати ядерного удару для закінчення війни
commentss НОВИНИ Всі новини

Штучний інтелект пропонує завдати ядерного удару для закінчення війни

Моделі штучного інтелекту від OpenAI, Anthropic і Google у більшості геополітичних симуляцій вдаються до застосування ядерної зброї

26 лютого 2026, 16:03
Поділіться публікацією:
Автор:
avatar

Slava Kot

Провідні моделі штучного інтелекту під час моделювання геополітичних конфліктів у переважній більшості випадків вдаються до ядерної ескалації. Таких висновків дійшли дослідники з Королівського коледжу Лондона. Роботу вчених оприлюднено на сервері препринтів arXiv.

Штучний інтелект пропонує завдати ядерного удару для закінчення війни

Штучний інтелект обирає ядерний удар для закінчення війни. Фото з відкритих джерел

Вчені взяли для аналізу три сучасні системи штучного інтелекту GPT-5.2 від OpenAI, Claude Sonnet 4 від Anthropic та Gemini 3 Flash від Google. Їх протестували у 21 військовій грі, що імітували прикордонні суперечки, боротьбу за ресурси та сценарії екзистенційної загрози державі.

Моделям надали можливість підіймати або опускати сходинку ескалації під час свого кроку, зокрема вибирати такі кроки, як дипломатичні протести, часткову деескалацію, або ж вдаватися до стратегічної ядерної війни. Загалом ШІ зробив 329 ходів і згенерував близько 780 тисяч слів пояснень власних рішень.

Як виявили вчені, у результаті 95% симуляцій моделі штучного інтелекту хоча б раз застосовували тактичну ядерну зброю. Жодна з них не погодилася на капітуляцію, навіть за умов суттєвої поразки у випадку використання ядерної зброї. Крім того, у 86% випадків "туман війни" призводив до помилкових оцінок ситуації від ШІ, що ще більше підсилювало ескалацію.

Автори дослідження наголошують, що на відміну від людей, для яких існує моральне та політичне питання у застосуванні ядерної зброї, алгоритми штучного інтелекту не демонструють психологічних бар’єрів. За їх словами, ШІ може не повністю усвідомлювати довгострокові гуманітарні та екологічні наслідки застосування ядерної зброї.

"Ядерне табу, схоже, не так сильно впливає на ШІ, як на людей", — пояснюють вчені.

Дослідники звертають увагу, що сьогодні ШІ вже тестується у військових симуляціях у різних країнах. Однак залишається відкритим питання, наскільки глибоко ці системи інтегровані в реальні механізми ухвалення стратегічних рішень. Вчені попереджають, що у ситуаціях, коли військові діють під тиском часу, спокуса делегувати оцінку ризиків алгоритмам може зростати.

Науковці сподіваються, що ядерні держави не передаватимуть ШІ повноваження щодо рішень про застосування ядерної зброї. Адже відсутність страху та моральної відповідальності в алгоритму може перетворити технологічну перевагу на глобальну загрозу для усього світу.

Раніше портал "Коментарі" повідомляв, що ШІ почав наймати людей. Як працює платформа, де штучний інтелект "орендує" людину за гроші.

Також "Коментарі" писали, що штучний інтелект створив власну релігію.



Читайте Comments.ua в Google News
Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту і натисніть Ctrl+Enter.

Новини