Рубрики
МЕНЮ
Slava Kot
Провідні моделі штучного інтелекту під час моделювання геополітичних конфліктів у переважній більшості випадків вдаються до ядерної ескалації. Таких висновків дійшли дослідники з Королівського коледжу Лондона. Роботу вчених оприлюднено на сервері препринтів arXiv.

Штучний інтелект обирає ядерний удар для закінчення війни. Фото з відкритих джерел
Вчені взяли для аналізу три сучасні системи штучного інтелекту GPT-5.2 від OpenAI, Claude Sonnet 4 від Anthropic та Gemini 3 Flash від Google. Їх протестували у 21 військовій грі, що імітували прикордонні суперечки, боротьбу за ресурси та сценарії екзистенційної загрози державі.
Моделям надали можливість підіймати або опускати сходинку ескалації під час свого кроку, зокрема вибирати такі кроки, як дипломатичні протести, часткову деескалацію, або ж вдаватися до стратегічної ядерної війни. Загалом ШІ зробив 329 ходів і згенерував близько 780 тисяч слів пояснень власних рішень.
Як виявили вчені, у результаті 95% симуляцій моделі штучного інтелекту хоча б раз застосовували тактичну ядерну зброю. Жодна з них не погодилася на капітуляцію, навіть за умов суттєвої поразки у випадку використання ядерної зброї. Крім того, у 86% випадків "туман війни" призводив до помилкових оцінок ситуації від ШІ, що ще більше підсилювало ескалацію.
Автори дослідження наголошують, що на відміну від людей, для яких існує моральне та політичне питання у застосуванні ядерної зброї, алгоритми штучного інтелекту не демонструють психологічних бар’єрів. За їх словами, ШІ може не повністю усвідомлювати довгострокові гуманітарні та екологічні наслідки застосування ядерної зброї.
Дослідники звертають увагу, що сьогодні ШІ вже тестується у військових симуляціях у різних країнах. Однак залишається відкритим питання, наскільки глибоко ці системи інтегровані в реальні механізми ухвалення стратегічних рішень. Вчені попереджають, що у ситуаціях, коли військові діють під тиском часу, спокуса делегувати оцінку ризиків алгоритмам може зростати.
Науковці сподіваються, що ядерні держави не передаватимуть ШІ повноваження щодо рішень про застосування ядерної зброї. Адже відсутність страху та моральної відповідальності в алгоритму може перетворити технологічну перевагу на глобальну загрозу для усього світу.
Раніше портал "Коментарі" повідомляв, що ШІ почав наймати людей. Як працює платформа, де штучний інтелект "орендує" людину за гроші.
Також "Коментарі" писали, що штучний інтелект створив власну релігію.