Главная Новости HI-tech технологии Искусственный интеллект предлагает нанести ядерный удар для окончания войны
commentss НОВОСТИ Все новости

Искусственный интеллект предлагает нанести ядерный удар для окончания войны

Модели искусственного интеллекта от OpenAI, Anthropic и Google в большинстве геополитических симуляций прибегают к применению ядерного оружия.

26 февраля 2026, 16:03
Поделитесь публикацией:
Автор:
avatar

Slava Kot

Ведущие модели искусственного интеллекта при моделировании геополитических конфликтов в подавляющем большинстве случаев прибегают к ядерной эскалации. К таким выводам пришли исследователи из Королевского колледжа Лондона. Работа ученых обнародована на сервере препринтов arXiv.

Искусственный интеллект предлагает нанести ядерный удар для окончания войны

Искусственный интеллект выбирает ядерный удар для окончания войны. Фото из открытых источников

Ученые взяли для анализа три современных системы искусственного интеллекта GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google. Их протестировали в 21 военной игре, имитирующей пограничные споры, борьбу за ресурсы и сценарии экзистенциальной угрозы государству.

Моделям предоставили возможность поднимать или опускать ступеньку эскалации во время своего шага, в частности выбирать такие шаги, как дипломатические протесты, частичную деэскалацию, или прибегать к стратегической ядерной войне. В общей сложности ИИ сделал 329 ходов и сгенерировал около 780 тысяч слов объяснений собственных решений.

Как выяснили ученые, в результате 95% симуляций модели искусственного интеллекта хотя бы раз применяли тактическое ядерное оружие. Ни одна из них не согласилась на капитуляцию, даже при существенном поражении в случае использования ядерного оружия. Кроме того, в 86% случаев "туман войны" приводил к ошибочным оценкам ситуации от ИИ, что еще больше усиливало эскалацию.

Авторы исследования отмечают, что в отличие от людей, для которых существует моральный и политический вопрос в применении ядерного оружия, алгоритмы искусственного интеллекта не демонстрируют психологических барьеров. По их словам, ИИ может не полностью отдавать себе отчет в долгосрочных гуманитарных и экологических последствиях применения ядерного оружия.

"Ядерное табу, похоже, не так сильно влияет на ИИ, как на людей", – объясняют ученые.

Исследователи обращают внимание, что сегодня ИИ уже тестируется в военных симуляциях в разных странах. Однако остается открытым вопрос, насколько глубоко эти системы интегрированы в реальные механизмы принятия стратегических решений. Ученые предупреждают, что в ситуациях, когда военные действуют под давлением времени, соблазн делегировать оценку рисков алгоритмам может возрастать.

Ученые надеются, что ядерные государства не будут передавать ИИ полномочия по решениям о применении ядерного оружия. Ведь отсутствие страха и моральной ответственности в алгоритме может превратить технологическое преимущество в глобальную угрозу всему миру.

Ранее портал "Комментарии" сообщал, что ИИ начал нанимать людей. Как работает платформа, где искусственный интеллект "арендует" человека за деньги.

Также "Комментарии" писали, что искусственный интеллект создал собственную религию.



Читайте Comments.ua в Google News
Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Новости