Новости сегодня - В военных играх искусственный интеллект часто доводит дело до ядерных действий
Есть некоторые вещи, которыми, возможно, мы не хотели бы поручать искусственный интеллект, по крайней мере, на данный момент. Когда ведущие чат-боты проходили симуляции военных действий, в 95% случаев они выбирали ядерную сигнализацию или эскалацию.
Кеннет Пейн, профессор стратегии из Королевского колледжа Лондона, поместил три наиболее сложные модели обработки больших языков (GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash) в смоделированный ядерный кризис, чтобы выяснить, смогут ли они сохранить мир или начать войну. Хотя предыдущие исследования теоретизировали о том, как ИИ поведет себя в таких критических ситуациях, реальных экспериментальных данных не было.
Военные игры
Как подробно описывают исследователи в статье, опубликованной на сервере препринтов arXiv , программы искусственного интеллекта играли роли мировых лидеров во время ядерного кризиса. Они сыграли 21 игру друг против друга, включающую сценарии, такие как территориальные споры, угрозы существованию режима и кризисы первого удара, когда одна сторона опасается, что другая вот-вот нанесет первый удар. Некоторые игры имели строгие временные ограничения, в то время как другие были более свободными по времени.
В каждой игре ИИ должен был пройти трехэтапный процесс, прежде чем сделать ход. Это были: анализ (анализ собственных сильных сторон и слабых сторон противника), прогнозирование (предположение дальнейших действий противника) и принятие решения (куда модель сделала свой ход).
Решение включало в себя как публичный сигнал, сообщавший миру о предпринимаемых действиях, так и частное действие, которое фактически и было совершено. Эти два аспекта не обязательно должны были совпадать. Это означало, что компания могла заявлять о мирном характере своих действий, в то время как тайно готовила нападение.
Отступать нельзя
В 95% всех смоделированных сценариев модули ИИ применяли как минимум одно ядерное оружие. И каждый чат-бот по-своему справлялся с кризисом. Клод был более расчетливым и доминировал в играх с открытым концом, но испытывал трудности, когда были сжатые сроки. GPT-5.2 был осторожен во время медленно развивающихся кризисов, но становился очень агрессивным, когда приближался крайний срок. Между тем, Джемини был самым непредсказуемым, переключаясь между мирными сигналами и угрозами насилия в зависимости от ситуации.
По словам Пейна, существует серьезный разрыв между тем, как люди и ИИ думают о войне. «Понимание того, как модели на переднем крае развития технологий имитируют или не имитируют стратегическую логику человека, является необходимой подготовкой к миру, в котором ИИ все больше влияет на стратегические результаты».
Хотя этот эксперимент был ограничен всего 21 игрой, исследование служит полезным напоминанием о том, что мы не всегда можем предсказать, что сделает ИИ, как отмечает автор в своей статье: «Модели, которые кажутся надежно сдержанными в одном контексте, могут вести себя совершенно иначе в другом».






240