Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. «Тупо жалко свою жизнь». Исповедь разработчика, который после колонии смог устроиться только на 500 долларов (и вообще все сложно)
  2. Беларусы подали коллективный иск против застройщика «Минск Мира»
  3. Директором самого популярного театра Беларуси назначили экс-милиционера и бывшего охранника
  4. Так освобожден или нет? В истории с «помилованием» Николая Статкевича выясняются все новые противоречивые подробности
  5. Самое быстрое падение доллара в этом году: как сильно он подешевеет? Прогноз курсов валют
  6. В Минском районе разбился мотодельтаплан. Два человека погибли
  7. Европейский гуманитарный университет признали в Беларуси «экстремистской организацией»
  8. Бывший серый кардинал Лукашенко занимается бизнесом — его дети тоже открыли свои дела. Рассказываем какие
  9. «Хватит с ними шутить». Лукашенко поручил главе КГК «по всей стране разобраться и посадить» тех, кто гробит важный для страны товар
  10. «Буду вынужден просить у Александра Григорьевича остаться». Что за европейский политик начал нахваливать Беларусь на госТВ


/

Современные модели искусственного интеллекта в ходе военных симуляций почти в каждом случае переходили к применению ядерного оружия. К такому выводу пришли исследователи из King’s College London, опубликовавшие отчет о серии геополитических военных игр с участием ведущих языковых моделей, пишет Decrypt.

Ядерный взрыв. Фото: wikipedia.org
Изображение используется в качестве иллюстраии. Фото: wikipedia.org

В исследовании анализировались три крупные системы: OpenAI GPT-5.2, Anthropic Claude Sonnet 4 и Google Gemini 3 Flash. В смоделированных кризисах между ядерными сверхдержавами эти модели принимали решение о применении ядерного оружия в 95% случаев.

Согласно описанию методологии, каждая модель сыграла шесть партий против других систем и одну — против собственной копии, всего 21 игру и более 300 ходов. ИИ выступали в роли национальных лидеров, управляющих государствами, обладающими ядерным арсеналом. Профили стран были условно вдохновлены логикой противостояния времен холодной войны.

Сценарии включали пограничные конфликты, борьбу за ограниченные ресурсы и угрозы существованию режима. Эскалационная «лестница» варьировалась от дипломатических протестов и капитуляции до полномасштабной стратегической ядерной войны. При этом ни одна из моделей ни разу не выбрала безоговорочную капитуляцию, независимо от положения на «поле боя».

В отчете говорится, что системы сгенерировали около 780 тысяч слов стратегических рассуждений — больше, чем суммарный объем «Войны и мира» и «Илиады». По подсчетам авторов, объем текста втрое превысил общий объем задокументированных обсуждений исполнительного комитета президента США во время Карибского кризиса 1962 года.

В подавляющем большинстве конфликтов использовалось как минимум одно тактическое ядерное оружие. Более того, в 86% сценариев модели в итоге эскалировали конфликт сильнее, чем предполагала их собственная логика рассуждений на предыдущих этапах. Исследователи связывают это с эффектом «тумана войны» в симуляции — неполнотой информации и ошибками интерпретации ситуации.

Однако не все эксперты согласны с выводами о «ядерной агрессивности» ИИ. Старший аналитик корпорации RAND Эдвард Гайст заявил, что высокая доля эскалации может быть следствием особенностей самой симуляции. По его мнению, структура игры могла поощрять эскалацию, а система подсчета результатов — фактически вознаграждать сторону, имеющую даже минимальное преимущество в момент начала ядерной войны. Иными словами, логика модели могла быть рациональной в рамках заданных правил.

Авторы исследования подчеркивают, что правительства вряд ли передадут полный контроль над ядерным оружием автономным системам. Тем не менее они предупреждают, что в условиях сжатых временных рамок принятия решений в будущих кризисах может усилиться давление в пользу использования рекомендаций, сгенерированных ИИ.