Не дать ИИ управлять ядерной войной
Интеграция ИИ в ядерные системы и связанные с ними вооружения кардинально меняет глобальную безопасность . Это создаёт новые уязвимости и неопределённости, которые могут ослабить сдерживание и повысить вероятность случайной ядерной эскалации, высказывается предупреждение в докладе института исследования проблем мира (SIPRI) под названием «Прагматические подходы к управлению на пересечении искусственного интеллекта и ядерного оружия».
Эксперты SIPRI отмечают, что период сокращения ядерных арсеналов подошёл к концу, и новая гонка вооружений несёт в себе значительно больше рисков и неопределённости по сравнению с предыдущей. Согласно данным института, на начало 2025 года в мире насчитывалось 12 241 ядерная боеголовка, из которых 9614 считались готовыми к применению. Россия с 4309 боеголовками в военных запасах занимает лидирующую позицию, а США располагают 3700 единицами.
Как пишет «Военное обозрение», доклад выделяет три ключевые области применения ИИ в системах ядерного командования, управления и связи (NC3): стратегическое предупреждение, адаптивное наведение и поддержка принятия решений. ИИ способен обрабатывать огромные объёмы данных в реальном времени, что теоретически предоставляет командирам больше времени для реагирования. Однако эксперты предупреждают о значительных рисках.
Основная проблема заключается в отсутствии исторических данных о ядерных кризисах, необходимых для эффективного обучения ИИ. В отличие от других областей, где можно накопить значительные массивы информации, количество ядерных кризисов в истории ограничено, что ограничивает возможности машинного обучения. Это заставляет полагаться на большие языковые модели (LLM), чьи способности обеспечивать надёжную поддержку в быстро развивающихся и напряжённых сценариях остаются под вопросом.
Критической проблемой остаётся непрозрачность алгоритмов ИИ, известная как проблема «чёрного ящика». Лу Чуаньин, бывший глава Исследовательского центра международного управления киберпространством Шанхайских институтов международных исследований, отмечает, что отсутствие прозрачности в системах ИИ на критически важных объектах, таких как ядерное управление, усложняет принятие решений и вызывает сомнения в чрезвычайных ситуациях.
Особую тревогу вызывает риск автоматизации предрассудков, когда человек-оператор со временем начинает некритически принимать рекомендации машины, считая алгоритмические предложения своим собственным независимым суждением.
ИИ-усиленные системы высокоточного наведения, навигации и принятия решений могут повысить эффективность обнаружения и поражения ядерных сил противника.
Стремление сохранить потенциал ответного удара может привести к разработке и внедрению более дестабилизирующих доктрин, таких как запуск по предупреждению (LOW) или запуск под атакой (LUA). Практически все ядерные державы активно развивают или уже обладают такими возможностями.
Примером может служить майский конфликт 2025 года между Индией и Пакистаном, когда Индия использовала сверхзвуковые крылатые ракеты «БраМос» с ИИ-системами наведения. Один из ударов был направлен на авиабазу Нур-Хан ВВС Пакистана в Равалпинди, которая находится рядом с центрами ядерного командования. Советник премьер-министра Пакистана отметил, что у страны было всего 30-45 секунд для оценки, несёт ли приближающаяся ракета ядерную боеголовку.
Также растёт роль неядерного оружия с поддержкой ИИ, которое может угрожать выживаемости ядерных систем. Это включает противоспутниковые системы, атакующие космическую инфраструктуру систем NC3, а также кибероружие, используемое для предзапусковых операций.
Дебаты о сохранении человеческого контроля над ядерным оружием становятся центральными в международных дискуссиях. Франция, Великобритания и США представили совместный рабочий документ о принципах ответственной практики для ядерных государств на Обзорной конференции ДНЯО в 2022 году. В 2024 году президенты КНР и США подчеркнули важность сохранения человеческого контроля над применением ядерного оружия.
Россия также выступает за сохранение человеческого фактора. Командующий РВСН генерал-полковник Сергей Каракаев заявил, что замена человека на данный момент нецелесообразна, поскольку технологии ИИ, внедряемые даже для автоматизации рутинных операций, ещё не были полностью изучены и отработаны.
При этом в РВСН активно внедряются роботизированные охранные комплексы с ИИ. Все перспективные ракетные комплексы, планируемые к постановке на боевое дежурство к 2030-м годам, будут оснащены системами охраны, построенными исключительно на робототехнических комплексах с использованием ИИ.
Цитируемый доклад предлагает несколько направлений для управления рисками. Необходимо расширить понимание рисков, связанных с интеграцией ИИ в ядерные системы. Ядерные державы могут работать в двусторонних или многосторонних форматах, чтобы определить конкретные атрибуты систем ИИ, которые считаются дестабилизирующими.
Эксперты предлагают разработать специфические стандарты безопасности ИИ для всех этапов жизненного цикла ядерного оружия, аналогичные практикам управления киберрисками. Также предлагается создать механизм «аварийного выключения» для случаев, когда риски, связанные с использованием модели, считаются недопустимыми.
В краткосрочной перспективе может быть полезно развитие мер укрепления доверия, направленных на снижение риска эскалации в условиях развития ИИ. Государствам следует рассмотреть возможность создания двусторонних «горячих линий» для решения вопросов, связанных с операциями, в которых используется ИИ.
Интеграция ИИ в ядерные системы представляет собой двойственную перспективу: с одной стороны, она может улучшить процесс принятия решений и повысить ситуационную осведомлённость, с другой стороны, она также несёт серьёзные риски для глобальной стабильности. Хотя ИИ способен улучшить обработку данных и ситуационную осведомлённость, его способность вносить ошибки, усиливать предрассудки и сокращать временные рамки повышает риск случайной эскалации.
Существующие государственные подходы в целом сходятся на принципе сохранения человеческого контроля. Однако сохраняются ключевые различия в том, какие конкретные действия должны оставаться под контролем человека и как должно осуществляться человеческое суждение в сложных цепях принятия решений.
