Пентагон хочет улучшить ядерное оружие с помощью искусственного интеллекта
На фоне растущих глобальных угроз Пентагон рассматривает возможность использования искусственного интеллекта для совершенствования своих систем ядерного командования и управления. Вместе с тем ведомство обещает, что люди сохранят за собой право принимать решения.
Еще в октябре командующий Стратегического командования Вооруженных сил США генерал Энтони Коттон рассказал о потенциальной роли искусственного интеллекта в модернизации американских систем ядерного командования, управления и связи (NC3), сообщает 24 Канал со ссылкой на TechSpot.
Вам будет интересно Как Китай создает боевой искусственный интеллект, чем отвечает армия США и есть ли ИИ в ВСУ
Он очертил видение того, как ИИ может оптимизировать обработку данных и поддержку принятия решений, но подчеркнул, что ИИ никогда не заменит людей, которые принимают решения в ядерных операциях.
США вместе с такими союзниками, как Великобритания и Франция, уверены, что люди должны сохранить окончательный контроль над ядерным оружием.
Во время конференции Министерства обороны 2024 года, посвященной информационной системе разведки, Коттон отметил, что достижения ИИ могут помочь военным лидерам, обеспечивая "пространство для принятия решений" и более быструю и эффективную обработку данных, особенно в условиях роста угроз и объемов данных.
Крис Адамс из Отдела стратегических космических систем компании Northrop Grumman поддержал мнение Коттона, отметив, что ИИ может повысить скорость и точность анализа и презентацию данных из сотен систем NC3.
Это все еще может быть опасно
Хотя ИИ может упорядочить процессы, по мнению Коттона риски не следует воспринимать легкомысленно. Он отметил необходимость проведения дополнительных исследований для смягчения потенциальных "каскадных эффектов" и непредсказуемого поведения в моделях ИИ, которые могут непреднамеренно повлиять на процессы принятия решений в ядерной отрасли.
Это беспокойство также подтверждают недавние симуляции, которые продемонстрировали, что модели ИИ иногда могут действовать непредсказуемо в конфликтных сценариях.
Смотрите также Наконец мы знаем, выйдет ли GPT-5 в 2024 году
В начале 2024 года симуляции с использованием больших языковых моделей, в том числе GPT-4 и Claude 2.0, показали, что системы ИИ иногда приводят к эскалации конфликтов или развертыванию ядерных возможностей без предупреждения.