Пентагон хоче покращити ядерну зброю за допомогою штучного інтелекту
На тлі зростаючих глобальних загроз Пентагон розглядає можливість використання штучного інтелекту для вдосконалення своїх систем ядерного командування та управління. Разом з тим відомство обіцяє, що люди збережуть за собою право ухвалювати рішення.
Ще у жовтні командувач Стратегічного командування Збройних сил США генерал Ентоні Коттон розповів про потенційну роль штучного інтелекту в модернізації американських систем ядерного командування, управління та зв'язку (NC3), повідомляє 24 Канал з посиланням на TechSpot.
Вам буде цікаво Як Китай створює бойовий штучний інтелект, чим відповідає армія США та чи є ШІ в ЗСУ
Він окреслив бачення того, як ШІ може оптимізувати обробку даних і підтримку прийняття рішень, але наголосив, що ШІ ніколи не замінить людей, які приймають рішення в ядерних операціях.
США разом з такими союзниками, як Великобританія та Франція, впевнені, що люди повинні зберегти остаточний контроль над ядерною зброєю.
Під час конференції Міністерства оборони 2024 року, присвяченій інформаційній системі розвідки, Коттон зазначив, що досягнення ШІ можуть допомогти військовим лідерам, забезпечуючи "простір для прийняття рішень" і швидшу та ефективнішу обробку даних, особливо в умовах зростання загроз і обсягів даних.
Кріс Адамс з Відділу стратегічних космічних систем компанії Northrop Grumman підтримав думку Коттона, зазначивши, що ШІ може підвищити швидкість і точність аналізу й презентацію даних з сотень систем NC3.
Це все ще може бути небезпечно
Хоча ШІ може впорядкувати процеси, на думку Коттона ризики не слід сприймати легковажно. Він наголосив на необхідності проведення додаткових досліджень для пом'якшення потенційних "каскадних ефектів" і непередбачуваної поведінки в моделях ШІ, які можуть ненавмисно вплинути на процеси прийняття рішень в ядерній галузі.
Це занепокоєння також підтверджують нещодавні симуляції, які продемонстрували, що моделі ШІ іноді можуть діяти непередбачувано в конфліктних сценаріях.
Дивіться також Нарешті ми знаємо, чи вийде GPT-5 у 2024 році
На початку 2024 року симуляції з використанням великих мовних моделей, в тому числі GPT-4 і Claude 2.0, показали, що системи ШІ іноді приводять до ескалації конфліктів або розгортання ядерних можливостей без попередження.