Розвиток штучного інтелекту не міг не зачепити військову сферу. Якщо окремі елементи на кшталт "машинного зору", які використовуються в Україні на полі бою", не викликають занепокоєння фахівців, то залученість великих мовних моделей до армії – питання дискусій. Особливо, якщо це робить Китай із моделлю, створеною американською Meta.

Суперечки точаться й навколо використання ШІ американською армією, зокрема в Африці, де права людини (а особливо – у контексті штучного інтелекту) є важким питанням.

24 Канал зібрав інформацію про те, як армії Китаю та США збираються використовувати штучний інтелект та чим це загрожує.

У листопаді агентство Reuters повідомило про те, що у Китаї створили інструмент штучного інтелекту для потенційного військового застосування. Про це мовиться у трьох наукових статтях провідних китайських дослідницьких установ, пов'язаних з Народно-визвольною армією (НВАК).

Шість науковців з трьох інститутів Китаю, з яких два підпорядковані армії, детально описали використання ранньої версії великої мовної моделі Llama 13B від американської корпорації Meta для створення ChatBIT. Це інструмент для для збору та обробки розвідданих, а також допомоги китайським військовим в оперативному прийнятті рішень.

До теми Небезпечні друзі: як чатботи ШІ впливають на підлітків і чому можуть доводити до трагедій

Зверніть увагу! ChatBIT – це чатбот, налаштований та оптимізований для діалогів та завдань із відповідями на запитання у військовій сфері. Після вдосконалення ChatBIT планують застосовувати для стратегічного планування, симуляції та прийняття командних рішень.

Китайські дослідники стверджують, що він перевершує інші моделі штучного інтелекту та досягає рівня потужного ChatGPT-4 від OpenAI. Однак це неможливо об'єктивно підтвердити.

Це перший випадок, коли є вагомі докази того, що військові експерти НВАК систематично досліджували та намагалися використовувати потужність великої мовної моделі з відкритим кодом, особливо Meta, для військових цілей,
– наводить агентство слова Санні Ченг, наукового співробітника Джеймстаунського фонду, оборонного мозкового центру у Вашингтоні.

Meta має певні умови для моделей ШІ з відкритим кодом:

  • сервіси з понад 700 мільйонами користувачів мають отримувати ліцензію від компанії;
  • заборонено використовувати моделі для військових цілей, ядерної галузі чи ядерного застосування, шпигунства та іншої діяльності, яка підпадає під експортний контроль США, а також для розробки зброї та контенту, призначеного для розпалювання ворожнечі та сприяння насильству.

У відповідь на запит Reuters у Meta згадали про їхні правила використання ШІ та заявили, що вжили заходів для запобігання зловживанням.

Будь-яке використання наших моделей Народно-визвольною армією є несанкціонованим і суперечить нашій політиці прийнятного використання,
– зазначила виданню Моллі Монтгомері, директорка з громадської політики Meta.

У техногіганті додали, що Китай уже інвестував понад трильйон доларів, щоб обігнати США у питанні штучного інтелекту.

Також у статтях китайських дослідників йдеться про те, що китайська модель містить лише 100 000 записів військових діалогів, що є відносно невеликою кількістю в порівнянні з іншими мовними моделями. За словами Джоель Піно, віцепрезидентки з дослідження ШІ в Meta, це "крапля в морі" порівняно з більшістю інших моделей, які навчені трильйонами токенів.

Роботи Китаю щодо ШІ в армії відбуваються на тлі гарячих дебатів у США – чи мають такі компанії як Meta оприлюднювати код своїх моделей ШІ. Президент США Джо Байден у жовтні 2023 року підписав указ про управління розробками штучного інтелекту, зазначивши, що, попри те, що інновації можуть принести суттєві переваги, існують також значні ризики безпеці.

Днями у Вашингтоні заявили про завершення розробки політики щодо обмеження американських інвестицій у штучний інтелект та інші технологічні сектори Китаю, які можуть загрожувати національній безпеці США.

Україна теж використовує штучний інтелект на війні, але це більше про дрони з машинним зором, а не великі мовні моделі. Українські безпілотники зі штучним інтелектом у березні здійснили атаку на Нижньокамський нафтопереробний завод у Татарстані за 1100 кілометрів від кордону, цей завод є одним із найбільших у Росії.

Штучний інтелект допомагає дронам орієнтуватися під час польоту, уникати перешкод і глушіння сигналів. Кожен дрон обладнаний комп'ютером із супутниковими даними та інформацією про рельєф місцевості. Заздалегідь сплановані маршрути дозволяють вражати цілі з точністю до метра.

До теми Чи змінять війну дрони зі штучним інтелектом: що про них кажуть в Україні та світі

Невдовзі після вибухового зростання популярності чатботів зі ШІ ще один техногігант штучного інтелекту, американська OpenAI, заборонила його використання у розробці зброї та військових діях. Однак на початку 2024 року компанія без анонсів видалила заборону на використання ChatGPT для військових справ і війни.

У нових правилах зберігається заборона на використання сервісів компанії для завдання шкоди "собі та іншим" і наводиться як приклад "розробка або використання зброї". Водночас загальна заборона на "військове та бойове" використання зникла. В OpenAI вважають, що так правила стануть більш чіткими та читабельнішими.

Ми прагнули створити набір універсальних принципів, які легко запам'ятати та застосувати, особливо тому, що наші інструменти зараз використовуються в усьому світі звичайними користувачами, які тепер також можуть створювати GPT. Такий принцип, як "не шкоди іншим", є широким, але легко зрозумілим і актуальним у багатьох контекстах. Крім того, ми конкретно навели зброю та поранення інших як яскраві приклади,
– сказав представник OpenAI Ніко Фелікс в електронному листі виданню The Intercept.

Однак Фелікс не уточнив, що є розпливчаста заборона "шкоди" саме забороною військового використання ШІ. Також речник послався на спільну роботу з DARPA, Агентством передових оборонних дослідницьких проєктів США, у цілях кібербезпеки.

Ще не минуло року від ліквідації заборони OpenAI на військове використання, ці технології вже привабили американську армію. Документ про закупівлю, отриманий виданням The Intercept, показує, що Африканське командування США (AFRICOM) вважає доступ до технології OpenAI необхідним для його місії.

У документі від 30 вересня пояснюється, чому AFRICOM купує послуги хмарних обчислень безпосередньо у Microsoft у рамках контракту на суму 9 мільярдів доларів США, а не шукає іншого постачальника на відкритому ринку. Мовиться про "вирішальну роль" цих технологій у досягненні цілей місії, включно із місією щодо підтримки африканських партнерів США та спільних навчань USAFRICOM.

Документ із позначкою "контрольована несекретна інформація" позначено як FEDCON, що вказує на те, що він не призначений для розповсюдження за межами уряду чи підрядників. Це свідчить про те, що запит AFRICOM був схвалений Агентством оборонних інформаційних систем.

Хоча вартість покупки відредагована, в документі про затвердження зазначено, що її вартість становить менше 15 мільйонів доларів.

Цей документ відображає бажання AFRICOM обійти бюрократичну тяганину та швидко отримати у розпорядженні хмарні служби Microsoft Azure, включаючи програмне забезпечення OpenAI, мовиться у матеріалі.

Читайте також Мільйони літрів води й сотні мегаватів електрики: як Маск, ШІ та техногіганти знищують довкілля

У червні 2023 року Microsoft почала продавати велику мовну модель OpenAI GPT-4 замовникам у сфері оборони. У квітні цьогоріч Microsoft запропонувала Пентагону використовувати DALL-E, інструмент генерації зображень OpenAI, для програмного забезпечення для управління. Але документ AFRICOM відзначає першу підтверджену покупку продуктів OpenAI бойовим командуванням США, тобто безпосередньо для використання на полі бою.

Водночас корпоративною місією OpenAI попри всі зміни у правилах залишається "забезпечення того, щоб загальний штучний інтелект приносив користь всьому людству".

"Без доступу до інтегрованого набору інструментів і служб штучного інтелекту Microsoft USAFRICOM зіткнеться зі значними труднощами в аналізі та отриманні корисної інформації з величезних обсягів даних… Це може призвести до затримок у прийнятті рішень, погіршення обізнаності про ситуацію та зниження оперативності у реагуванні на динамічні та мінливі загрози на африканському континенті", йдеться у документі.

В OpenAI ж заявили The Intercept, що OpenAI не співпрацює з Африканським командуванням США і переадресували запит до Microsoft. У Microsoft та в AFRICOM не відповіли на запити медіа.

Хоча документ AFRICOM містить небагато деталей про те, як саме командування може використовувати інструменти OpenAI, сама ситуація з участю AFRICOM у державних переворотах, вбивствах цивільних тощо виглядає несумісною з підходом OpenAI до ШІ та нацбезпеки, в якому йдеться про права людини та демократичні цінності.

Цікаво, що торік очільник AFRICOM генерал Майкл Ленглі заявив комітету Палати представників у справах збройних сил, що командування поділяє "основні цінності" з полковником Мамаді Думбуя, практикантом AFRICOM, який скинув уряд Гвінеї та оголосив себе його лідером у 2021 році.


Генерал Ленглі у розташуванні AFRICOM у Сомалі / Фото USAFRICOM

Сама специфіка військової справи – це відсутність можливості дотримуватися прав людини, коли йдеться безпосередньо про вбивства людей. І цей факт робить неможливим використання декларованих цінностей ШІ-компаній у війську.

Лишається усього кілька варіантів: відкрито не визнавати роботу ШІ в армії, як це роблять зараз OpenAI та Microsoft, використовувати лише окремі технології, як на полі бою в Україні, або ж відмовитися від "демократичних" правил загалом. Але така відмова може ще більше розв'язати руки технологічним авторитарним режимам на кшталт Китаю.