Укр Рус
18 березня, 20:00
12

Коли ШІ можуть вимкнути: як Україна готується до найгіршого сценарію та яка стратегія в Мінцифри

Штучний інтелект перестав бути лише історією про інновації, продуктивність і нові цифрові сервіси. Для держав він дедалі більше стає питанням суверенітету та залежить від того, хто контролює моделі, де розміщуються дані, хто визначає правила доступу до інфраструктури та що станеться, якщо постачальник або уряд іншої країни в один момент змінить умови гри. 

Це яскраво демонструє історія конфлікту компанії Anthropic з Пентагоном, коли через відмову послабити запобіжники для використання ШІ в автономній зброї та масовому стеженні адміністрація Трампа і Міноборони США фактично відрізали компанію від частини державних і оборонних контрактів, присвоївши їй статус supply-chain risk. Anthropic у відповідь подала позови до суду.

Для України ця дискусія має прикладне значення. Країна, яка одночасно веде війну, цифровізує державу і шукає технологічну перевагу в обороні, не може дозволити собі критичну залежність від зовнішніх рішень. У таких умовах доступ до передових ШІ-моделей, хмарної інфраструктури та міжнародних платформ стає частиною національної стійкості – не менш важливою, ніж доступ до енергетики, зв’язку чи озброєння.

У розмові з Chief AI Officer Мінцифри Данилом Цьвоком 24 Канал зʼясував, як держава збирається захищати себе в новій реальності, де штучний інтелект уже став не тільки ринковим продуктом, а й інструментом великої політики.

Останні події у США показали, наскільки крихким може бути цей доступ навіть для найбільших гравців ринку. У березні 2026 року Anthropic подала позови проти адміністрації Дональда Трампа після того, як Пентагон присвоїв компанії статус supply-chain risk. Конфлікт виник на тлі суперечки щодо обмежень на використання моделей штучного інтелекту для військових задач, а сама компанія заявила, що стала мішенню через небажання послаблювати свої запобіжники.

Дивіться також Вперше у світі: Україна тренуватиме ШІ-моделі для дронів на реальних даних з фронту 

Важливо! У цьому конфлікті під автономною зброєю мається на увазі не просто дрони чи системи з елементами автоматизації, а про сценарій, де ШІ фактично виводить людину з процесу ухвалення рішення та самостійно обирає та вражає цілі. 


Даріо Асмодеї / Фото TechCrunch

  • Anthropic опублікувала два звернення (спочатку звернення CEO компанії Даріо Асмодеї про дискусії з Пентагоном, потім – щодо заяв міністра) та публічно пояснювала, що не заперечує проти частково автономних систем, подібних до тих, які вже застосовуються у війні в Україні, але вважає, що сучасні frontier-моделі ще недостатньо надійні, щоб безпечно використовувати їх як основу для цілком автономних озброєнь.
  • Reuters також писала, що саме відмова послабити ці запобіжники стала одним із головних тригерів конфлікту з Пентагоном, який наполягав на праві використовувати ШІ для "будь-якого законного застосування".

Щодо масового стеження, то Anthropic провела межу не проти всієї розвідки чи безпекового використання AI, але саме проти масового внутрішнього спостереження за громадянами США. 

Компанія стверджує, що потужні моделі здатні автоматично зводити воєдино великі масиви, на перший погляд, невинних даних – пересування, історію переглядів, зв’язки, цифрові сліди – і перетворювати їх на майже повний профіль життя людини в масштабі, який раніше був технічно недосяжний. 

Саме тому вона називає таке застосування несумісним із демократичними цінностями та фундаментальними правами. Reuters зазначала, що Anthropic розглядала вимоги зняти ці обмеження як примус відмовитися від заперечень проти domestic surveillance, але компанія подала це як один із двох принципових винятків, через які й зірвалися переговори з Пентагоном. 

До теми Чи замінить штучний інтелект білі комірці в Україні: що каже бізнес та яку має стратегію

Ця історія важлива не лише як американський політичний сюжет. Вона показала, що навіть розробник frontier-моделей, який уже працював з оборонним сектором, може опинитися під фактичним блокуванням через зміну політичного курсу, умов контракту чи бачення допустимого застосування ШІ у військовій сфері. Reuters також повідомляла, що Пентагон запустив поетапну відмову від Anthropic у своїх ланцюгах постачання, хоча для окремих критично важливих напрямів залишив можливість винятків.

Паралельно змінюється і сам баланс сил на американському ринку оборонного ШІ. OpenAI на початку березня публічно уточнила умови своєї співпраці з американським оборонним відомством, окресливши власні червоні лінії, а вже 17 березня Reuters повідомила про новий контракт на постачання моделей для урядових і оборонних структур США через AWS. Це означає, що боротьба йде не лише за технології, а й за право визначати стандарти допустимого використання штучного інтелекту в секторі безпеки.

На цьому тлі Європа рухається іншим шляхом – через поступове впровадження AI Act, де акцент робиться на правилах для моделей загального призначення, вимогах до безпеки, прозорості та контролю за high-risk-системами. Для України, яка інтегрується в західні ринки та одночасно покладається на партнерство зі США, це створює подвійний виклик: не випасти з глобального технологічного обміну, але й не залишитися заручником чужих регуляторних або політичних рішень.

24 Канал зʼясував у Данила Цьвока, Chief AI Officer Мінцифри, як у відомстві оцінюють ризики для національної цифрової безпеки та доступу України до передових ШІ-технологій у разі поширення практики присвоєння статусу supply-chain risk міжнародними партнерами, та чи має Мінцифри стратегію координації зі США та ЄС щодо регулювання та міжнародної співпраці у сфері ШІ. 

 

Данило Цьвок

Chief AI Officer Мінцифри

Ми працюємо над AI-суверенітетом, щоб державні сервіси не залежали від зовнішньої політики чи рішень приватних компаній. Для цього створюємо національну мовну модель та власну інфраструктуру AI Factory. Це дозволить критичним системам, зокрема оборонним, працювати автономно за будь-яких умов. Ми нарощуємо співпрацю з міжнародними компаніями, бо це нова експертиза й технології, але робимо ставку на власні потужності, щоб українські продукти були захищені від раптових блокувань.

Важливо визначити й те, які кроки Україна в особі Мінцифри пропонує для гарантій прозорих правил гри в разі співпраці держави з великими комерційними ШІ-компаніями (умови контрактів, аудит, захист від односторонніх відключень).


Данило Цьвок / Фото Мінцифри

 

Данило Цьвок

Chief AI Officer Мінцифри

У нас гібридний підхід: ми використовуємо іноземні технології, але запускаємо їх на серверах під контролем держави. Це дозволяє зберігати темп інновацій, залишаючись незалежними від зовнішніх стейкхолдерів. Щоб уникнути ризику вимкнення сервісу з боку постачальника (вендор-локу), ми будуємо архітектуру так, щоб одну ШІ-технологію можна було швидко замінити іншою. Всі сервіси мають залишатися під контролем держави.

Звичайно, важливо працювати й над національною системою сертифікації або аудитів ШІ-моделей, які використовують держоргани й критична інфраструктура. Мовиться про заходи, які треба передбачити для захисту українських даних і забезпечення data sovereignty в разі використання іноземних хмарних/ШІ-сервісів у державному секторі.

 

Данило Цьвок

Chief AI Officer Мінцифри

Головний критерій безпеки — комерційні ШІ-моделі не мають доступу до персональних даних. Цей принцип уже реалізовано в Дія.AI: модель Gemini працює лише з анонімізованою інформацією, що не впливає на якість, але захищає приватність. Кожен продукт, розроблений Мінцифрою, проходить стрес-тести (red та blue teaming) на виявлення вразливостей. Це унікальний досвід розробки державного AI-продукту, тож плануємо ділитися ним з іншими державними командами.

Також Мінцифри має Стратегію ШІ – це треба, щоб зберегти конкурентоспроможність і не втратити таланти через міжнародні політичні шоки. Мовиться й про підтримку не лише держсектору, а й талантів, стартапів та освітян.


Данило Цьвок / Фото Мінцифри

 

Данило Цьвок

Chief AI Officer Мінцифри

Мінцифра розробляє Стратегію розвитку ШІ до 2030 року. Це чіткий план розвитку всієї екосистеми: від бізнесу до науки. У топпроєктах (стратегія, LLM, інфраструктура тощо) ми створюємо цінність для всього ринку, не лише для держсектору. Наприклад, ми створюємо національну LLM, яка буде доступна науковим, освітнім установам, а згодом і бізнесу.

Оскільки під час війни бюджетні кошти пріоритетно йдуть на оборону, ми залучаємо українських та міжнародних партнерів і створюємо можливості для росту талантів. Через хакатони (наприклад, перший державний хакатон Diia.AIContest) команди отримують гранти від компаній, доступ до нової експертизи та можливість впроваджувати свої рішення на рівні країни.

Читайте також На полі бою, у школах та в Дії: як ШІ працюватиме для України у 2026 – прогнози та підсумки Мінцифри

Мінцифри визнає реальний ризик для цифрової безпеки та доступу до передових ШІ-технологій у разі поширення практики оголошення постачальників supply-chain risk, тож робить ставку на кілька напрямів:

  • поєднання міжнародної співпраці з прагматичною автономією;
  • створення національної LLM, власної інфраструктури AI Factory та запуск гібридної архітектури, де іноземні рішення працюють під контролем держави;
  • збереження темпу інновацій і одночасно мінімізація вразливості до раптових блокувань або вендор-локу. 

Водночас Мінцифри наголошує на потребі прозорих контрактів, систем сертифікації та незалежних аудитів ШІ-моделей, жорстких правил щодо доступу комерційних моделей до персональних даних (прикладом є практика в Дія.AI) та регулярних стрес-тестів – усе це має підсилити довіру та забезпечити data sovereignty. 

Стратегія до 2030 року і підтримка екосистеми (хакатони, гранти, партнерства) покликані не лише захистити державні сервіси та критичну інфраструктуру під час війни, а й зберегти компетенції й таланти в Україні, зменшуючи ризики залежності від зовнішніх політичних рішень.