Искусственный интеллект перестал быть только историей об инновациях, производительности и новых цифровых сервисах. Для государств он все больше становится вопросом суверенитета и зависит то того, кто контролирует модели, где размещаются данные, кто определяет правила доступа к инфраструктуре и что произойдет, если поставщик или правительство другой страны в один момент изменит условия игры.
Это ярко демонстрирует история конфликта компании Anthropic с Пентагоном, когда из-за отказа ослабить предохранители для использования ИИ в автономном оружии и массовой слежке администрация Трампа и Минобороны США фактически отрезали компанию от части государственных и оборонных контрактов, присвоив ей статус supply-chain risk. Anthropic в ответ подала иски в суд.
Для Украины эта дискуссия имеет прикладное значение. Страна, которая одновременно ведет войну, цифровизирует государство и ищет технологическое преимущество в обороне, не может позволить себе критическую зависимость от внешних решений. В таких условиях доступ к передовым ИИ-моделям, облачной инфраструктуре и международным платформам становится частью национальной устойчивости – не менее важной, чем доступ к энергетике, связи или вооружению.
В разговоре с Chief AI Officer Минцифры Даниилом Цьвоком 24 Канал выяснил, как государство собирается защищать себя в новой реальности, где искусственный интеллект уже стал не только рыночным продуктом, но и инструментом большой политики.
Как компании ИИ Anthropic и Open AI выступили против Пентагона?
Последние события в США показали, насколько хрупким может быть этот доступ даже для крупнейших игроков рынка. В марте 2026 года Anthropic подала иски против администрации Дональда Трампа после того, как Пентагон присвоил компании статус supply-chain risk. Конфликт возник на фоне спора об ограничениях на использование моделей искусственного интеллекта для военных задач, а сама компания заявила, что стала мишенью из-за нежелания ослаблять свои предохранители.
Смотрите также Впервые в мире: Украина будет тренировать ИИ-модели для дронов на реальных данных с фронта
Важно! В этом конфликте под автономным оружием имеются в виду не просто дроны или системы с элементами автоматизации, но и сценарии, где ИИ фактически выводит человека из процесса принятия решения и самостоятельно выбирает и поражает цели.
Дарио Асмодеи / Фото TechCrunch
- Anthropic опубликовала два обращения (сначала обращение CEO компании Дарио Асмодеи о дискуссиях с Пентагоном, затем – относительно заявлений министра) и публично объясняла, что не возражает против частично автономных систем, подобных тем, которые уже применяются в войне в Украине, но считает, что современные frontier-модели еще недостаточно надежны, чтобы безопасно использовать их как основу для вполне автономных вооружений.
- Reuters также писало, что именно отказ ослабить эти предохранители стал одним из ключевых триггеров конфликта с Пентагоном, который настаивал на праве использовать ИИ для "любого законного применения".
Что касается массовой слежки, то Anthropic провела границу не против всей разведки или безопасного использования AI, но именно против массового внутреннего наблюдения за гражданами США.
Компания утверждает, что мощные модели способны автоматически сводить воедино большие массивы, на первый взгляд, невинных данных – передвижение, историю просмотров, связи, цифровые следы – и превращать их в почти полный профиль жизни человека в масштабе, который ранее был технически недостижимым.
Именно поэтому она называет такое применение несовместимым с демократическими ценностями и фундаментальными правами. Reuters отмечало, что Anthropic рассматривала требования снять эти ограничения как принуждение отказаться от возражений против domestic surveillance, но компания подала это как одно из двух принципиальных исключений, из-за которых и сорвались переговоры с Пентагоном.
Эта история важна не только как американский политический сюжет. Она показала, что даже разработчик frontier-моделей, который уже работал с оборонным сектором, может оказаться под фактическим блокированием из-за изменения политического курса, условий контракта или видения допустимого применения ИИ в военной сфере. Reuters также сообщал, что Пентагон запустил поэтапный отказ от Anthropic в своих цепочках поставок, хотя для отдельных критически важных направлений оставил возможность исключений.
Параллельно меняется и сам баланс сил на американском рынке оборонного ИИ. OpenAI в начале марта публично уточнила условия своего сотрудничества с американским оборонным ведомством, очертив собственные "красные линии", а уже 17 марта Reuters сообщило о новом контракте на поставку моделей для правительственных и оборонных структур США через AWS. Это означает, что борьба идет не только за технологии, но и за право определять стандарты допустимого использования искусственного интеллекта в секторе безопасности.
На этом фоне Европа движется другим путем – через постепенное внедрение AI Act, где акцент делается на правилах для моделей общего назначения, требованиях к безопасности, прозрачности и контролю за high-risk-системами. Для Украины, которая интегрируется в западные рынки и одновременно полагается на партнерство с США, это создает двойной вызов: не выпасть из глобального технологического обмена, но и не остаться заложником чужих регуляторных или политических решений.
Как реагирует и защищается Украина от неожиданностей в сфере ИИ?
24 Канал выяснил у Даниила Цьвока, Chief AI Officer Минцифры, как в ведомстве оценивают риски для национальной цифровой безопасности и доступа Украины к передовым ИИ-технологиям в случае распространения практики присвоения статуса supply-chain risk международными партнерами, и имеет ли Минцифры стратегию координации с США и ЕС по регулированию и международному сотрудничеству в сфере ИИ.
Мы работаем над AI-суверенитетом, чтобы государственные сервисы не зависели от внешней политики или решений частных компаний. Для этого создаем национальную языковую модель и собственную инфраструктуру AI Factory. Это позволит критическим системам, в частности оборонным, работать автономно при любых условиях. Мы наращиваем сотрудничество с международными компаниями, потому что это новая экспертиза и технологии, но делаем ставку на собственные мощности, чтобы украинские продукты были защищены от внезапных блокировок.
Важно определить и то, какие шаги Украина в лице Минцифры предлагает для гарантий прозрачных правил игры при сотрудничестве государства с крупными коммерческими ИИ-компаниями (условия контрактов, аудит, защита от односторонних отключений).
Даниил Цьвок / Фото Минцифры
У нас гибридный подход: мы используем иностранные технологии, но запускаем их на серверах под контролем государства. Это позволяет сохранять темп инноваций, оставаясь независимыми от внешних стейкхолдеров. Чтобы избежать риска отключения сервиса со стороны поставщика (вендор-лока), мы строим архитектуру так, чтобы одну ИИ-технологию можно было быстро заменить другой. Все сервисы должны оставаться под контролем государства.
Конечно, важно работать и над национальной системой сертификации или аудитов ИИ-моделей, которые используют госорганы и критическая инфраструктура. Речь идет о мерах, которые надо предусмотреть для защиты украинских данных и обеспечения data sovereignty при использовании иностранных облачных/ИИ-сервисов в государственном секторе.
Главный критерий безопасности - коммерческие ИИ-модели не имеют доступа к персональным данным. Этот принцип уже реализован в Дия.AI: модель Gemini работает только с анонимизированной информацией, что не влияет на качество, но защищает приватность. Каждый продукт, разработанный Минцифрой, проходит стресс-тесты (red и blue teaming) на выявление уязвимостей. Это уникальный опыт разработки государственного AI-продукта, поэтому планируем делиться им с другими государственными командами.
Для чего Украине нужна стратегия по искусственному интеллекту?
Также Минцифры имеет Стратегию ИИ – это надо, чтобы сохранить конкурентоспособность и не потерять таланты из-за международных политических шоков. Говорится и о поддержке не только госсектора, но и талантах, стартапах и педагогах.
Даниил Цьвок / Фото Минцифры
Минцифра разрабатывает Стратегию развития ИИ до 2030 года. Это четкий план развития всей экосистемы: от бизнеса до науки. В топ-проектах (стратегия, LLM, инфраструктура и т.д.) мы создаем ценность для всего рынка, не только для госсектора. Например, мы создаем национальную LLM, которая будет доступна научным, образовательным учреждениям, а впоследствии и бизнесу.
Поскольку во время войны бюджетные средства приоритетно идут на оборону, мы привлекаем украинских и международных партнеров и создаем возможности для роста талантов. Через хакатоны (например, первый государственный хакатон Diia.AIContest) команды получают гранты от компаний, доступ к новой экспертизе и возможность внедрять свои решения на уровне страны.
Читайте также На поле боя, в школах и в Действии: как ИИ будет работать для Украины в 2026 – прогнозы и итоги Минцифры
Минцифры признает реальный риск для цифровой безопасности и доступа к передовым ИИ-технологиям в случае распространения практики объявления поставщиков supply-chain risk, поэтому делает ставку на несколько направлений:
- сочетание международного сотрудничества с прагматичной автономией;
- создание национальной LLM, собственной инфраструктуры AI Factory и запуск гибридной архитектуры, где иностранные решения работают под контролем государства;
- сохранение темпа инноваций и одновременно минимизировать уязвимость к внезапным блокировкам или вендор-лока.
В то же время Минцифры подчеркивает необходимость прозрачных контрактов, систем сертификации и независимых аудитов ИИ-моделей, жестких правил доступа коммерческих моделей к персональным данным (примером является практика в Дия.AI) и регулярных стресс-тестов – все это должно усилить доверие и обеспечить data sovereignty.
Стратегия до 2030 года и поддержка экосистемы (хакатоны, гранты, партнерства) призваны не только защитить государственные сервисы и критическую инфраструктуру во время войны, но и сохранить компетенции и таланты в Украине, уменьшая риски зависимости от внешних политических решений.






