Онлайн Редакция Вакансии Контакты Игры Гороскоп
19 марта, 10:27
4

Как Украина готовится к отключению ИИ в оборонке: в Минцифре раскрыли план действий

Основні тези
  • Украина развивает национальную языковую модель и AI Factory для обеспечения автономности государственных сервисов от внешней политики и решений частных компаний.
  • Минцифра готовит Стратегию развития ИИ до 2030 года, которая охватит госсектор, бизнес, науку и образование, чтобы сохранить конкурентоспособность страны.

В США возник конфликт между Пентагоном и Anthropic из-за военного использования ИИ. В украинской Минцифре признают, что в мире, где доступ к моделям, инфраструктуре и данным может зависеть от политического решения, Украине нужно строить собственные предохранители от внешних ограничений.

Украина уже работает над моделью искусственного интеллекта, которая позволит государственным сервисам и критическим системам сохранять автономность даже в случае изменения правил игры со стороны крупных международных поставщиков ИИ. Об этом в комментарии 24 Канала рассказал Chief AI Officer Минцифры Даниил Цьвок.

Смотрите также Когда ИИ могут выключить: как Украина готовится к худшему сценарию и какая стратегия у Минцифры

Как реагирует Минцифра на угрозу блокировки ИИ?

Цьвок отметил, что Минцифра делает ставку на ИИ-суверенитет и собственную инфраструктуру. В ведомстве параллельно развивают национальную языковую модель и AI Factory, чтобы ключевые сервисы, в частности оборонного назначения, могли работать без зависимости от внешней политики или решений частных компаний.

В то же время Украина не отказывается от международной кооперации, но пытается строить ее так, чтобы не оказаться в ситуации внезапного блокирования.

Мы работаем над AI-суверенитетом, чтобы государственные сервисы не зависели от внешней политики или решений частных компаний. Для этого создаем национальную языковую модель и собственную инфраструктуру AI Factory,
– отметил Цьвок.

По его словам, это позволит критическим системам работать автономно, а украинским продуктам – быть защищенными от внезапных ограничений со стороны вендоров.

Что еще известно об ИИ в Украине?

В Минцифре также объясняют, что в работе с иностранными ИИ-технологиями выбирают гибридную модель: технологии могут быть внешними, но должны запускаться на серверах под контролем государства. Это, по словам Цьвока, позволяет сохранять темп инноваций, не теряя независимости от внешних стейкхолдеров и минимизируя риск вендор-лока, когда одна технология становится критически незаменимой.

Отдельно в ведомстве отмечают необходимость национальной системы сертификации и аудитов ИИ-моделей, которые используют госорганы и объекты критической инфраструктуры.

Важно! Цьвок подчеркивает, что главный критерий безопасности – отсутствие доступа коммерческих моделей к персональным данным, а примером такого подхода уже стала Дія.AI, где модель Gemma работает только с анонимизированной информацией.

В Минцифре также говорят, что каждый государственный AI-продукт проходит red teaming и blue teaming для поиска уязвимостей. По словам Цьвока, отдельный смысл в развитии собственной AI-инфраструктуры имеет и война, и кадровая конкуренция.

Обратите внимание! Минцифра готовит Стратегию развития ИИ до 2030 года, которая должна охватить не только госсектор, но и бизнес, науку, образование и стартапы. Ведомство считает, что такая стратегия поможет сохранить конкурентоспособность Украины, привлечь партнеров и не потерять таланты из-за международных политических шоков.

В Минцифре добавляют, что планируют развивать национальную LLM как общий ресурс для научных и образовательных учреждений, а впоследствии и для бизнеса. На фоне приоритета оборонных расходов во время войны ведомство полагается на партнерства, грантовые механизмы и хакатоны, чтобы подпитывать экосистему и давать командам путь от идеи до внедрения на уровне страны.

Что произошло между Пентагоном и компаниями ИИ в США?

  • В США вопрос ИИ для обороны и безопасности резко обострился после конфликта между Anthropic и Пентагономкомпания заявила, что не готова ослаблять предохранители для использования моделей в автономном оружии и массовом слежении, после чего администрация Дональда Трампа и Минобороны США присвоили ей статус supply-chain risk.
  • На этом фоне OpenAI и Anthropic фактически оказались в центре дискуссии о том, кто должен устанавливать границы допустимого использования ИИ в военной сфере: сами компании, американское государство или регуляторные правила, которые могут в любой момент изменить доступ к контрактам и инфраструктуре.

Связанные темы: