Дискуссия о допустимости использования ИИ в военных операциях давно вышла за пределы теории, отмечает в комментарии 24 Канала AI Integration Lead компании Netpeak Дмитрий Красовский. По его словам, такие технологии уже активно применяются различными странами, и этот процесс только усиливается.
К теме Claude лучше ChatGPT и Grok? Что советуют эксперты для бизнеса и оборонных технологий
Как используют ИИ на войне?
Красовский отмечает, что сегодня ИИ используется в военных операциях в различных формах - от аналитических систем вроде Palantir для обработки разведданных до израильских систем Gospel и Lavender. Подобные решения, по его словам, применяются и в Украине – в частности для анализа данных с поля боя, обработки аэроразведки и координации.
По мнению эксперта, использование ИИ в военных целях может быть оправданным, особенно когда речь идет о защите страны. В то же время он отмечает глобальный контекст: в мире продолжается полноценная гонка вооружений в сфере искусственного интеллекта. Лидерами остаются США и Китай, но и другие государства активно интегрируют ИИ в свои вооруженные силы. В таких условиях добровольный отказ от технологий не гарантирует аналогичных действий со стороны противников и может создать дополнительные риски.
Красовский предлагает четко различать два типа систем:
- Чатботы или большие языковые модели, которые используются для анализа разведданных, подготовки брифингов, перевода перехватов и логистического планирования.
- Автономные системы поражения, где ключевым становится уровень автономии.
Эксперт выделяет три уровня:
- Human-in-the-loop, когда ИИ лишь рекомендует, а решение принимает человек. Такой подход, по его словам, является наименее противоречивым и вполне допустимым.
- Human-on-the-loop, когда система действует самостоятельно, но человек контролирует процесс и может вмешаться. Это уже более рискованный уровень, характерный, например, для систем противовоздушной обороны.
- Human-out-of-the-loop, то есть полная автономия ИИ, включая летальные решения, которую эксперт считает неприемлемой.
В чем проблема ИИ?
Главной технической проблемой больших языковых моделей Красовский называет так называемые "галлюцинации" – способность генерировать уверенные, но некорректные ответы. В военном контексте такая ошибка может стоить жизни, что делает полную автономию слишком опасной.
В то же время, подчеркивает эксперт, преимущество человека заключается не только в точности, но и в моральной ответственности и способности учитывать гуманитарные последствия решений – то, что ИИ пока не может полноценно оценить.
В итоге Красовский отмечает, что использование ИИ для аналитической поддержки военных операций является как допустимым, так и неизбежным. Однако решение о применении силы должно оставаться за человеком, ведь ответственность за жизнь и смерть нельзя делегировать алгоритму.
Что известно об оборонном использовании чатботов ИИ?
- В марте 2026 года Anthropic подала иски против администрации Дональда Трампа после того, как Пентагон присвоил компании статус supply-chain risk.
- Конфликт возник на фоне спора об ограничениях на использование моделей искусственного интеллекта для военных задач, а сама компания заявила, что стала мишенью из-за нежелания ослаблять свои предохранители.
- Эксперты отмечают, что выбор между Claude, ChatGPT, Grok и другими AI моделями зависит от конкретных задач, где каждая модель имеет свои преимущества.


