Развитие искусственного интеллекта не могло не затронуть военную сферу. Если отдельные элементы вроде "машинного зрения", которые используются в Украине на поле боя", не вызывают беспокойства специалистов, то вовлеченность больших языковых моделей в армию – вопрос дискуссий. Особенно, если это делает Китай с моделью, созданной американской Meta.
Споры идут и вокруг использования ИИ американской армией, в частности в Африке, где права человека (а особенно – в контексте искусственного интеллекта) является трудным вопросом.
24 Канал собрал информацию о том, как армии Китая и США собираются использовать искусственный интеллект и чем это грозит.
Как Китай создал военный ИИ на базе Meta
В ноябре агентство Reuters сообщило о том, что в Китае создали инструмент искусственного интеллекта для потенциального военного применения. Об этом говорится в трех научных статьях ведущих китайских исследовательских учреждений, связанных с Народно-освободительной армией (НОАК).
Шесть ученых из трех институтов Китая, из которых два подчинены армии, подробно описали использование ранней версии большой языковой модели Llama 13B от американской корпорации Meta для создания ChatBIT. Это инструмент для для сбора и обработки разведданных, а также помощи китайским военным в оперативном принятии решений.
К теме Опасные друзья: как чатботы ИИ влияют на подростков и почему могут доводить до трагедий
Обратите внимание! ChatBIT – это чатбот, настроенный и оптимизированный для диалогов и задач с ответами на вопросы в военной сфере. После совершенствования ChatBIT планируют применять для стратегического планирования, симуляции и принятия командных решений.
Китайские исследователи утверждают, что он превосходит другие модели искусственного интеллекта и достигает уровня мощного ChatGPT-4 от OpenAI. Однако это невозможно объективно подтвердить.
Это первый случай, когда есть веские доказательства того, что военные эксперты НОАК систематически исследовали и пытались использовать мощность большой языковой модели с открытым кодом, особенно Meta, для военных целей,
– приводит агентство слова Санни Ченг, научного сотрудника Джеймстаунского фонда, оборонного мозгового центра в Вашингтоне.
Meta имеет определенные условия для моделей ИИ с открытым кодом:
- сервисы с более 700 миллионами пользователей должны получать лицензию от компании;
- запрещено использовать модели для военных целей, ядерной отрасли или ядерного применения, шпионажа и другой деятельности, которая подпадает под экспортный контроль США, а также для разработки оружия и контента, предназначенного для разжигания вражды и содействия насилию.
В ответ на запрос Reuters в Meta упомянули об их правилах использования ИИ и заявили, что приняли меры для предотвращения злоупотреблений.
Любое использование наших моделей Народно-освободительной армией является несанкционированным и противоречит нашей политике приемлемого использования,
– отметила изданию Молли Монтгомери, директор по общественной политике Meta.
В техногиганте утверждали, что Китай уже инвестировал более триллиона долларов, чтобы обогнать США в вопросе искусственного интеллекта.
Также в статьях китайских исследователей говорится о том, что китайская модель содержит лишь 100 000 записей военных диалогов, что является относительно небольшим количеством по сравнению с другими языковыми моделями. По словам Джоэль Пино, вице-президента по исследованию ИИ в Meta, это "капля в море" по сравнению с большинством других моделей, которые обучены триллионами токенов.
Работы Китая по ИИ в армии происходит на фоне горячих дебатов в США – должны ли такие компании как Meta обнародовать код своих моделей ИИ. Президент США Джо Байден в октябре 2023 года подписал указ об управлении разработками искусственного интеллекта, отметив, что, несмотря на то, что инновации могут принести существенные преимущества, существуют также значительные риски безопасности.
На днях в Вашингтоне заявили о завершении разработки политики по ограничению американских инвестиций в искусственный интеллект и другие технологические сектора Китая, которые могут угрожать национальной безопасности США.
Что в украинской армии с ИИ
Украина тоже использует искусственный интеллект на войне, но это больше о дронах с машинным зрением, а не большие языковые модели. Украинские беспилотники с искусственным интеллектом в марте совершили атаку на Нижнекамский нефтеперерабатывающий завод в Татарстане в 1100 километрах от границы, этот завод является одним из крупнейших в России.Искусственный интеллект помогает дронам ориентироваться во время полета, избегать препятствий и глушения сигналов. Каждый дрон оборудован компьютером со спутниковыми данными и информацией о рельефе местности. Заранее спланированные маршруты позволяют поражать цели с точностью до метра.
К теме Изменят ли войну дроны с искусственным интеллектом: что о них говорят в Украине и мире
Как OpenAI тихо избавилась от запрета на военное использование ее разработок
Вскоре после взрывного роста популярности чатботов с ИИ еще один техногигант искусственного интеллекта, американская OpenAI, запретила его использование в разработке оружия и военных действиях. Однако в начале 2024 года компания без анонсов удалила запрет на использование ChatGPT для военных дел и войны.
В новых правилах сохраняется запрет на использование сервисов компании для нанесения вреда "себе и другим" и приводится в качестве примера "разработка или использование оружия". В то же время общий запрет на "военное и боевое" использование исчез. В OpenAI считают, что так правила станут более четкими и читабельными.
Мы стремились создать набор универсальных принципов, которые легко запомнить и применить, особенно потому, что наши инструменты сейчас используются во всем мире обычными пользователями, которые теперь также могут создавать GPT. Такой принцип, как "не навреди другим", является широким, но легко понятным и актуальным во многих контекстах. Кроме того, мы конкретно привели оружие и ранения других как яркие примеры,
– сказал представитель OpenAI Нико Феликс в электронном письме изданию The Intercept.
Однако Феликс не уточнил, что является расплывчатый запрет "вреда" именно запретом военного использования ИИ. Также представитель сослался на совместную работу с DARPA, Агентством передовых оборонных исследовательских проектов США, в целях кибербезопасности.
Как армия США заинтересовалась искусственным интеллектом
Еще не прошло года с ликвидации запрета OpenAI на военное использование, эти технологии уже привлекли американскую армию. Документ о закупке, полученный изданием The Intercept, показывает, что Африканское командование США (AFRICOM) считает доступ к технологии OpenAI необходимым для его миссии.
У документе от 30 сентября объясняется, почему AFRICOM покупает услуги облачных вычислений непосредственно у Microsoft в рамках контракта на сумму 9 миллиардов долларов США, а не ищет другого поставщика на открытом рынке. Говорится о "решающей роли" этих технологий в достижении целей миссии, включая миссию по поддержке африканских партнеров США и совместных учений USAFRICOM.
Документ с пометкой "контролируемая несекретная информация" обозначен как FEDCON, что указывает на то, что он не предназначен для распространения за пределами правительства или подрядчиков. Это свидетельствует о том, что запрос AFRICOM был одобрен Агентством оборонных информационных систем.
Хотя стоимость покупки отредактирована, в документе об утверждении указано, что ее стоимость составляет менее 15 миллионов долларов.
Этот документ отражает желание AFRICOM обойти бюрократическую волокиту и быстро получить в распоряжение облачные службы Microsoft Azure, включая программное обеспечение OpenAI, говорится в материале.
Читайте также Миллионы литров воды и сотни мегаватт электричества: как Маск, ИИ и техногиганты уничтожают окружающую среду
В июне 2023 года Microsoft начала продавать большую языковую модель OpenAI GPT-4 заказчикам в сфере обороны. В апреле этого года Microsoft предложила Пентагону использовать DALL-E, инструмент генерации изображений OpenAI, для программного обеспечения для управления и управления. Но документ AFRICOM отмечает первую подтвержденную покупку продуктов OpenAI боевым командованием США, то есть непосредственно для использования на поле боя.
В то же время корпоративной миссией OpenAI несмотря на все изменения в правилах остается "обеспечение того, чтобы общий искусственный интеллект приносил пользу всему человечеству".
Для чего ИИ нужен американской армии в Африке и в чем опасность
"Без доступа к интегрированному набору инструментов и служб искусственного интеллекта Microsoft USAFRICOM столкнется со значительными трудностями в анализе и получении полезной информации из огромных объемов данных... Это может привести к задержкам в принятии решений, ухудшению осведомленности о ситуации и снижению оперативности в реагировании на динамичные и меняющиеся угрозы на африканском континенте", говорится в документе.
В OpenAI же заявили The Intercept, что OpenAI не сотрудничает с Африканским командованием США и переадресовали запрос в Microsoft. В Microsoft и в AFRICOM не ответили на запросы медиа.
Хотя документ AFRICOM содержит немного деталей о том, как именно командование может использовать инструменты OpenAI, сама ситуация с участием AFRICOM в государственных переворотах, убийствах гражданских и т.д. выглядит несовместимой с подходом OpenAI к ИИ и нацбезопасности, в котором говорится о правах человека и демократических ценностях.
Интересно, что в прошлом году глава AFRICOM генерал Майкл Лэнгли заявил комитету Палаты представителей по делам вооруженных сил, что командование разделяет "основные ценности" с полковником Мамади Думбуя, практикантом AFRICOM, который сбросил правительство Гвинеи и объявил себя его лидером в 2021 году.
Генерал Лэнгли в расположении AFRICOM в Сомали / Фото USAFRICOM
Сама специфика военного дела – это отсутствие возможности соблюдать права человека, когда речь идет непосредственно об убийствах людей. И этот факт делает невозможным использование декларируемых ценностей ИИ-компаний в армии.
Остается всего несколько вариантов: открыто не признавать работу ИИ в армии, как это делают сейчас OpenAI и Microsoft, использовать только отдельные технологии, как на поле боя в Украине, или отказаться от "демократических" правил в целом. Но такой отказ может еще больше развязать руки технологическим авторитарным режимам вроде Китая.