Деталі

Американські військові активізували використання інструментів штучного інтелекту після атак ХАМАС на Ізраїль 7 жовтня, йдеться у новому звіті Bloomberg. Швайлер Мур, начальниця технологічного відділу Центрального командування США, повідомила новинному агентству, що алгоритми машинного навчання допомогли Пентагону визначити цілі для більш ніж 85 повітряних ударів на Близькому Сході в цьому місяці.

Дивіться також Затриманий поліцією ірландець передавав наркотики у в'язницю за допомогою дрона

  • Американські бомбардувальники і винищувачі здійснили ці повітряні удари по семи об'єктах в Іраку та Сирії 2 лютого, повністю знищивши або принаймні пошкодивши ворожі ракети, склади для зберігання безпілотників і операційні центри.
  • Пентагон також використовував системи штучного інтелекту для виявлення пускових установок ракет в Ємені і бойовиків у Червоному морі, які потім були знищені в результаті численних повітряних ударів того ж місяця.

Алгоритми машинного навчання, що використовуються для звуження кола цілей, були розроблені Project Maven, нині вже неіснуючим партнерством Google і Пентагону. Якщо бути точним, проєкт передбачав використання технології штучного інтелекту Google американськими військовими для аналізу відеозаписів з дронів і зображень прапорів для подальшого аналізу людиною. Це викликало обурення серед співробітників Google: тисячі людей звернулися до керівництва компанії з проханням припинити співпрацю з Пентагоном, а дехто навіть звільнився через небажання брати в цьому участь. Через кілька місяців після цього протесту працівників Google вирішив не продовжувати контракт, який закінчувався у 2019 році.

Швайлер Мур розповіла агентству Bloomberg, що американські війська на Близькому Сході не припинили експерименти з використанням алгоритмів для ідентифікації потенційних цілей за допомогою безпілотників або супутникових знімків навіть після того, як Google скасував свою участь. За її словами, військові випробовували їх використання протягом останнього року під час цифрових навчань, але почали використовувати алгоритми наведення на ціль у реальних операціях після атак ХАМАС 7 жовтня. Вона також уточнила, що люди постійно перевіряли й підтверджували рекомендації систем штучного інтелекту щодо наведення на ціль. Люди також пропонували, як організувати атаки і яку зброю використовувати. "Ніколи не було такого, що алгоритм, який просто працює, робить висновок і переходить до наступного кроку. На кожному кроці, який передбачає ШІ, в кінці завжди присутня людина", – каже посадовиця.