Как отмечает The Washington Post, генерал-лейтенант Ричард Г. Мур младший, являющийся заместителем начальника штаба ВВС США по планам и программам, выступал на прошлой неделе на мероприятии, организованном консервативным аналитическим центром Hudson Institute в Вашингтоне, когда начал делать весьма спорные замечания об усилиях Пентагона в области ИИ. В этот момент участники обсуждали вопрос о том, как Пентагон относится к ядерной войне.

Смотрите также Украина достигла значительного прогресса в разработке дронов, соединенных с искусственным интеллектом

Святой искусственный интеллект

Генерал говорит, что подход американских военных к искусственному интеллекту является более этичным, чем подход противников, поскольку это "иудео-христианское общество".

Независимо от ваших убеждений, наше общество является иудео-христианским обществом, и у нас есть моральный компас. Не у всех он есть. Есть общества, которые имеют совсем другой фундамент, чем наше,
– сказал Ричард Мур толпе.

Не указывая на конкретные страны или отдельные группы, он отметил, что Министерство обороны обсуждает этику ИИ на самом высоком уровне, но "есть те, кто готов идти к цели, несмотря на то, какие средства придется применить", и добавил, что будущее оружия с искусственным интеллектом будет зависеть от того, "кто играет по правилам ведения войны, а кто нет".

Эти слова вызвали бурную реакцию впоследствии:

  • "Что ж, это успокаивает. Никакие военные действия, мотивированные христианскими ценностями, никогда не заканчивались плохо", – иронизирует телесценарист Джон Роджерс в своем твите, намекая, вероятно, на Крестовые походы.
  • "Западные/христианские основы ИИ являются частью ХУДШИХ ПРОБЛЕМ, которые он воплощает", – написал исследователь ИИ Демьен Уильямс.

Позже в комментарии The Washington Post Мур написал, что, хотя этика ИИ не является исключительной прерогативой Соединенных Штатов, их оппоненты вряд ли будут действовать на основе тех же ценностей.

Основой моих комментариев было объяснение того, что ВВС не собираются разрешать ИИ действовать [самостоятельно], равно как и мы не собираемся действовать на основе информации, предоставленной ИИ, если не можем гарантировать, что эта информация соответствует нашим ценностям. И хотя это не уникальная позиция для нашего общества, мы не ожидаем, что она будет такой же у потенциального противника,
– объяснил свои слова генерал.

Стоит отметить, что в США очень активно обсуждаются этичность действий искусственного интеллекта. В частности, как военные, так и ученые и обычные граждане спорят о целесообразности предоставлять искусственному интеллекту право самостоятельного решения в случае опасных ситуаций при столкновениях с врагом. Многие боятся, что ИИ выйдет из-под контроля и может начать убивать гражданских или свои же войска, вместо враждебных.