Ранее политика использования OpenAI прямо запрещала применение в разработке оружия и военном деле. Однако обновленная политика, вступившая в силу 10 января, ограничивает использование технологии чат-ботов деятельностью, которая "может причинить вред себе или другим", с прямым указанием на то, что инструмент не может быть использован в разработке или использовании оружия.

Читайте на сайте Китай придумал, как прокачать свой военный искусственный интеллект, чтобы победить людей на поле боя

Что запрещено, а что разрешено?

Анна Маканджа, вице-президент OpenAI по глобальным вопросам, сообщила об этом во вторник на Всемирном экономическом форуме в Давосе. Она рассказала, что OpenAI активно сотрудничает с Пентагоном над совместными инициативами, связанными с программным обеспечением кибербезопасности с открытым исходным кодом, и изучает возможности внести свой вклад в усилия, направленные на предотвращение самоубийств среди ветеранов.

Хотя политика OpenAI все еще поддерживает запрет на использование его инструментов во вредных целях или для разработки оружия, компания теперь признает потенциальные "случаи использования в интересах национальной безопасности", соответствующие его миссии.

Представитель OpenAI объяснил:

Было непонятно, были бы эти полезные случаи использования разрешены в рамках "военной" политики в нашей предыдущей политике. Поэтому целью обновления нашей политики есть обеспечение ясности и возможности вести эти дискуссии.

Смотрите также GPT Store столкнулся с наплывом виртуальных любовниц, имитирующих романтическое общение

Стоит отметить, что на решение OpenAI могут повлиять сотрудники, которые могут сформировать подход компании к военным проектам.

Прежние случаи, такие как сопротивление технических работников Google, Amazon и Microsoft участия в военных проектах ИИ, продемонстрировали потенциальное влияние взглядов сотрудников.

В 2018 году сотрудники Google успешно заставили компанию расторгнуть контракт на разработку технологии компьютерного зрения для нанесения ударов беспилотниками.