Ранее политика использования OpenAI прямо запрещала применение в разработке оружия и военном деле. Однако обновленная политика, вступившая в силу 10 января, ограничивает использование технологии чат-ботов деятельностью, которая "может причинить вред себе или другим", с прямым указанием на то, что инструмент не может быть использован в разработке или использовании оружия.
Читайте на сайте Китай придумал, как прокачать свой военный искусственный интеллект, чтобы победить людей на поле боя
Что запрещено, а что разрешено?
Анна Маканджа, вице-президент OpenAI по глобальным вопросам, сообщила об этом во вторник на Всемирном экономическом форуме в Давосе. Она рассказала, что OpenAI активно сотрудничает с Пентагоном над совместными инициативами, связанными с программным обеспечением кибербезопасности с открытым исходным кодом, и изучает возможности внести свой вклад в усилия, направленные на предотвращение самоубийств среди ветеранов.
Хотя политика OpenAI все еще поддерживает запрет на использование его инструментов во вредных целях или для разработки оружия, компания теперь признает потенциальные "случаи использования в интересах национальной безопасности", соответствующие его миссии.
Представитель OpenAI объяснил:
Было непонятно, были бы эти полезные случаи использования разрешены в рамках "военной" политики в нашей предыдущей политике. Поэтому целью обновления нашей политики есть обеспечение ясности и возможности вести эти дискуссии.
Смотрите также GPT Store столкнулся с наплывом виртуальных любовниц, имитирующих романтическое общение
Стоит отметить, что на решение OpenAI могут повлиять сотрудники, которые могут сформировать подход компании к военным проектам.
Прежние случаи, такие как сопротивление технических работников Google, Amazon и Microsoft участия в военных проектах ИИ, продемонстрировали потенциальное влияние взглядов сотрудников.
В 2018 году сотрудники Google успешно заставили компанию расторгнуть контракт на разработку технологии компьютерного зрения для нанесения ударов беспилотниками.