Раніше політика використання OpenAI прямо забороняла застосування у "розробці зброї" та "військовій справі". Однак оновлена політика, що набула чинності 10 січня, обмежує використання технології чат-ботів діяльністю, яка "може завдати шкоди собі або іншим", з прямою вказівкою на те, що інструмент не може бути використаний у розробці або використанні зброї.

Читайте на сайті Китай придумав, як прокачати свій воєнний штучний інтелект, щоб перемогти людей на полі бою

Що заборонено, а що дозволено?

Анна Маканджу, віце-президент OpenAI з глобальних питань, повідомила про це у вівторок на Всесвітньому економічному форумі в Давосі. Вона розповіла, що OpenAI активно співпрацює з Пентагоном над спільними ініціативами, пов'язаними з програмним забезпеченням кібербезпеки з відкритим вихідним кодом, і вивчає можливості зробити свій внесок у зусилля, спрямовані на запобігання самогубствам серед ветеранів.

Хоча політика OpenAI все ще підтримує заборону на використання її інструментів у шкідливих цілях або для розробки зброї, компанія тепер визнає потенційні "випадки використання в інтересах національної безпеки", які відповідають її місії.

Представник OpenAI пояснив:

Було незрозуміло, чи були б ці корисні випадки використання дозволені в рамках "військової" політики в нашій попередній політиці. Тому метою оновлення нашої політики є забезпечення ясності та можливості вести ці дискусії.

Дивіться також GPT Store зіткнувся з напливом віртуальних коханок, які імітують романтичне спілкування

Варто зазначити, що на рішення OpenAI можуть вплинути її співробітники, які можуть сформувати підхід компанії до військових проєктів.

Минулі випадки, такі як опір технічних працівників Google, Amazon і Microsoft участі у військових проектах ШІ, продемонстрували потенційний вплив поглядів співробітників.

У 2018 році працівники Google успішно змусили компанію розірвати контракт на розробку технології комп'ютерного зору для завдання ударів безпілотниками.