Політика OpenAI більше не забороняє використання ChatGPT у військових цілях

15 січня 2024, 12:01
Читать новость на русском

Джерело:

The Intercept

Ще кілька днів тому на сторінці політики використання OpenAI було чітко зазначено, що компанія забороняє використовувати свою технологію для військових цілей. 10 січня цей рядок був видалений.

Компанія, як і раніше, забороняє використовувати її мовну модель для будь-чого, що може завдати шкоди, а також застерігає людей від використання своїх сервісів для "розробки або використання зброї".

Дивіться також OpenAI нарешті запустила GPT Store – магазин користувацьких чат-ботів

Деталі

Хоча ми ще не бачили впливу цих змін на реальне життя, ця зміна формулювань з'явилась у той самий час, коли військові відомства по всьому світу виявляють інтерес до використання ШІ. Пряма згадка про військову сферу в списку заборонених застосувань вказувала на те, що OpenAI не буде працювати з державними установами, такими як Міністерства оборони тих чи інших країн, які зазвичай пропонують вигідні контракти підрядникам.

На цей момент компанія не має продукту, який міг би безпосередньо вбити, завдати фізичної шкоди або спеціалізуватися на веденні бойових дій. Але, як зазначає The Intercept, її технологія може бути використана для таких завдань, як написання коду відповідних програм та обробка замовлень на закупівлю речей, які можуть бути використані для вбивства людей.

Відповідаючи на запитання про зміну формулювання політики, представник OpenAI Ніко Фелікс обмежився загальною заявою, сказавши що компанія "прагнула створити набір універсальних принципів, які легко запам'ятати й застосувати, особливо з огляду на те, що ці інструменти тепер використовуються в усьому світі звичайними користувачами, які тепер також можуть створювати GPT".

У заяві для видання Engadget представник OpenAI сказав: "Наша політика не дозволяє використовувати наші інструменти для заподіяння шкоди людям, розробки зброї, спостереження за комунікаціями, нанесення тілесних ушкоджень іншим людям або знищення майна. Однак існують випадки використання в інтересах національної безпеки, які відповідають нашій місії. Наприклад, ми вже працюємо з DARPA над створенням нових інструментів кібербезпеки для захисту програмного забезпечення з відкритим кодом, від якого залежить критична інфраструктура та промисловість. Було незрозуміло, чи ці корисні випадки дозволені в рамках "військового" використання в нашій попередній політиці. Тому мета нашого оновлення політики полягає в тому, щоб забезпечити ясність і можливість вести ці дискусії".