Деталі документа
У 20-сторінковому документі, оприлюдненому в неділю, країни погодилися, що компанії, які розробляють і використовують ШІ, повинні розробляти та впроваджувати його таким чином, щоб убезпечити клієнтів і широку громадськість від зловживань. Вона є дуже базовою, більше схожою на викладення загальних принципів, ніж на план, але з огляду на наявні виклики, вона принаймні є розумною відправною точкою. Американські чиновники назвали цей документ першою детальною міжнародною угодою про те, як захистити штучний інтелект від зловмисників, зобов'язуючи дослідницькі компанії цілеспрямовано шукати вразливі місця в системі безпеки.
Дивіться також Мала модель штучного інтелекту Microsoft виявилася розумнішою та ефективнішою, ніж великі
Наразі ми бачили не так уже й багато застосувань ШІ, від базових найпростіших завдань до складних відповідей. Але сфер застосування нейромереж безліч – нам ще належить з'ясувати й вигадати багато з них. Чим більше параметрів має модель, тим кращою вона стає, а оскільки ШІ стає нативною функцією в телефонах з 2024 року, це питання є дуже важливим.
Це перший раз, коли ми бачимо підтвердження того, що ці можливості не повинні зводитися лише до крутих функцій і того, як швидко ми можемо вивести їх на ринок, або як ми можемо конкурувати за зниження витрат,
– каже Джен Істерлі, директорка CISA, додаючи, що керівні принципи являють собою "угоду про те, що найважливіше, що потрібно зробити на етапі проєктування, — це безпека".
Угоду серед інших підписали:
- Німеччина,
- Італія,
- Чехія,
- Естонія,
- Польща,
- Австралія,
- Чилі,
- Ізраїль,
- Нігерія,
- Сінгапур.
Тим часом, щоб ШІ не став загрозою, Європа почне працювати над спеціальними законами, які регулюватимуть розробку та випуск нових систем штучного інтелекту. Це означає, що всі компанії, які реалізують свої системи в ЄС, повинні будуть переконатися, що в них немає вразливостей, які дозволяють користувачам зловживати технологією.
Створювати закони, покликані забезпечити безпеку нових систем штучного інтелекту, неймовірно складно. Сама природа систем штучного інтелекту, які розвивають свої власні можливості, а не запрограмовані робити чи не робити певні речі, означає, що навіть інженери, які працюють над проєктом, можуть не повністю усвідомлювати, чого може досягти їхня модель ШІ, доки він не буде завершений. Тож створення норм і правил, які застосовуються до поточної моделі ШІ, може виявитися недостатнім через кілька років, коли ця ж модель навчиться більше.