Художники можуть захиститися від генеративного ШІ "отруюючи" свої роботи

25 жовтня 2023, 10:45
Читать новость на русском

Джерело:

MIT Technology Review

Нещодавно представлений інструмент Nightshade дає художникам можливість захистити свої роботи від несанкціонованого використання генеративними моделями ШІ. Nightshade дозволяє художникам тонко налаштовувати пікселі у своїх роботах, перш ніж ділитися ними в Інтернеті.

Як це працює

Непомітні зміни, так би мовити, "отруюють" роботу хибними даними, що може порушити процес навчання АІ-моделі, якщо вони будуть інтегровані в набори даних.

Читайте на сайті Про що люди розмовляють зі штучним інтелектом: дослідники підсумували мільйон діалогів

Метою проєкту є боротьба з поширеною практикою використання компаніями творів художників без їхнього дозволу для навчання своїх ШІ-моделей. "Отруюючи" навчальні дані за допомогою інструмента Nightshade, художники потенційно можуть спричинити нестабільну поведінку ШІ-моделей, таких як DALL-E, Midjourney та Stable Diffusion.

Nightshade використовує вразливості безпеки в моделях штучного інтелекту, які навчаються на даних, зібраних в Інтернеті. Отруєні дані можуть призвести до хибних інтерпретацій, наприклад, коли капелюхи перетворюються на торти, а сумочки – на тостери.

Важливо! Це новаторське дослідження, опубліковане ексклюзивно в MIT Technology Review і наразі очікує експертної оцінки на конференції з комп'ютерної безпеки Usenix. Фактично воно може змінити правила гри в битві між художниками і технологічними гігантами.

Крадіжки стали проблемою для художників та компаній

ШІ-компанії, в тому числі OpenAI, Meta, Google і Stability AI, зіткнулися з хвилею судових позовів від художників, які стверджують, що їхні роботи були використані несанкціоновано. Бен Чжао, професор Чиказького університету, очолив команду розробників Nightshade, сподіваючись змінити баланс сил між художниками та AI-компаніями.

Інструмент буде інтегрований з іншим аналогічним інструментом, Glaze, який дозволяє художникам захистити свій унікальний стиль від компаній, що займаються штучним інтелектом. Nightshade поширюватиметься з відкритим вихідним кодом, що сприятиме ширшому використанню і, своєю чергою, збільшить його потенціал.

Попри побоювання щодо зловживань, для значного впливу на великі моделі знадобляться тисячі отруєних зразків, враховуючи, що вони зазвичай навчаються на мільярдах зразків даних.

Дивіться також Дослідники виявили дуже тривожну деталь у розмовах із чатботами

Розробка отримала схвальні відгуки від експертів з безпеки ШІ-моделей, таких як Віталій Шматіков з Корнельського університету, який закликає розробляти засоби захисту від таких атак.

Цей новий інструмент може змінити статус-кво у боротьбі за права митців. Художники сподіваються, що він спонукатиме ШІ-компанії поважати їхню творчість і виплачувати їм справедливу компенсацію. Nightshade зможе дати митцям впевненість у тому, що вони можуть ділитися своїми роботами онлайн, захищаючи їх від несанкціонованої експлуатації.