Раніше 24 Канал вже розповідав про обмеження роботи ChatGPT в Італії та зняття заборони. Однак, схоже, проблеми в OpenAI та регулюючих органів лише починаються і це стосується не лише ChatGPT, а й інших інструментів на базі штучного інтелекту.
Читайте на сайті Кращий за ChatGPT: Microsoft Bing отримав нові функції і став доступним для усіх користувачів
Проблема з ChatGPT – це лише верхівка айсберга, оскільки регулятори кількох країн розслідують методи збору та виробництва даних за допомогою інструментів штучного інтелекту. Занепокоєння варіюється від збору неліцензійних даних про навчання до чат-ботів, які поширюють дезінформацію, що спонукає законодавців до дій.
Загальний регламент захисту даних Європейського Союзу (GDPR), одна з найсильніших у світі правових систем захисту приватності, застосовується до систем штучного інтелекту, таких як ChatGPT, що веде до нової ери регулювання.
Що не так з ChatGPT
ChatGPT, популярний приклад генеративного ШІ, який створює текст на основі підказок користувача, опинився під пильною увагою через свою ненадійну роботу, заплутані питання авторських прав і нечіткі практики захисту даних. Італія була першою країною, яка заборонила ChatGPT, і виділила кілька способів, якими OpenAI порушував правила GDPR. З того часу щонайменше три країни ЄС і Канада почали свої розслідування щодо ChatGPT.
Занепокоєння регуляторів можна умовно розділити на дві категорії:
- Навчальні дані ChatGPT.
- Як OpenAI надає інформацію своїм користувачам.
ChatGPT використовує мовні моделі GPT-3.5 і GPT-4 від OpenAI, навчені на величезній кількості текстів, створених людиною. OpenAI не розкриває точних даних, які використовуються для навчання, але каже, що використовує "різноманітні ліцензовані, створені та загальнодоступні джерела даних, які можуть включати загальнодоступну особисту інформацію". Це створює проблеми відповідно до GDPR, який вимагає від компаній отримувати явну згоду перед збором персональних даних і бути прозорими щодо того, як вони використовуються і зберігаються.
Крім того, "право на забуття", передбачене GDPR, дозволяє користувачам вимагати від компаній повного видалення їхніх персональних даних. Хоча OpenAI оновив свою політику конфіденційності, щоб полегшити такі запити, точаться суперечки про те, чи можливо технічно їх задовольнити, зважаючи на складнощі, пов'язані з цим.
OpenAI також збирає інформацію безпосередньо від користувачів, включаючи їхню взаємодію з ChatGPT, яка може бути переглянута співробітниками OpenAI і використана для навчання майбутніх моделей. Коли бот виступає в ролі терапевта або лікаря, OpenAI збирає конфіденційні дані від користувачів, що викликає занепокоєння щодо конфіденційності та захисту даних.
Цікаво ChatGPT руйнує інтернет: дослідники шоковані сайтами, які наповнює нейромережа
Насамкінець, регуляторні проблеми OpenAI з ChatGPT – це лише початок, і компанія, ймовірно, зіткнеться з більшою кількістю проблем у майбутньому. Оскільки технологія штучного інтелекту розвивається і стає все більш поширеною, законодавцям і регуляторам доведеться йти в ногу з мінливим ландшафтом, щоб забезпечити захист конфіденційності даних користувачів і запобігти поширенню дезінформації. OpenAI та інші компанії повинні бути більш прозорими у своїх практиках збору та обробки даних, щоб уникнути регуляторних перевірок і забезпечити свій довгостроковий успіх.