Хакер переконав ChatGPT викрасти власні дані і виявив вразливості в системах штучного інтелекту
У зв'язку зі зростанням популярності великих мовних моделей, таких як ChatGPT, занепокоєння щодо їхніх потенційних вразливостей і зловживань вийшло на перший план. Нещодавня демонстрація кіберфахівця Йоганна Ребергера проливає світло на експлуатаційну природу чат-бота OpenAI, показуючи, як ними можна маніпулювати, щоб скомпрометувати конфіденційні дані.
Маючи базу користувачів, що перевищує 100 мільйонів осіб, яких приваблює його швидка та вправна реакція, ChatGPT ненавмисно привернув увагу хакерів. Йоганн Ребергер, який сам є дослідником безпеки, зумів змусити чат-бота OpenAI виконати шкідливе завдання: прочитати його особисту електронну пошту, витягти з неї короткий зміст і згодом опублікувати зібрану інформацію в Інтернеті.
Дивіться також Новий вірус на основі нейромережі вкраде у вас все навіть без паролів і персональних даних
Як хакеру вдалося це зробити
Метод, який застосував фахівець, може бути використаний для крадіжки конфіденційних даних з електронних поштових скриньок, які нічого не підозрюють, зазначив Ребергер.
ChatGPT різко знижує бар'єри для входу в різні типи атак, оскільки вам більше не потрібні навички кодування. Знання комп'ютерних наук або хакерства більше не є обов'язковою умовою,
– наголосив Ребергер.
У своєму підході він використовував функцію бета-тестування, що надає доступ до таких додатків, як Slack і Gmail.
Стратегія Ребергера, відома як "ін'єкція запитів", являє собою новий вид кібератак, які набувають все більшої популярності, оскільки технологічні гіганти впроваджують програмне забезпечення зі штучним інтелектом нового покоління у свої пропозиції.
Ця нова тактика переосмислює традиційне хакерство і спонукає дослідників безпеки виявляти слабкі місця перед широкою інтеграцією систем штучного інтелекту. Потенційні ризики охоплюють різні вектори атак, включаючи можливість зловмисних дій через ін'єкції та посилення зловживань у разі ширшої взаємодії із зовнішніми сервісами.
Реакція OpenAI
Усвідомлюючи важливість запобігання таким потенційним атакам, OpenAI швидко впровадила контрзаходи в ChatGPT. Організація висловила подяку за цінний внесок спільноти, який допоміг захистити моделі від вразливостей. Серед вжитих заходів – поглиблене розслідування "джейлбрейків", механізмів, які потенційно можуть обійти передбачені обмеження моделі.
Дивіться також Телебачення Індії заполонили віртуальні ведучі на основі штучного інтелекту
Оскільки цього тижня в Лас-Вегасі проходить конференція Defcon, в центрі уваги – системи штучного інтелекту, розроблені компаніями OpenAI, Google і Anthropic. Ці системи відкриті для відвідувачів, які запрошують 150 досвідчених хакерів взяти участь у спробах зламати їхній захист. Ця спільна ініціатива спрямована на виявлення та усунення вразливостей у цих системах, пропонуючи визнання найбільш успішних учасників через систему винагород.