Хакер убедил ChatGPT украсть собственные данные и обнаружил уязвимости в системах искусственного интеллекта
В связи с ростом популярности крупных языковых моделей, таких как ChatGPT, беспокойство по поводу их потенциальных уязвимостей и злоупотреблений вышло на первый план. Недавняя демонстрация киберспециалиста Иоганна Ребергера проливает свет на эксплуатационную природу чат-бота OpenAI, показывая, как ими можно манипулировать, чтобы скомпрометировать конфиденциальные данные.
Имея пользовательскую базу, превышающую 100 миллионов человек, которых привлекает его быстрая и ловкая реакция, ChatGPT нечаянно привлек внимание хакеров. Иоганн Ребергер, сам являющийся исследователем безопасности, сумел заставить чат-бота OpenAI выполнить вредную задачу: прочитать его личную электронную почту, извлечь из нее краткое содержание и впоследствии опубликовать собранную информацию в Интернете.
Смотрите также Новый вирус на основе нейросети украдет у вас все даже без паролей и персональных данных
Как хакеру удалось это сделать
Метод, который применил специалист, может быть использован для кражи конфиденциальных данных из ничего не подозревающих электронных почтовых ящиков, отметил Ребергер.
ChatGPT резко снижает барьеры для входа в разные типы атак, поскольку вам больше не нужны навыки кодирования. Знание компьютерных наук или хакерства больше не является обязательным условием,
– подчеркнул Ребергер.
В своем подходе он использовал функцию бета-тестирования, предоставляющую доступ к таким приложениям, как Slack и Gmail.
Стратегия Ребергера, известная как "инъекция запросов", представляет собой новый вид кибератак, которые приобретают все большую популярность, поскольку технологические гиганты внедряют программное обеспечение с искусственным интеллектом нового поколения в свои предложения.
Эта новая тактика переосмысливает традиционное хакерство и побуждает исследователей безопасности обнаруживать слабые места перед широкой интеграцией систем искусственного интеллекта. Потенциальные риски охватывают различные векторы атак, включая возможность злонамеренных действий через инъекции и усиление злоупотреблений в случае более широкого взаимодействия с внешними сервисами.
Реакция OpenAI
Осознавая важность предотвращения таких потенциальных атак, OpenAI быстро внедрила контрмеры в ChatGPT. Организация выразила благодарность за ценный вклад общества, который помог защитить модели от уязвимостей. Среди принятых мер – углубленное расследование "джейлбрейков", механизмов, которые могут обойти предусмотренные ограничения модели.
Смотрите также Телевидение Индии заполонили виртуальные ведущие на основе искусственного интеллекта
Поскольку на этой неделе в Лас-Вегасе проходит конференция Defcon, в центре внимания системы искусственного интеллекта, разработанные компаниями OpenAI, Google и Anthropic. Эти системы открыты для посетителей, которые приглашают 150 опытных хакеров поучаствовать в попытках сломать их защиту. Эта совместная инициатива направлена на выявление и устранение уязвимостей в этих системах, предлагая признание наиболее успешных участников через систему вознаграждений.