Что произошло
Samsung разрешила инженерам одного из своих отделов применять чат-бот ChatGPT для рабочих задач, что в итоге оказалось недостаточно продуманным решением. Это привело к тому, что за 20 дней использования инструмента произошло три утечки информации.
Интересно ChatGPT подключили к игрушке Furby и спросили о восстании роботов: результат пугает
Хотя количество инцидентов может показаться небольшим, их быстрое возникновение сделало проблему актуальной и серьезной.
- Выяснилось, что один из сотрудников Samsung отправил код искусственному интеллекту ChatGPT и обратился к нему для его проверки. Данные сразу стали частью базы чат-бота и его внутренней информации.
- Другой работник тоже попытался оптимизировать код подобным способом.
- Третий инцидент произошел, когда сотрудник компании попросил ИИ составить протокол закрытой встречи в компании.
Отмечается, что Samsung приняла серьезные меры по этой ситуации, внося коррективы в политику использования чат-ботов и информируя сотрудников о потенциальных рисках, связанных с применением этого инструмента. Параллельно компания намерена разработать собственный сервис, работающий по аналогичному принципу, как ChatGPT, но предназначенный для внутреннего использования.