ChatGPT може зливати секретні корпоративні дані:спеціалісти з кібербезпеки б'ють на сполох

19 квітня 2023, 11:22
Читать новость на русском

Джерело:

Bloomberg

Ізраїльська компанія Team8, що спеціалізується на кібербезпеці, попередила, що інструменти штучного інтелекту (ШІ), такі як чат-бот ChatGPT, можуть поставити під загрозу конфіденційну інформацію клієнтів і комерційну таємницю. Компанія заявляє, що широке впровадження чат-ботів та інструментів на основі штучного інтелекту може зробити компанії вразливими до витоку даних та судових позовів.

Занепокоєння викликає те, що чат-боти можуть бути використані хакерами для отримання доступу до конфіденційної корпоративної інформації або вчинення дій проти компанії, а конфіденційна інформація, що надходить до чат-ботів зараз, може бути використана компаніями, що займаються ШІ, в майбутньому.

До теми Секрети Samsung опинилися в мережі через ChatGPT

Неочікувана небезпека

Великі технологічні компанії, такі як Microsoft і Alphabet, поспішають додати можливості генеративного ШІ для вдосконалення пошукових систем, але це може призвести до використання конфіденційних або приватних даних для навчання.

ChatGPT нещодавно стався збій, який призвів до того, що запити користувачів почали демонструватися іншим користувачам. У звіті Team8 відзначаються три інші проблеми "високого ризику", пов'язані з інтеграцією інструментів генеративного ШІ, і наголошується на зростаючій загрозі обміну інформацією через сторонні застосунки, такі як Bing і інструменти Microsoft 365.

Звіт був схвалений Майклом Роджерсом, колишнім головою Агентства національної безпеки США та Кіберкомандування США, а його співавторами стали десятки керівників служб інформаційної безпеки американських компаній. Представник Microsoft заявив, що "Microsoft заохочує прозоре обговорення еволюції кіберризиків у спільнотах, що займаються питаннями безпеки та штучного інтелекту".

Цікаво OpenAI запускає багбаунті для ChatGPT: пропонують до 20 тисяч доларів за виявлені вразливості

Компаніям важливо оцінювати потенційні ризики, пов'язані з використанням сторонніх інструментів на основі генеративного ШІ, таких як ChatGPT. Хоча ці інструменти можуть надавати такі переваги, як поліпшення обслуговування клієнтів, вони також можуть зробити компанії вразливими до витоку даних і судових позовів.

Сьогодні компанії змушені активніше вживати заходів для захисту своїх даних. Важливо переконатися, що конфіденційна інформація не передається через сторонні застосунки. Оскільки використання генеративного ШІ продовжує зростати, важливо визначити пріоритетність заходів кібербезпеки для захисту конфіденційних даних.