Повідомляє 24 Канал з посиланням на MakeUseOf. У виданні виділили п'ять типів даних, якими не варто ділитися зі ШІ з міркувань безпеки.

Дивіться також У США "звільнили" двох ШІ-репортерів: чим вони налякали глядачів

Чат-боти, такі як ChatGPT і Google Gemini, отримали широку популярність завдяки здатності створювати відповіді, схожі на ті, які дає людина. Однак їх робота на основі великих мовних моделей (LLM) пов’язане з потенційними загрозами для конфіденційності та безпеки. Саме тому передача особистої інформації під час взаємодії може призвести до її розголошення чи неправильного використання.

Чат-боти навчаються на великих масивах даних, що включають взаємодії користувачів. Хоча компанії, такі як OpenAI, пропонують можливість відмовитися від збору даних, забезпечення абсолютної конфіденційності є складним завданням.

Дані користувачів, які зберігаються на серверах, стають привабливою ціллю для хакерів. Це може призвести до їх викрадення або неправомірного використання.

Крім того, дані, отримані під час роботи з чат-ботами, можуть бути передані стороннім компаніям або доступні співробітникам організацій, що підвищує ризик витоків.

Швидке впровадження таких технологій викликає побоювання щодо зростання ризиків конфіденційності та безпеки.

Щоб убезпечити свої дані під час використання ChatGPT чи інших ШІ-чат-ботів, слід усвідомлювати ці ризики. Попри те, що деякі компанії, зокрема OpenAI, пропонують інструменти для контролю й прозорості, складнощі передачі даних і вразливості систем потребують підвищеної пильності.

ChatGPT на телефоні

Використання ChatGPT несе певні ризики для безпеки / Фото Unsplash

  • Фінансова інформація

ШІ-чат-боти стали популярними помічниками для отримання фінансових порад та управління особистим бюджетом. Проте передача фінансових даних чат-боту може становити значну небезпеку.

Запити, пов'язані з фінансами, можуть відкрити доступ до вашої конфіденційної інформації хакерам, які можуть використати її для отримання доступу до рахунків.

Попри заяви компаній про анонімність, ваші дані можуть бути доступні стороннім організаціям або працівникам компаній. Зловмисники можуть також використовувати такі дані для фішингових атак, маскуючи себе під банки.

Для власної безпеки не ділитися деталями про свої фінанси з ШІ-чатами та звертайтеся до них лише з загальними запитаннями.

ШІ програми

ШІ-чат-боти / Фото Unspalsh

  • Особисті та потаємні думки

Деякі користувачі звертаються до ШІ як до віртуального терапевта, не замислюючись про ризики.

Чат-боти не мають справжніх знань і можуть запропонувати лише загальні відповіді. Це може призвести до невідповідних рекомендацій щодо лікування, що завдасть лише шкоди.

Також розкриття особистих думок і секретів загрожує конфіденційності, оскільки ці дані можуть бути опубліковані в інтернеті або використані для навчання ШІ. Це створює ризик шантажу або їх продажу у даркнеті.

Зверніть увагу! ШІ-чат-боти корисні для пошуку загальної інформації, але не є заміною професійної терапії. Для безпечної та конфіденційної допомоги звертайтеся до кваліфікованих фахівців.

  • Конфіденційна інформація про роботу

Поширеною помилкою є передача чат-ботам конфіденційних робочих даних.

Відомо, що такі компанії, як Apple, Samsung і Google, обмежили використання ШІ на робочих місцях після інцидентів витоку. Наприклад, співробітники Samsung випадково завантажили до ChatGPT чутливий код, що призвело до витоку інформації та введення заборони на використання ШІ.

Крім того, співробітники часто використовують чат-боти для автоматизації завдань або створення коротких звітів, що може призвести до розкриття даних. Щоб захистити конфіденційну інформацію, уникайте передачі робочих даних. Так ви зможете знизити ризик витоків та кібератак.

ChatGPT

Не розповідайте чат-ботам конфіденційні робочі дані / Фото Unspalsh

  • Паролі

Категорично заборонено передавати паролі ШІ-чат-ботам. Дані, введені на таких платформах, зберігаються на серверах, що робить їх вразливими до атак. Зокрема, витік даних ChatGPT у 2022 році викликав серйозні занепокоєння щодо безпеки.

Для безпеки облікових даних, не діліться паролями з чат-ботами. Користуйтеся спеціалізованими менеджерами паролів або безпечними ІТ-протоколами вашої компанії.

  • Персональні дані про місце проживання

Інформація, що дозволяє вас ідентифікувати, наприклад адреса проживання, номер соціального страхування чи дата народження, також не повинна передаватися чат-ботам.

Наприклад, повідомлення домашньої адреси чат-боту для отримання інформації про найближчі сервіси може ненароком створити потенційні ризики. У разі перехоплення чи витоку цих даних їх можуть використати для викрадення вашої особистої інформації або відстеження вашого місцеперебування в реальному житті.

Окрім того, надмірна відкритість на платформах, інтегрованих з ШІ, як-от Snapchat, може призвести до ненавмисного розголошення більшої кількості персональних даних, ніж ви планували.

ChatGPT

Не розкривайте ШІ персональні дані / Фото Unsplash

Як подбати про безпеку даних під час спілкування із ШІ-чат-ботом:

  • ознайомтеся з політиками конфіденційності чат-ботів, щоб зрозуміти можливі ризики;
  • не ставте запитання, які можуть випадково розкрити вашу особисту інформацію;
  • уникайте передачі медичних даних ШІ-ботам;
  • будьте уважні, використовуючи ШІ на соціальних платформах, таких як Snapchat.

Важливо також пам'ятати, що ШІ-чат-боти є ефективними інструментами для виконання різноманітних завдань, але водночас вони несуть потенційні загрози для конфіденційності. Захистити свої дані при взаємодії з такими платформами, як ChatGPT, Copilot чи Claude, можна без особливих зусиль.

Перш ніж ділитися інформацією, задумайтеся, до яких наслідків може призвести її потрапляння у відкритий доступ. Це допоможе легко визначити, яку інформацію можна обговорювати, а яку краще залишити при собі.

Електроніка

Убезпечте персональну інформацію / Фото Unsplash