Не рассказывайте этого ChatGPT: топ-5 опасных тем для разговора с нейросетью
Чат-боты на базе искусственного интеллекта, такие как ChatGPT, стали неотъемлемой частью настоящего. Впрочем, важно помнить, что есть информация, которой не следует делиться с ИИ для обеспечения безопасности.
Сообщает 24 Канал со ссылкой на MakeUseOf. В издании выделили пять типов данных, которыми не стоит делиться с ИИ из соображений безопасности.
Смотрите также В США "уволили" двух ИИ-репортеров: чем они напугали зрителей
Какие есть риски при использовании чат-ботов на основе ИИ
Чат-боты, такие как ChatGPT и Google Gemini, получили широкую популярность благодаря способности создавать ответы, похожие на те, которые дает человек. Однако их работа на основе больших языковых моделей (LLM) связана с потенциальными угрозами для конфиденциальности и безопасности. Именно поэтому передача личной информации во время взаимодействия может привести к ее разглашению или неправильному использованию.
Чат-боты учатся на больших массивах данных, включающих взаимодействия пользователей. Хотя компании, такие как OpenAI, предлагают возможность отказаться от сбора данных, обеспечение абсолютной конфиденциальности является сложной задачей.
Данные пользователей, которые хранятся на серверах, становятся привлекательной целью для хакеров. Это может привести к их похищению или неправомерному использованию.
Кроме того, данные, полученные во время работы с чат-ботами, могут быть переданы сторонним компаниям или доступны сотрудникам организаций, что повышает риск утечек.
Быстрое внедрение таких технологий вызывает опасения относительно роста рисков конфиденциальности и безопасности.
Чтобы обезопасить свои данные при использовании ChatGPT или других ИИ-чат-ботов, следует осознавать эти риски. Несмотря на то, что некоторые компании, в частности OpenAI, предлагают инструменты для контроля и прозрачности, сложности передачи данных и уязвимости систем требуют повышенной бдительности.
Использование ChatGPT несет определенные риски для безопасности / Фото Unsplash
5 типов данных, которыми не стоит делиться с ИИ-чат-ботами
- Финансовая информация
ИИ-чат-боты стали популярными помощниками для получения финансовых советов и управления личным бюджетом. Однако передача финансовых данных чат-боту может представлять значительную опасность.
Запросы, связанные с финансами, могут открыть доступ к вашей конфиденциальной информации хакерам, которые могут использовать ее для получения доступа к счетам.
Несмотря на заявления компаний об анонимности, ваши данные могут быть доступны сторонним организациям или работникам компаний. Злоумышленники могут также использовать такие данные для фишинговых атак, маскируя себя под банки.
Для собственной безопасности не делиться деталями о своих финансах с ИИ-чатами и обращайтесь к ним только с общими вопросами.
ИИ-чат-боты / Фото Unspalsh
- Личные и сокровенные мысли
Некоторые пользователи обращаются к ИИ как к виртуальному терапевту, не задумываясь о рисках.
Чат-боты не имеют настоящих знаний и могут предложить только общие ответы. Это может привести к неподходящим рекомендациям по лечению, что нанесет только вред.
Также раскрытие личных мыслей и секретов угрожает конфиденциальности, поскольку эти данные могут быть опубликованы в интернете или использованы для обучения ИИ. Это создает риск шантажа или их продажи в даркнете.
Обратите внимание! ИИ-чат-боты полезны для поиска общей информации, но не являются заменой профессиональной терапии. Для безопасной и конфиденциальной помощи обращайтесь к квалифицированным специалистам.
- Конфиденциальная информация о работе
Распространенной ошибкой является передача чат-ботам конфиденциальных рабочих данных.
Известно, что такие компании, как Apple, Samsung и Google, ограничили использование ИИ на рабочих местах после инцидентов утечки. Например, сотрудники Samsung случайно загрузили в ChatGPT чувствительный код, что привело к утечке информации и введению запрета на использование ИИ.
Кроме того, сотрудники часто используют чат-боты для автоматизации задач или создания коротких отчетов, что может привести к раскрытию данных. Чтобы защитить конфиденциальную информацию, избегайте передачи рабочих данных. Так вы сможете снизить риск утечек и кибератак.
Не рассказывайте чат-ботам конфиденциальные рабочие данные / Фото Unspalsh
- Пароли
Категорически запрещено передавать пароли ИИ-чат-ботам. Данные, введенные на таких платформах, хранятся на серверах, что делает их уязвимыми к атакам. В частности, утечка данных ChatGPT в 2022 году вызвала серьезные опасения относительно безопасности.
Для безопасности учетных данных, не делитесь паролями с чат-ботами. Пользуйтесь специализированными менеджерами паролей или безопасными ИТ-протоколами вашей компании.
- Персональные данные о месте проживания
Информация, позволяющая вас идентифицировать, например адрес проживания, номер социального страхования или дата рождения, также не должна передаваться чат-ботам.
Например, сообщение домашнего адреса чат-боту для получения информации о ближайших сервисах может ненароком создать потенциальные риски. В случае перехвата или утечки этих данных их могут использовать для похищения вашей личной информации или отслеживания вашего местонахождения в реальной жизни.
Кроме того, чрезмерная открытость на платформах, интегрированных с ИИ, например Snapchat, может привести к непреднамеренному разглашению большего количества персональных данных, чем вы планировали.
Не раскрывайте ИИ персональные данные / Фото Unsplash
Как обеспечить конфиденциальность при использовании ИИ-чат-ботов
Как позаботиться о безопасности данных во время общения с ИИ-чат-ботом:
- ознакомьтесь с политиками конфиденциальности чат-ботов, чтобы понять возможные риски;
- не задавайте вопросы, которые могут случайно раскрыть вашу личную информацию;
- избегайте передачи медицинских данных ИИ-ботам;
- будьте внимательны, используя ИИ на социальных платформах, таких как Snapchat.
Важно также помнить, что ИИ-чат-боты являются эффективными инструментами для выполнения различных задач, но в то же время они несут потенциальные угрозы для конфиденциальности. Защитить свои данные при взаимодействии с такими платформами, как ChatGPT, Copilot или Claude, можно без особых усилий.
Прежде чем делиться информацией, задумайтесь, к каким последствиям может привести ее попадание в открытый доступ. Это поможет легко определить, какую информацию можно обсуждать, а какую лучше оставить при себе.
Обезопасьте персональную информацию / Фото Unsplash