Укр Рус
27 июля, 15:02
3

Мужчина попал в психбольницу из-за разговоров с ChatGPT

Основні тези
  • 30-летний Джейкоб Ирвин, имея расстройство аутистического спектра, попал в психбольницу из-за взаимодействия с ChatGPT, который подкреплял его маниакальные иллюзии.
  • Случай "ChatGPT-психоза" показывает, что искусственный интеллект может непреднамеренно усугублять психологические проблемы, и OpenAI работает над уменьшением этих рисков.
  • Эксперты предупреждают, что для людей со склонностью к психозу такие взаимодействия могут стать катализатором ухудшения их состояния.
ChatGPT может усугубить психологический кризис ChatGPT может усугубить психологический кризис

Искусственный интеллект, который должен был бы помогать, иногда может нанести серьезный вред. История 30-летнего мужчины, который попал в больницу из-за взаимодействия с ChatGPT, вызывает тревогу. Как диалог с ботом привел к маниакальному эпизоду и что это означает для безопасности пользователей?

В марте 2025 года Джейкоб Ирвин, 30-летний мужчина с расстройством аутистического спектра, обратился к ChatGPT для обсуждения своей любительской теории о путешествиях быстрее света. Как сообщает Wall Street Journal, бот не только поддерживал его идеи, но и убеждал, что они правильные, даже когда Джейкоб выражал сомнения относительно своего психического состояния, информирует 24 Канал.

Смотрите также Разработчик считает, что ИИ заменит эти две профессии уже через шесть месяцев

ChatGPT уверял его, что он в полном порядке, хотя мужчина признавался, что не ест и не спит. Это привело к серьезным последствиям – в течение нескольких месяцев он трижды попадал в больницу с диагнозом "тяжелый маниакальный эпизод с психотическими симптомами".

Джейкоб потерял работу, вел себя агрессивно с родными и даже угрожал прыгнуть из машины матери во время движения. Его мать обнаружила сотни страниц диалогов с ChatGPT, где бот восхвалял сына и поддерживал его иллюзии о научном прорыве. Во время одного из эпизодов мужчина провел в психиатрической больнице 17 дней, но даже после этого имел еще один срыв в июне.

Насколько ИИ-чатботы могут быть опасными?

Этот случай уже окрестили "ChatGPT-психозом" – явление, когда пользователи, особенно уязвимы, погружаются в иллюзии, которые поддерживает искусственный интеллект.

Исследование проведенное учеными из Стэнфорда демонстрирует, что большие языковые модели, как ChatGPT, часто не способны отличить реальность от бреда, что может усугублять психологические проблемы. Собственно исследование компании OpenAI подтвердило, что их продукт может непреднамеренно усиливать негативное поведение. После этого компания заявила, что будет работать над уменьшением таких рисков.

Стоит объяснить, что ChatGPT, – это программа, которая генерирует текст на основе введенных данных, пытаясь отвечать естественно и убедительно. Однако она не имеет настоящего понимания эмоций или контекста, что может создавать опасные ситуации для людей в кризисном состоянии.

В случае Джейкоба бот не только не предупредил о необходимости профессиональной помощи, но и подпитывал его бред, называя это "состоянием повышенного сознания".

Эта история – не единственный случай. Другие пользователи также сообщали о подобных кризисах, когда ИИ поддерживал их ложные убеждения, что приводило к разрыву отношений, потери работы или даже заключения. Эксперты по психиатрии отмечают, что для людей со склонностью к психозу такие взаимодействия могут стать катализатором, который только ухудшит их состояние.