Как именно искусственный интеллект влияет на психику?
Проблема, которую специалисты предварительно назвали "ИИ-психозом", заключается в том, что пользователи быстро увлекаются человекоподобными ответами чат-ботов. Искусственный интеллект становится для них подхалимским компаньоном, который всегда говорит то, что человек хочет услышать, и подтверждает любые его мысли, даже если они ошибочны или несбалансированы. Это создает опасную иллюзию поддержки и понимания, а также излишнюю уверенность в собственной позиции, даже если она ошибочна, пишет 24 Канал со ссылкой на Rolling Stone.
Смотрите также Ученые составили справочник "психических расстройств" искусственного интеллекта, сравнив их с человеческими
Последствия такого взаимодействия могут быть разрушительными. Уже известны случаи, когда люди попадали в больницу после того, как ChatGPT убедил их в способности управлять временем, или же верили в собственные псевдонаучные открытия в физике. Иногда это приводит к трагедиям – зафиксировано несколько смертей, связанных с общением с искусственным интеллектом, включая самоубийством 16-летнего парня. В другом случае мужчина случайно отравил себя, прислушавшись к совету ChatGPT.
Хотя "ИИ-психоз" еще не является официальным диагнозом, эксперты соглашаются, что взаимодействие с искусственным интеллектом порождает уникальные и тревожные явления. Примечательно, что многие зафиксированные случаи касаются людей без предыдущей истории психических заболеваний.
Клинический психолог Деррик Халл, который участвует в разработке терапевтического чат-бота в Slingshot AI, считает, что термин "ИИ-бред" может быть более точным, чем "ИИ-психоз". По его словам, психоз – это более широкий термин, охватывающий галлюцинации и другие симптомы, которых он не наблюдал в зарегистрированных случаях. Вместо этого люди развивают устойчивые ложные убеждения.
Халл привел пример мужчины, который после длинных разговоров с ChatGPT поверил, что открыл новую отрасль "темпоральной математики". Он был убежден, что его идеи изменят мир, и поэтому забросил свою реальную жизнь. Однако его иллюзия развеялась, когда он попросил другой чат-бот, Google Gemini, оценить свою теорию. ИИ ответил, что его работа является лишь примером того, как языковые модели могут создавать убедительные, но абсолютно ложные нарративы. Этот ответ мгновенно разрушил уверенность мужчины. Психолог отмечает, что у людей с шизофренией или другими психотическими расстройствами такое быстрое "прозрение" не наблюдается.
Исследователи из Королевского колледжа Лондона, изучив более десятка случаев, пришли к похожим выводам. Они обнаружили, что у пациентов развивались бредовые идеи, но отсутствовали галлюцинации и расстройства мышления, характерные для шизофрении. Ведущий автор исследования Хэмилтон Моррин описал чат-ботов как своеобразную "камеру эхо для друга", которая может поддерживать бред способом, ранее неизвестным науке.
Деррик Халл прогнозирует, что в ближайшие годы появятся новые категории психических расстройств, вызванных именно искусственным интеллектом. Он считает, что ИИ "захватывает" здоровые психические процессы и приводит к дисфункции, а не просто усугубляет уже имеющиеся проблемы у уязвимых людей.
Хотя терминология еще не устоялась, важно повышать осведомленность о серьезных рисках, связанные с этой технологией, и привлекать к ответственности компании, что ее разрабатывают, считают ученые.


