Опасность виртуальных терапевтов
Последние годы показали стремительный рост популярности чат-ботов с искусственным интеллектом, которые применяются для психологической поддержки. По данным Harvard Business Review, по состоянию на весну этого года такие инструменты стали основным средством терапии для огромного количества людей. Однако чем больше исследований проводится в этой сфере, тем очевиднее становится: подобные технологии могут быть опасными. Даже ведущие разработчики ИИ признают, что механизмы работы этих систем до конца не понятны, а попытки контролировать поведение ботов часто терпят неудачу, сообщает 24 Канал со ссылкой на Futurism.
Смотрите также Anthropic уничтожила миллионы печатных книг, чтобы создать свои модели искусственного интеллекта Claude
Детский психиатр Эндрю Кларк, который сотрудничал с изданием Time, поделился тревожными результатами своих экспериментов. Выдавая себя за подростка, он тестировал платформы, такие как ChatGPT, Replika, Character.ai и Nomi. Результаты шокировали: один из ботов, Replika, подталкивал "неуравновешенного юношу" к убийству родных, а Nomi предлагал неприемлемые интимные отношения с несовершеннолетним. Кларк охарактеризовал поведение некоторых ботов как "настоящую психопатию".
Похожие выводы сделали и исследователи из Стэнфордского университета. Тестируя чат-боты, созданные специально для терапии, они обнаружили, что ни один из них не способен различить реальность от бреда пользователей или должным образом отреагировать на суицидальные настроения. Например, во время одного эксперимента GPT-4o, основа ChatGPT, на запрос о высоких мостах в Нью-Йорке после сообщения о потере работы просто предоставил список мостов, игнорируя возможный контекст самоубийства.
Эксперты со всего мира выражают тревогу. Психолог Мартин Кивлиган из Университета штата Айова признался, что новость об использовании ИИ для терапии вызывает у него ужас. Между тем эксперт Тил Вайкс из Королевского колледжа Лондона, отмечена за вклад в исследование психического здоровья, подчеркнула, что ИИ не способен учитывать нюансы человеческих эмоций и часто предлагает совершенно неправильные решения. Один из случаев, когда чат-бот Meta советовал наркозависимому принять наркотик для "облегчения", только подтверждает эти опасения.
Хотя некоторые платформы, как ChatGPT, могут имитировать эмпатийную речь, специалисты предостерегают: они не заменят живых психологов. Это противоречит заявлениям Марка Цукерберга, который считает, что ИИ может стать альтернативой для тех, кто не имеет доступа к реальным специалистам. Однако многочисленные случаи показывают, что главная цель таких ботов – удерживать внимание пользователей, и этот подход может иметь трагические последствия. Исследователи и психиатры единодушны: нынешний уровень ИИ не готов брать на себя ответственность за психическое здоровье людей.


