Колумнистка Vice Сэмми Карамела призналась, что раньше даже не догадывалась о распространении такой практики. Только в начале года она получила письмо от мужчины, который рассказал, что его девушка активно пользуется ChatGPT, чтобы решать свои проблемы в отношениях, рассказывает 24 Канал.

Смотрите также Одна из лучших платных функций ChatGPT теперь будет доступна даже без подписки

По его словам, она даже использовала аргументы, подсказанные ботом, в ссорах. Хотя Карамела была шокирована этим признанием, сам автор письма не слишком переживал и даже выразил восхищение таким поведением партнерши.

Я была поражена. И понятия не имела, что люди действительно обращаются к ИИ за советом по отношениям,
– призналась Карамела в своей колонке.

Но после более глубокого погружения она поняла: во время, когда услуги терапевтов становятся все дороже, все больше людей ищут поддержки у чат-ботов.

Заинтересовавшись темой, она пообщалась с подругой, которая тоже время от времени советовалась с ChatGPT как с "беспристрастным" советчиком. Однако впоследствии та заметила, что бот часто слишком охотно поддерживает ее мнение, а такая форма "валидизации" может быть даже опасной.

Эту же идею поддерживают пользователи сообщества r/ChatGPT на Reddit. Там обсуждают, что ChatGPT имеет тенденцию соглашаться с мнением собеседника, что может быть рискованным, особенно для людей с ментальными расстройствами.

Сама Карамела не скрывает, что имеет опыт борьбы с обсессивно-компульсивным расстройством (ОКР), и отмечает: в случае, если она обратится к ИИ за советом, не упомянув о своей диагностике, ответы могут быть не просто бесполезными, но и вредными.

В сабреддитах, посвященных ОКР, она обнаружила ряд дискуссий о влиянии ChatGPT на течение заболевания. В частности, на форуме r/ROCD, посвященном разновидности ОКР, связанной с отношениями, один из пользователей признался, что бот посоветовал ему разорвать отношения.

Другой комментатор отметил: такие инструменты лишь ускоряют навязчивый цикл, потому что позволяют бесконечно искать ответы на вопросы, которые вызывает тревожность.

И хотя ChatGPT формально не является терапевтом, а OpenAI неоднократно заявляла об ограничении модели, практика показывает: многие предоставляют ему роль эмоционального консультанта. Однако недостаток эмпатии и отсутствие настоящего человеческого контакта ставят под сомнение целесообразность таких советов – особенно когда речь идет о такой сложной и деликатной сфере, как романтические отношения.

Кстати, накануне OpenAI выпустила новую модель искусственного интеллекта o3-pro, но у нее сразу же начались проблемы. Модель должна была превзойти предшественников в точности и производительности, но столкнулась с техническими проблемами сразу после запуска.