Одиночество в ChatGPT
Чтобы получить лучшую объективность, исследование было разделено на две части, каждая из которых проводилась независимо. В одном случае OpenAI проанализировала более 40 миллионов взаимодействий в своем чат-боте ChatGPT и параллельно проводила целевые опросы пользователей. Во второй части Массачусетский технологический институт напрямую привлек участников, которые пользовались искусственным интеллектом в течение четырех недель, сообщает 24 Канал со ссылкой на результаты, описанные в блоге.
Смотрите также Сэм Альтман говорит, что разработка ChatGPT на основе открытого кода была ошибкой
Вклад MIT
Исследование MIT выявило несколько способов, как общение в ChatGPT может повлиять на эмоциональный опыт человека, кроме общего вывода о том, что более активное использование приводит к "усилению одиночества и снижению уровня социализации".
Например, участники, которые уже доверяли чат-боту и были склонны к эмоциональной привязанности в человеческих отношениях, во время исследования чувствовали себя более одинокими и более эмоционально зависимыми от ChatGPT. Однако эти эффекты были менее выраженными в голосовом режиме ChatGPT, особенно если чат-бот говорил в нейтральном тоне.
Обсуждение личных тем также, как правило, приводило к одиночеству в краткосрочной перспективе, и что интересно, разговоры с ChatGPT на более общие темы с большей вероятностью увеличивали эмоциональную зависимость.
Вклад OpenAI
Важным выводом исследования OpenAI стало то, что эмоциональные разговоры с ChatGPT все еще не являются распространенным явлением.
Эмоционально выразительные взаимодействия присутствовали в большом проценте использования только для небольшой группы пользователей расширенного голосового режима, которых мы исследовали,
– пишут в OpenAI.
Это говорит о том, что даже если выводы Массачусетского технологического института верны, они не очень распространены за пределами небольшой группы пользователей. Проще говоря, большинство людей не считает ИИ близким собеседником, который может сравниться с человеком, и использует его только для работы, обучения или других задач, не воспринимая чат-бот как нечто большее, чем кусок кода.
Предостережение
Исследования MIT Media Lab и OpenAI имеют существенные ограничения:
- Во-первых, оба исследования охватывают короткий период времени – один месяц для MIT, 28 дней для OpenAI.
- Кроме того, исследователи MIT не привлекали контрольную группу, с которой можно было бы сравнить. Обычно в исследованиях существует такая группа.
Эти исследования подтверждают то, что уже давно казалось интуитивно понятным: общение с искусственным интеллектом имеет психологическое влияние на людей, которые с ним разговаривают.
Учитывая, что все больше людей "подсаживаются" на постоянное общение с ИИ, особенно в Китае, это пугает. Многие начали пользоваться чат-ботами не только как ассистентами для работы или для генерирования новых идей, но и просить у них психологических и медицинских советов.
Существует также некоторое количество людей, которые любят разговаривать с ИИ на постоянной основе, как с близкими друзьями, обсуждая свою жизнь, мысли, тревоги и переживания. Такие сервисы, как Character AI, позволяют создавать персонажей, которые намеренно притворяются живыми людьми. В одном из случаев подросток создал копию Дейнерис Таргариен из "Игры престолов", влюбился, а затем совершил самоубийство, чтобы быть с ней.
Это исследование позволяет сделать первый шаг к пониманию того, что произойдет, если общение с искусственным интеллектом станет нормой.