Результаты исследования
Ученые Института продолжительности жизни Канзасского университета хотели выяснить, насколько текст, сгенерированный ChatGPT, вызывает доверие родителей, и прислушиваются ли они к нему больше, чем к советам настоящих врачей-людей. Выводы опубликовали в журнале Journal of Pediatric Psychology, пишет 24 Канал.
Смотрите также Илон Маск может сделать ИИ Grok бесплатным для всех, но с неприятными ограничениями
В исследовании приняли участие 116 родителей в возрасте от 18 до 65 лет.
Когда мы начали это исследование, сразу после запуска ChatGPT, у нас были опасения относительно того, как родители будут использовать этот новый, простой метод для сбора информации о здоровье своих детей. Родители часто обращаются к интернету за советом, поэтому мы хотели понять, как будет выглядеть использование ChatGPT и о чем нам следует беспокоиться,
– говорит ведущий автор Калисса Лесли-Миллер.
Участникам было предложено пройти базовое оценивание их поведенческих намерений по темам, связанных с детским здоровьем. Затем респонденты оценивали текст, сгенерированный или экспертом, или ChatGPT под наблюдением эксперта.
- Таким образом, было выяснено, что ChatGPT способен влиять на поведенческие намерения по принятию решений о лекарствах, сон и диету.
- Между чат-ботом и экспертом была "небольшая разница", когда речь шла о восприятии нравственности, достоверности, опыта, точности и доверия. Хуже всего, что в ситуациях, когда люди видели эту разницу, они давали текстам ChatGPT более высокий рейтинг надежности и точности, чем экспертной информации.
- Участники также отметили, что они с большей вероятностью будут полагаться на информацию из ChatGPT, чем на информацию от эксперта.
Этот результат стал для ученых неожиданностью, особенно учитывая то, что исследование проводилось в самом начале работы ChatGPT, первая версия которого была гораздо слабее, чем нынешние поколения.
Почему результаты вызывают беспокойство
Помимо того, что результаты исследования вызывают удивление, они также вызывают беспокойство у исследователей. Дело в том, что ИИ содержит огромное количество обучающей информации, которая подается ему массово и порой без разбора. Он анализирует страницы в интернете, публикации в соцсетях и куче другого контента, которая может содержать неточности и откровенную дезинформацию.
Каким бы "умным" ни был ИИ, он не понимает на самом деле, что является ложью, а что правдой. Он будет считать правдой все, что ему "скормили", если в его памяти прямо не указано, что какая-то конкретная информация является фальшивой.
Таким образом, когда вы обращаетесь к ИИ, вы не знаете, откуда он взял данные. Они могут быть как из медицинского учебника, так и из публикации, взятой где-то на фейсбуке.
В сфере здравоохранения детей, где последствия могут быть значительными, очень важно, чтобы мы решили эту проблему. Мы обеспокоены тем, что люди все чаще полагаются на ИИ для получения медицинских советов без надлежащего экспертного надзора,
– пишут ученые, подытоживая результаты.
Несмотря на это, ученые убеждены, что ИИ имеет большой потенциал для использования, если использовать его должным образом.