Результати дослідження
Учені Інституту тривалості життя Канзаського університету хотіли з'ясувати, наскільки текст, згенерований ChatGPT, викликає довіру батьків, і чи прислухаються вони до нього більше, ніж до порад справжніх лікарів-людей. Висновки опублікували в журналі Journal of Pediatric Psychology, пише 24 Канал.
Дивіться також Ілон Маск може зробити ШІ Grok безплатним для всіх, але з неприємними обмеженнями
У дослідженні взяли участь 116 батьків у віці від 18 до 65 років.
Коли ми почали це дослідження, одразу після запуску ChatGPT, у нас були побоювання щодо того, як батьки будуть використовувати цей новий, простий метод для збору інформації про здоров'я своїх дітей. Батьки часто звертаються до інтернету за порадою, тому ми хотіли зрозуміти, як буде виглядати використання ChatGPT і про що нам слід турбуватися,
– каже провідна авторка Калісса Леслі-Міллер.
Учасникам було запропоновано пройти базове оцінювання їхніх поведінкових намірів щодо тем, пов'язаних з дитячим здоров'ям. Потім респонденти оцінювали текст, згенерований або експертом, або ChatGPT під наглядом експерта.
- Таким чином було з'ясовано, що ChatGPT здатен впливати на поведінкові наміри щодо прийняття рішень про ліки, сон та дієту.
- Між чат-ботом і експертом була "невелика різниця", коли мова йшла про сприйняття моральності, достовірності, досвіду, точності та довіри. Найгірше, що в ситуаціях, коли люди вбачали цю різницю, вони давали текстам ChatGPT вищий рейтинг надійності та точності, ніж експертній інформації.
- Учасники також зазначили, що вони з більшою ймовірністю покладатимуться на інформацію з ChatGPT, ніж на інформацію від експерта.
Цей результат став для вчених несподіванкою, особливо зважаючи на те, що дослідження проводилося на самому початку роботи ChatGPT, перша версія якого була набагато слабшою, ніж нинішні покоління.
Чому результати викликають занепокоєння
Крім того, що результати дослідження викликають здивування, вони також викликають занепокоєння у дослідників. Річ у тім, що ШІ містить величезну кількість навчальної інформації, яка подається йому масово і часом без розбору. Він аналізує сторінки в інтернеті, публікації в соцмережах та купі іншого контенту, яка може містити неточності й відверту дезінформацію.
Яким би "розумним" не був ШІ, він не розуміє насправді, що є брехнею, а що правдою. Він вважатиме правдою все, що йому "згодували", якщо в його пам'яті прямо не вказано, що якась конкретна інформація є фальшивою.
Таким чином, коли ви звертаєтесь до ШІ, ви не знаєте, звідки він узяв дані. Вони можуть бути як з медичного підручника, так і з публікації, узятої десь на фейсбуці.
У сфері охорони здоров'я дітей, де наслідки можуть бути значними, дуже важливо, щоб ми вирішили цю проблему. Ми стурбовані тим, що люди все частіше покладаються на ШІ для отримання медичних порад без належного експертного нагляду,
– пишуть учені, підсумовуючи результати.
Попри це, науковці переконані, що ШІ має великий потенціал для використання, якщо використовувати його належним чином.