Скрытая опасность советов от ИИ
Полагаться только на ChatGPT для получения советов по здоровью может быть рискованно. Генеративный ШИ все еще является относительно новой технологией, которая постоянно меняется и часто ошибается. Новое исследование представило данные о том, кто использует ChatGPT для запросов о здоровье, с какой конкретно целью, а также может позволить пользователям понимать, как использовать ИИ правильно и с малейшими рисками, если уж они категорически не хотят отказываться от такой бесплатной помощи, сообщает 24 Канал со ссылкой на The Conversation.
Смотрите также Искусственный интеллект Илона Маска заявил, что и он, и Трамп заслуживают смертной казни
Кто использует ChatGPT для здоровья и что они спрашивают
В июне 2024 года исследователи из Австралии опросили более 2000 человек, использовали ли они ChatGPT, чтобы получить помощь в вопросах здоровья. Оказалось, что каждый десятый (9, 9%) использовал ИИ с этой целью в первой половине 2024г. Средний показатель доверия к искусственному интеллекту среди этой группы людей составляет 3, 1 из 5.
Также было обнаружено, что доля людей, которые используют ChatGPT для получения информации о здоровье, была выше среди тех, кто имел низкий уровень медицинской грамотности, родился в неанглоязычной стране или разговаривал дома на другом языке. Это свидетельствует, что на ChatGPT больше полагаются люди, которым тяжело взаимодействовать с традиционными формами медицинской информации в чужой стране.
Часто задаваемые вопросы, какие люди ставили ChatGPT, касались:
- узнать состояние здоровья (48%).
- выяснить, что означают симптомы (37%).
- спросить о действиях (36%).
- или понять медицинские термины (35%).
Такие вопросы рискованны, поскольку ИИ может дать только приблизительное представление, но не заменит клиническую консультацию опытного врача.
Опять же, люди, родившиеся в неанглоязычной стране или разговаривавшие дома на другом языке, чаще задают следующие вопросы.
Почему это важно
Количество людей, которые используют генеративный ИИ для получения информации о здоровье, вероятно, будет расти. Согласно исследованию, 39% человек, которые еще не использовали ChatGPT в вопросах здравоохранения, рассматривают возможность сделать это в течение следующих шести месяцев.
Общее количество людей, которые используют инструменты генеративного ИИ для получения информации о здоровье, еще выше, если учесть другие инструменты, такие как Google Gemini, Microsoft Copilot и Meta AI.
Тот факт, что люди с языковым барьером, находящиеся в чужой стране, чаще пользуются ИИ для медицинских вопросов, также является проблемой, потому что искусственный интеллект, как пишут исследователи, "добавляет еще один уровень сложности" из-за своей меньшей эффективности в других языках, отличных от английского.
Именно поэтому авторы статьи убеждены, что нам нужны человеческие и компьютерные сервисы, где иноязычие не было бы препятствием для получения высококачественной медицинской информации.
Медицинская грамотность с искусственным интеллектом
Хотя ИИ все лучше отвечает на вопросы медицинского характера, он все еще менее точен, чем профессиональные врачи, а также допускает ошибки в сложных темах, связанных со здравоохранением, говорят исследователи. Например, уже известны случаи, когда использование инструментов ИИ общего назначения для принятия решения о том, стоит ложиться в больницу или нет, приводили к печальным последствиям.
К сожалению, говоря о медицинской грамотности в использовании ИИ, авторы статьи не дают никаких конкретных рекомендаций, кроме того, что в вопросах госпитализации следует обращаться в местный австралийский центр, предоставляющий национальную бесплатную горячую линию с дипломированными медицинскими работниками на связи.
Однако, из главных советов можно выделить следующие:
- Не стоит воспринимать ответ ИИ как окончательный диагноз. Алгоритм может подсказать ответ в общих чертах, но не детализируйте ее под ваши индивидуальные потребности.
- Проверяйте информацию в надежных источниках– ВОЗ, специализированные медицинские ресурсы, сайты клиник и больниц, статьи в рецензируемых медицинских журналах.
- Не занимайтесь самолечением, особенно если это касается серьезных болезней, которые обладают вероятностью смерти. Если ИИ советует определенное лекарство, добавки или методы лечения, не начинайте прием без консультации с лечащим врачом. Некоторые лекарства могут иметь серьезные побочные эффекты, взаимодействовать с другими препаратами, которые вы уже принимаете, или не подходить именно вам.
- Проверьте дату информации. Медицина быстро развивается, рекомендации могут изменяться. Если ИИ дает совет, он может обращаться к собственным заученным данным, которые были актуальны на момент обучения речевой модели. Если вы пользуетесь бесплатной версией ИИ, то она, скорее всего, обучена на данных как минимум годовой давности, поскольку новейшие версии моделей ИИ всегда только платные. Таким образом, ученые и врачи могли уже изменить методы лечения вашей болезни и вы сделаете все неправильно.
- Задавайте вопросы максимально точно. Если вы используете ИИ для поиска медицинской информации, формулируйте запросы подробно. Например, запрос "У меня болит голова, что это может быть"– это неправильный вопрос. Правильное будет звучать примерно так: "У меня головная боль слева, он длится три дня, без повышения температуры, но с тошнотой. Какие возможные причины". В зависимости от характера вопроса и вашего состояния, сюда можно добавить ваши характеристики: возраст, пол, сопутствующие хронические проблемы, текущие приемы лекарств, недавние травмы, изменение условий проживания и другое. Чем точнее вопрос, тем меньше вероятность получить общий или ложный ответ.
- Никогда не доверяйте ИИ в экстренных ситуациях. Если рядом кто-то в тяжелом состоянии, вроде сильного кровотечения, потери сознания или проблем с дыханием, не гуглите и не спрашивайте ничего в ИИ. Сразу обратитесь за помощью к настоящим врачам.
- Осознайте ограничение искусственного интеллекта. ИИ не видит вас, не может провести физический осмотр или анализ. Он работает только с текстовыми данными, которые изучил в определенный момент своего обучения, а это значит, что он не может точно оценить именно ваше состояние здоровья.
- Наконец, остерегайтесь "галлюцинаций" ШИ. Если ответ кажется слишком конкретным, но без ссылок на источники, или имеет подозрительно сложные сроки без объяснений– есть риск, что алгоритм просто придумал их только что. Так случается в случае этой технологии. В этом случае следует проверить информацию в других источниках.