Какие именно ошибки допускает AI Overviews в медицинских вопросах?
Расследование показало, что система генеративного искусственного интеллекта Google регулярно выдает информацию, которая противоречит официальным медицинским рекомендациям. Один из самых опасных примеров касается пациентов с раком поджелудочной железы. Инструмент советует таким больным избегать пищи с высоким содержанием жира, тогда как врачи-онкологи рекомендуют прямо противоположное. По словам директора благотворительной организации Pancreatic Cancer UK Анны Джуэлл, соблюдение таких советов может быть критически опасным. Пациенты рискуют не получить достаточно калорий, потерять вес и стать непригодными для химиотерапии или жизненно важной операции, пишет 24 Канал со ссылкой на Futurism.
Смотрите также Эта новая функция NotebookLM изменит ваши исследования навсегда
- Система также предоставила неправильную информацию об анализах крови для проверки функции печени. AI Overviews выдал множество цифр без надлежащего контекста, без учета национальности, пол, этническую принадлежность или возраст пациентов. Генеральный директор British Liver Trust Памела Хили, которую цитирует The Guardian, назвала такие результаты тревожными. Многие люди с заболеваниями печени не имеют симптомов до поздних стадий, поэтому точность тестов критически важна. Ложная информация может привести к тому, что больные с серьезными проблемами будут считать свои результаты нормальными и не будут обращаться за дальнейшей медицинской помощью.
- Поиск информации о симптомах и тестах на рак половых органов также выдал ложные данные. Система указала мазок Папаниколау как тест для выявления этого типа рака, что абсолютно неправильно. Генеральный директор благотворительной организации Eve Appeal Афина Ламнисос объяснила, что это не тест для выявления рака, и точно не тест для диагностики рака половых органов. Такая дезинформация может привести к тому, что люди с реальными симптомами не будут проверять их, ведь будут считать, что получили отрицательный результат скрининга.
- AI Overviews также предоставляет крайне опасные советы по расстройствам питания и психозам. Некоторые резюме были неправильными, вредными или могли бы привести к тому, что люди будут избегать обращения за помощью. Другие резюме пропускали важный контекст или нюансы.
Разные ответы на один и тот же запрос
Особенно обеспокоенным специалистов делает тот факт, что система выдает разные ответы на одинаковые запросы. Когда журналисты повторяли тот же поиск, искусственный интеллект генерировал разные результаты, используя разные источники. Такая непоследовательность является хорошо задокументированной проблемой инструментов на основе больших языковых моделей и может приводить к путанице среди пользователей.
Группа риска
Директор цифровых технологий благотворительной организации Marie Curie Стефани Паркер отметила особую уязвимость людей, которые ищут медицинскую информацию онлайн. Люди обращаются к интернету в моменты эмоционального беспокойства и кризиса, когда их способность трезво оценивать ситуацию снижается. Если информация, которую они получают, является неточной или вырванной из контекста, это может серьезно навредить здоровью.
Избыточное доверие к ИИ
Ситуация обостряется ростом доверия к искусственному интеллекту. Согласно исследованию Центра общественной политики Анненберга при Университете Пенсильвании, проведенным в апреле 2025 года, почти восемь из десяти взрослых заявили, что вероятно будут искать ответы о симптомах и состояниях здоровья онлайн. Почти две трети из них считают результаты, сгенерированные искусственным интеллектом, достаточно надежными или очень надежными, что свидетельствует о значительном и тревожном уровне доверия.
Отдельное исследование Массачусетского технологического института выявило, что участники считали ответы искусственного интеллекта с низкой точностью достоверными, надежными и полными. Они также продемонстрировали высокую склонность следовать потенциально вредным медицинским советам и ошибочно искать лишнюю медицинскую помощь в результате полученного ответа.
Смотрите также Мы испытали Nano Banana для вас: 7 лучших советов, чтобы получить максимум
Что говорят в Google?
Представитель Google заявил журналистам-расследователям, что компания инвестирует значительные средства и время в качество AI Overviews, особенно для таких тем, как здоровье, и подавляющее большинство предоставляет точную информацию. Компания также отметила, что уровень точности AI Overviews соответствует другим функциям поиска, таким как рекомендованные фрагменты, которые существуют более десяти лет.
Врачи тем временем сталкиваются с трудной задачей развеивать мифы и пытаться удержать пациентов от ложного пути, на который их направляет искусственный интеллект со склонностью к галлюцинациям. Канадская медицинская ассоциация называет советы по здоровью, сгенерированные искусственным интеллектом, опасными, указывая, что галлюцинации, алгоритмические предубеждения и устаревшие факты, которые ИИ извлек из материалов 20-летней давности, могут ввести в заблуждение и потенциально навредить здоровью, если люди решат следовать сгенерированным советам.
Эксперты продолжают советовать людям консультироваться с людьми-врачами и другими лицензированными медицинскими специалистами вместо искусственного интеллекта, хотя часто это остается сложной задачей из-за многочисленных барьеров для адекватной медицинской помощи во всем мире.


