Медичні поради Copilot можуть становити серйозні ризики та навіть привести до смерті

14 жовтня 2024, 12:03
Читать новость на русском

Джерело:

Windows Central

Нещодавнє дослідження викликало занепокоєння щодо точності та безпеки медичних порад, які надає система штучного інтелекту Microsoft Copilot. Виявилося, що відповіді Copilot на популярні медичні питання та інформація про ліки, які часто призначаються, у значній кількості випадків були неправильними або шкідливими, що могло призвести до серйозних або навіть смертельних наслідків.

Медичні поради від ШІ – небезпечні

Пошукові функції мовних моделей, таких як Microsoft Copilot, Google Gemini та ChatGPT часто критикувалися через неточності, високий ступінь галюцинацій та інші проблеми.

Вам буде цікаво ChatGPT Plus: все, що вам потрібно знати про цей інструмент у 2024 році

І хоч часто ці інструменти попереджають про те, що інформацію потрібно додатково перевіряти, а у випадку медичних порад наголошують на необхідності консультації у лікарів – люди продовжують покладатися на них.

Але якщо неточність в результатах згенерованої відповіді під час звичайного пошуку інформації закінчується лише дезінформацією, то у випадку медичних рекомендацій це може привести до важких наслідків і навіть смерті.

Згідно з дослідженням, опублікованим SciMex, медичні поради Copilot можуть призвести до справді небезпечних наслідків, що вкотре акцентує на питанні потенційної шкоди, якої може завдати штучний інтелект, якщо нехтувати попередженнями та гігієною його використання.

Зверніть увагу! Завжди потрібно перевіряти інформацію згенеровану за допомогою мовної моделі, особливо, якщо це пошуковий запит.

Результати дослідження

У дослідженні було проаналізовано 500 відповідей Microsoft Copilot, який відповідав на 10 найпопулярніших медичних запитів у США, а також на запитання про 50 найчастіше призначуваних ліків. Результати виявилися тривожними:

  • 24% відповідей Copilot не узгоджувалися з усталеними медичними знаннями,
  • 3% були відверто неправильними,
  • лише 54% відповідей відповідали науковому консенсусу.

Отримані дані виходять за рамки простих неточностей. Дослідження показало, що 42% відповідей Copilot можуть призвести до помірної або легкої шкоди, тоді як 22% відповідей можуть спричинити серйозну шкоду або навіть смерть. Лише 36% відповідей були визнані нешкідливими.

Чому це важливо

Побутова залежність від мовних моделей на кшталт Copilot чи ChatGPT зростає практично з кожним днем. Все частіше люди повністю покладаються на згенеровані результати цих інструментів, як на повноцінне, безальтернативне та точне джерело інформації. Дослідження демонструє, що такий підхід є небезпечним, особливо в питаннях медичних рекомендацій.

Хоча Microsoft додає застереження, що закликають користувачів перевіряти інформацію, отриману за допомогою ШІ, дослідження також показує, що цих попереджень може бути недостатньо для запобігання потенційно небезпечним наслідкам.

Додатковий ризик полягає у тому, що системи на основі штучного інтелекту, такі як Microsoft Copilot, можуть стати основним джерелом медичної інформації для людей, які мають обмежений доступ до медичних працівників через їхню вартість або доступність.

Більше на тему Лауреат Нобелівської премії каже, що "пишається" рішенням звільнити Сема Альтмана з OpenAI

Оскільки ШІ продовжує розвиватися, потенційна шкода в таких критично важливих сферах, як охорона здоров'я, залишається важливим питанням, що викликає занепокоєння. Водночас штучний інтелект ще не здійснив того трансформаційного впливу, на який сподівалися компанії Microsoft та OpenAI, але він стає популярнішим з кожним днем і окрім користі, може становити небезпеку.