Сьогодні говорити про це ще дуже рано. Системи ШІ, навіть найбільш передові, часто видають викривлену інформацію, брешуть, маніпулюють та навіть вдаються до грубощів. Тому їм ще належить пройти тривалий шлях навчання та виправлень, щоб отримати право надавати медичні послуги.

Цікаво Скоро світ побачить перші дійсно лякаючі приклади штучного інтелекту, впевнений засновник OpenAI

Як це буде

Сем Альтман цими днями був особливо активний у твітері, публікуючи власні роздуми про майбутнє його технології ChatGPT та й узагалі всього штучного інтелекту. Одним із його прогнозів стало використання нейромереж для навчання та медичного обслуговування.

Ці інструменти допоможуть нам бути продуктивнішими (не можу дочекатися, коли ми будемо витрачати менше часу на електронну пошту), здоровішими (медичні ШІ-консультанти для людей, які не можуть дозволити собі лікування), розумнішими (студенти, які використовують ChatGPT для навчання) і веселішими (ШІ-меми, лол),
– написав Альтман.

Але в цьому криються й певні небезпеки. Річ у тім, що сам ШІ не має ні власної думки, ні здатності щось дійсно розуміти та розрізняти правду й брехню. Він лише компілює інформацію з різних джерел, видаючи інформацію за запитом користувача. Якщо, наприклад, він звернеться до кількох джерел, у яких написано, що Земля насправді пласка, то й у результатах його відповіді буде повторюватись те ж саме. Вся суть у тому, на яких саме даних навчати алгоритм. Якщо "згодувати" йому звичайний інтернет, де можна знайти величезну кількість дезінформації, то й результат буде відповідним.

Таким чином ми не можемо довіряти штучному інтелекту в тому, що він надасть надійні поради щодо здоров’я та медичну інформацію. Відомі випадки, коли ШІ надавав помилкову інформацію, яка могла би призвести до смерті пацієнта.

  • В одному з них ChatGPT складав екзамен для отримання медичної ліцензії, але успіху не досяг. Екзаменатори відзначають, що ШІ "придумав" кілька неіснуючих клінічно важливих відкриттів і досліджень для аргументованої відповіді на деякі запитання. У деяких випадках рішення ChatGPT були не тільки завідомо неправильними, а й могли б призвести до трагічних наслідків.
  • У другому випадку журнал Men's Journal за допомогою ШІ створив і навіть опублікував статтю "Що всі чоловіки повинні знати про низький рівень тестостерону", в якій дав поради щодо харчування та способу життя і навіть запропонував конкретне лікування. Однак медики Вашингтонського університету розкритикували матеріал, заявивши, що він містить купу помилок і неправильних тверджень.

Сем Альтман вважає, що світ досить швидко адаптується до глибокої інтеграції з інструментами ШІ, адже вона має "занадто багато плюсів". Однак до справді корисного ШІ нам ще дуже далеко.