Деякі експерти, в тому числі керівники, які займаються маркетингом інструментів ШІ, стверджують, що чатботи приречені на вічну брехню, попри всі зусилля їхніх творців. "Я не думаю, що сьогодні існує якась модель, яка б не страждала на певні галюцинації", – каже Даніела Амодей, співзасновниця і президентка компанії Anthropic, яка створила чатбота Claude 2.
Дивіться також Google серйозно прокачає свого голосового асистента за допомогою штучного інтелекту
Вічна брехня
Проблема криється в самій суті таких технологій – вони створені для того, щоб просто передбачати наступне слово, тому завжди лишається ймовірність, що система іноді робитиме це неточно. Як же працює чатбот? Спочатку він навчається на величезних обсягах даних, визначає певні закономірності у формуванні речень, прослідковує частоту появи того чи іншого слова після кожного попереднього тощо. І коли ви ставите йому питання, він, керуючись вивченою інформацією, компілює з наявних у нього даних відповідь, буквально склеюючи частини речень з різних джерел. Вони не усвідомлюють того факту, що якась інформація може бути неточною.
Усе це не обіцяє нічого доброго, враховуючи, що технологічні компанії інвестують у ці технології мільярди доларів. Ми знаємо, що Google вже сьогодні пропонує генератор новин Genesis на основі штучного інтелекту великим газетам, на кшталт зокрема The New York Times, The Washington Post та News Corp, яка володіє The Wall Street Journal. Подібним чином експериментують і деякі інші видання, користуючись такими розробками, як ChatGPT. Але ми також знаємо про всі гучні викриття, пов'язані з дезінформацією в матеріалах, написаних ШІ. Виданню CNET раніше довелося публікувати спростування, коли стало відомо про суттєві помилки в більшості з 77 статей, написаних машиною, які воно опублікувало в рубриці CNET Money.
Іншими словами, без здатності чатботів виправляти свою схильність до вигадок компанії можуть зазнати серйозних невдач, досліджуючи нові способи використання технології.
Це неможливо виправити. Це пов'язано з невідповідністю між технологією і запропонованими варіантами використання,
– каже Емілі Бендер, професорка лінгвістики та директор Лабораторії комп'ютерної лінгвістики Університету Вашингтона.
Технологічні лідери, однак, налаштовані оптимістично. Або принаймні намагаються показувати це всіма силами, враховуючи, що на кону стоять мільярди. "Я думаю, що ми подолаємо проблему галюцинацій набагато, набагато краще", – сказав раніше генеральний директор OpenAI Сем Альтман. – "Думаю, нам знадобиться півтора-два роки. Десь так".