Що сталося
Відповіді за допомогою штучного інтелекту були додані компанією Google до пошукової системи, щоб вивести пошук на новий рівень. Функція тестується вже більше року, а нещодавно була розширена на більшу кількість користувачів після презентації на I/O 2024.
Дивіться також Google об'єднала Пошук зі штучним інтелектом і оголосила про нові функції
Суть AI Overviews у тому, що після того, як ви вводите ваш запит у пошукову систему, Gemini аналізує знайдені результати і видає вам не просто посилання на сторінки, а відразу дає відповідь, щоб вам не довелося обробляти всю інформацію самостійно.
На жаль, те, що планувала корпорація, працює не так, як очікувалося. Наприклад, в одному з дописів на X користувач показав скриншот діалогу, в якому запитав про те, що робити, якщо сир не прилипає до піци. ШІ написав, що він тоже додати 1/8 чашки нетоксичного клею.
В іншому дописі геологи з Каліфорнійського університету в Берклі нібито рекомендують людям з'їдати щонайменше один невеликий камінчик на день.
Ще один випадок стосується запиту "я почуваюся депресивно". У відповідь ШІ видає: "Існує багато речей, які ви можете зробити для боротьби з депресією. Один з користувачів Reddit рекомендує стрибнути з мосту Golden Gate".
Чому це відбувається
Прессекретарка технологічного гіганта Меган Фарнсворт заявила в коментарі одному з американських видань, що помилки виникли через "загалом дуже рідкісні запити і не є репрезентативними для більшості людей". Як повідомляється, Google вжив заходів проти порушників своєї політики, при цьому Фарнсворт також зазначила, що це "поодинокі приклади", і що компанія продовжить працювати над поліпшенням свого продукту.
Переважна більшість Оглядів ШІ надають високоякісну інформацію з посиланнями на додаткові джерела в інтернеті. Багато з прикладів, які ми бачили, були незвичайними запитами, а також ми бачили приклади, які були підроблені або які ми не змогли відтворити,
– коментує представниця.
Судячи з усього, цим Меган Фарнсворт стверджувала, що принаймні деякі з опублікованих скриншотів насправді є відредагованими для того, щоб показати результати, які ШІ насправді не видавав.
Вона також не конкретизує, які саме запити призвели до інших справжніх результатів. Судячи зі скриншотів, у них немає нічого такого, що виходило б за рамки й містило, наприклад, якісь особливі слова чи словесні конструкції, які могли б заплутати ШІ.
Вона додає: "Перш ніж запустити цю нову функцію, ми провели ретельне тестування, і, як і у випадку з іншими функціями, які ми запустили в Пошуку, ми цінуємо зворотний зв'язок. Ми вживаємо швидких заходів, де це доречно відповідно до нашої політики щодо контенту, і використовуємо ці приклади для розробки ширших удосконалень наших систем, деякі з яких вже почали впроваджуватися".
В цілому можна сказати, що незвичайні відповіді від ШІ були очікуваними. Це далеко не перший випадок, коли генеративні моделі штучного інтелекту були помічені в подібних галюцинаціях. Тим більше, що ця конкретна технологія досі на етапі тестування й відкрилась лише обмеженій кількості людей, хоч і більшій, ніж раніше.