В черговому такому випадку зіткнулися дві технології – Google Bard і Microsoft Bing Chat. Один процитував вигадку іншого і все закрутилося в одну велику брехню.
Цікаво ChatGPT склав майже всі іспити, що існують у США, хоча й не без помилок
Що сталося
Зайдемо здалеку. Google відомий численними проєктами, які він запускав протягом своєї історії. Чимала їхня кількість у результаті відправилась на своєрідне кладовище сервісів, які так і не отримали очікуваної популярності, а тому були спішно закриті.
- Цим фактом скористався французький вебдизайнер з ніком @juanbuis у твітері. Тестуючи Bard, він запитав, скільки часу знадобиться, щоб Google закрила його. На що нейромережа відповіла, що вона вже була закрита 21 березня 2023 року (це той самий день, коли було поставлене питання) після нібито шести місяців тестувань.
- Про цю кумедну ситуацію написало видання Windows Central.
- Тепер, якщо ви запитаєте Bing Chat про те, чи не закрила часом Google свою нейромережу Bard, він відповість, що закрила, неправильно цитуючи матеріал Windows Central, а також посилаючись на коментар на Hacker News, в якому хтось пожартував з цього приводу, а хтось інший використав ChatGPT для написання фейкової новини про цю подію.
Відповідь Bing на питання про закриття Bard / Скриншот The Verge
Деякі видання, які вже встигли написати про цю ситуацію, кажуть, що Bing наразі виправив свою помилку, що вказує на можливість швидкого корегування генеративного ШІ. З іншого боку, це ще одне підтвердження, що системи на базі ШІ настільки мінливі, що їх легко наповнити брехнею, і це стає нормою.
Ця ситуація здається смішною, але потенційно має серйозні наслідки. Чатботи не можуть оцінити правдивість інформації, відрізнити жарт від серйозного повідомлення, зліплюючи частини інформації в один текст. Укупі з надмірною довірою людей до штучного інтелекту це грає проти самих користувачів.