Ще один брехливий штучний інтелект

Про це йдеться у звіті Bloomberg, який посилається на розмови з 18 нинішніми та колишніми працівниками Google, а також на скриншоти внутрішніх повідомлень. У цих дискусіях один співробітник зазначив, що Бард часто давав користувачам небезпечні поради на такі теми, як посадка літака або підводне плавання.

Цікаво Чатботи Google і Microsoft посилаються одне на одного в химерному потоці брехні

Інший сказав: "Бард гірше, ніж марний: будь ласка, не запускайте". Bloomberg повідомляє, що компанія навіть "відкинула оцінку ризиків", подану внутрішньою командою з безпеки, яка заявляла, що система не готова до загального використання. Попри все, боси Google вирішили відкрити ранній доступ до бота в березні.

Компанія часто заявляє про свою роботу над безпекою та етикою в галузі ШІ, але вже давно піддається критиці за те, що натомість ставить на перше місце бізнес та гроші. Цей звіт ілюструє, як Google, вочевидь, відкидає етичні проблеми на другий план, намагаючись не відставати від таких конкурентів, як Microsoft і OpenAI.

Захисники технології не погоджуються з критикою. На їхню думку, для розробки будь-якої такої системи необхідне публічне тестування, а відома шкода від чатботів досі була мінімальною. Вони дійсно продукують токсичні тексти й пропонують оманливу інформацію, але так само роблять незліченні інші джерела в інтернеті. Однак тут не варто забувати, що спрямовувати користувача на погане джерело інформації — це зовсім не те саме, що надавати йому цю інформацію напряму від штучного інтелекту, враховуючи, що люди схильні сліпо довіряти нейромережам, наче вони всезнаючі. Конкуренти Google на цьому ринку скомпрометовані не менше, однак різниця між ними полягає в тому, що вони не є лідерами в пошуковому бізнесі.