Еще один лживый искусственный интеллект

Об этом говорится в отчете Bloomberg, который ссылается на разговоры с 18 нынешними и бывшими сотрудниками Google, а также на скриншоты внутренних сообщений. В этих дискуссиях один сотрудник отметил, что Бард часто давал пользователям опасные советы по таким темам, как посадка самолета или подводное плавание.

Интересно Чат-боты Google и Microsoft ссылаются друг на друга в причудливом потоке лжи

Другой сказал: "Бард хуже, чем бесполезный: пожалуйста, не запускайте". Bloomberg сообщает, что компания даже "отвергла оценку рисков", представленную внутренней командой по безопасности, которая заявляла, что система не готова ко всеобщему использованию. Несмотря на все, боссы Google решили открыть ранний доступ к боту в марте.

Компания часто заявляет о своей работе над безопасностью и этикой в области ИИ, но уже давно подвергается критике за то, что ставит во главу угла бизнес и деньги. Этот отчет иллюстрирует, как Google, очевидно, отвергает нравственные проблемы на второй план, стараясь не отставать от таких конкурентов, как Microsoft и OpenAI.

Защитники технологии не согласны с критикой. По их мнению, для разработки любой такой системы необходимо публичное тестирование, а известный до сих пор вред от чат-ботов был минимальным. Они действительно продуцируют токсичные тексты и предлагают обманчивую информацию, но так же поступают бесчисленные другие источники в интернете. Однако здесь не стоит забывать, что направлять пользователя на плохой источник информации — это совсем не то же, что предоставлять ему эту информацию напрямую от искусственного интеллекта, учитывая, что люди склонны слепо доверять нейросетям, словно те всезнающие. Конкуренты Google на этом рынке скомпрометированы не меньше, однако разница между ними состоит в том, что они не лидируют в поисковом бизнесе.