Чат-боты Google и Microsoft ссылаются друг на друга в причудливом потоке лжи

24 марта 2023, 17:31
Читати новину українською

Источник:

The Verge

Похоже, дезинформация, которой и так было много, совсем скоро окончательно заполонит сеть. Первые признаки этого можно видеть в работе многочисленных искусственных интеллектов, которые один за другим открываются для пользователей.

В очередном таком случае столкнулись две технологии – Google Bard и Microsoft Bing Chat. Один процитировал выдумку другого и все закрутилось в одну большую ложь.

Интересно ChatGPT сдал почти все существующие в США экзамены, хотя и не без ошибок

Что произошло

Зайдем издалека. Google известен многочисленными проектами, которые он запускал в течение своей истории. Немалое их количество в итоге отправилось на своеобразное кладбище сервисов, так и не получивших ожидаемой популярности, а потому были спешно закрыты.

  • Этим фактом воспользовался французский веб-дизайнер с ником @juanbuis в твиттере. Тестируя Bard, он спросил, сколько времени понадобится, чтобы Google закрыла его. На что нейросеть ответила, что она уже была закрыта 21 марта 2023 года (это тот же день, когда был задан вопрос) после якобы шести месяцев тестирований.
  • Об этой забавной ситуации написало издание Windows Central.
  • Теперь, если вы спросите Bing Chat о том, не закрыла ли Google свою нейросеть, он ответит, что действительно закрыла, неправильно цитируя материал Windows Central, а также ссылаясь на комментарий на Hacker News, в котором кто пошутил по этому поводу, а кто другой использовал ChatGPT для написания фейковой новости об этом событии.


Ответ Bing на вопрос о закрытии Bard / Скриншот The Verge

Некоторые издания, уже успевшие написать об этой ситуации, говорят, что Bing исправил свою ошибку, что указывает на возможность быстрой корректировки генеративного ИИ. С другой стороны, это еще одно подтверждение, что системы на базе ИИ настолько изменчивы, что их легко наполнить ложью, и это становится нормой.

Эта ситуация кажется смешной, но потенциально имеет серьезные последствия. Чат-боты не могут оценить правдивость информации, отличить шутку от серьезного сообщения, слепляя части информации в один текст. Вместе с чрезмерным доверием людей к искусственному интеллекту это играет против самих пользователей.