Сразу после появления в открытом доступе Bing, созданного на базе языковой модели компании OpenAI, пользователи начали экспериментировать с искусственным интеллектом и проверять пределы его возможностей. Все дошло до того, что Bing начал обижаться, ругаться и признаваться в неэтическом поведении.

Читайте на сайте "Биокомпьютеры" заменят искусственный интеллект: ученые уже вырастили специальные мозговые клетки

Более того, иногда он признавался в наличии у него альтер-эго с кодовым именем "Сидни". В конце концов, Microsoft ограничила общение с чатом и теперь он сразу сворачивает беседу, если поинтересоваться, что он чувствует.

Еще один баг чатбота компания попыталась превратить в фичу. Многие жаловались на то, что Bing – как и другие чатботы, созданные на основе языковых моделей – не отличает факты от вымысла. Для сочинения стихов или рассказов в этом нет ничего плохого, а вот для поиска информации в сети очень даже есть. Теперь пользователи сами могут решить, с какой из версий Bing им хочется иметь дело: с выдумщиком или педантом. Первый дает "оригинальные и образные" ответы, второй – точны.

Для колеблющихся с выбором есть третья, промежуточная или "сбалансированная" опция.

Microsoft возлагает большие надежды на новый Bing

Компания Microsoft сделала большую ставку на интеграцию генеративной модели искусственного интеллекта со своей поисковой системой Bing. По словам гендиректора Сатьи Надели, значимость появления этой технологии сравнима с влиянием, которое оказало облачное хранение данных на развитие вычислительной техники. Таким образом, Microsoft надеется отвоевать у Google долю рынка поиска.

Компания постоянно расширяет группу, тестирующую возможности Bing. Сейчас в нее входит более миллиона человек. Внедрив возможность смены личности для чатбота, разработчики смогут лучше понять преимущества пользователей.