Одразу після появи у відкритому доступі чатбота Bing, створеного на базі мовної моделі компанії OpenAI, користувачі почали експериментувати зі штучним інтелектом і перевіряти межі його можливостей. Все Дійшло до того, що Bing почав ображатися, лаятися і зізнаватися в неетичній поведінці.
Читайте на сайті "Біокомп'ютери" замінять штучний інтелект: науковці вже виростили спеціальні мозкові клітини
Ба більше, іноді він зізнавався в наявності у нього альтер-его з кодовим ім'ям "Сідні". Зрештою Microsoft обмежила спілкування з чатботом і тепер він одразу згортає бесіду, якщо поцікавитися, що він відчуває.
Ще один баг чатбота компанія спробувала перетворити на фічу. Багато хто скаржився на те, що Bing – як і інші чатботи, створені на основі мовних моделей – не відрізняє факти від вигадки. Для вигадування віршів або оповідань у цьому немає нічого поганого, а ось для пошуку інформації в мережі – дуже навіть є. Тепер користувачі самі можуть вирішити, з якою із версій Bing їм хочеться мати справу: з вигадником чи з педантом. Перший дає "оригінальні та образні" відповіді, другий – точні.
Для тих, хто вагається з вибором, є третя, проміжна або "збалансована" опція.
Microsoft покладає великі надії на новий Bing
Компанія Microsoft зробила велику ставку на інтеграцію генеративної моделі штучного інтелекту зі своєю пошуковою системою Bing. За словами гендиректора Сатьї Надели, значущість появи цієї технології можна порівняти з впливом, який справило хмарне зберігання даних на розвиток обчислювальної техніки. Таким чином, Microsoft сподівається відвоювати у Google частку ринку пошуку.
Компанія постійно розширює групу, яка тестує можливості Bing. Зараз до неї входить понад мільйон осіб. Впровадивши можливість зміни особистості для чатбота, розробники зможуть краще зрозуміти переваги користувачів.