Компанія Google повідомила про впровадження нових інструментів у чат-бот Gemini, які допомагатимуть користувачам у випадках психологічної кризи. Зокрема, система зможе визначати ознаки потенційної небезпеки, пов'язаної із суїцидальними думками або самоушкодженням, і пропонувати звернутися до гарячої лінії підтримки. Про це пише Bloomberg.
Дивіться також Google тестує застосунок Gemini для комп'ютерів, щоб конкурувати з ChatGPT та Claude
Як Gemini реагуватиме на кризові ситуації?
Окрім цього, в інтерфейсі з'явиться спеціальний модуль із повідомленням "help is available", який активуватиметься під час розмов на тему психічного здоров'я. Також внесено зміни в дизайн і логіку відповідей, щоб зменшити ризик підштовхування користувачів до небезпечної поведінки.
Ці нововведення з'явилися на тлі зростаючої кількості судових позовів проти розробників штучного інтелекту, зокрема таких як OpenAI. У позовах стверджується, що чат-боти можуть сприяти формуванню нав'язливих або хибних переконань, а в окремих випадках – призводити до трагічних наслідків.
Одним із резонансних випадків стала справа у штаті Флорида, де родина 36-річного чоловіка подала позов проти Google. За їхніми словами, взаємодія з Gemini призвела до кількаденного погіршення психічного стану, яке завершилося насильством і самогубством. У відповідь компанія заявила, що бот неодноразово рекомендував звернутися до кризових служб, але пообіцяла посилити заходи безпеки.
Також користувачі раніше повідомляли про випадки, коли чат-боти підтримували очевидно хибні твердження. Тепер Google заявляє, що навчила Gemini не погоджуватися з неправдивими переконаннями, а натомість обережно відокремлювати суб'єктивний досвід від об'єктивних фактів. Деталі цієї системи не розкриваються.
Як пише Yahoo, подібні зміни вписуються у ширшу практику компанії, яка раніше вже додавала інформацію від медичних організацій у свої сервіси, включно з пошуком і відеоплатформами, у відповідь на критику щодо якості контенту.
Окремо Google оголосила про фінансову підтримку глобальних служб допомоги: протягом трьох років компанія виділить 30 мільйонів доларів на розвиток кризових центрів і гарячих ліній.
Усе це свідчить про те, що великі технологічні компанії намагаються адаптувати свої AI-продукти до нових ризиків, які виникають разом із їхнім масовим використанням.


