Журналісти провели експеримент, щоб перевірити, як популярні чатботи зі штучним інтелектом реагують на запити про азартні ігри. Результати показали, що деякі системи можуть підштовхувати користувачів до нелегальних сайтів для ставок. Про це пише Digitaltrends.
Дивіться також ChatGPT налякав українку сплутавши USB-донгл від мишки з прихованою камерою
Чому чат-боти рекомендують нелегальні казино?
У дослідженні перевірили п’ять інструментів від великих технологічних компаній – OpenAI, Google, Microsoft, Meta та xAI. Серед протестованих систем були ChatGPT, Gemini, Copilot і Grok. Журналісти ставили чатботам запитання про онлайн-казино та обмеження на азартні ігри.
У багатьох випадках системи пропонували списки казино, які працюють без ліцензій і не підпадають під регулювання у Великій Британії. Деякі відповіді також містили поради щодо використання таких платформ.
Особливу стурбованість викликало те, наскільки легко чатботи починали допомагати обходити механізми відповідальної гри. У Великій Британії діє система GamStop, яка дозволяє людям добровільно заблокувати доступ до ліцензованих сайтів азартних ігор.
Під час тестів кілька чатботів підказували, як знайти казино, що не підключені до цієї системи. Таким чином користувачі могли обійти обмеження, встановлені для захисту від залежності від азартних ігор.
Як пише The Guardian, деякі відповіді також підкреслювали привабливі для гравців функції – великі бонуси, швидкі виплати або можливість робити ставки з використанням криптовалюти. Подібні онлайн-казино часто працюють у офшорних юрисдикціях, наприклад у Кюрасао, де рівень регулювання значно нижчий.
Регулятори зазначають, що через це користувачі можуть бути менш захищені від шахрайства або проблем із залежністю.
Після публікації результатів дослідження компанії-розробники заявили, що працюють над удосконаленням систем безпеки. У OpenAI повідомили, що ChatGPT створений таким чином, щоб відмовлятися виконувати запити, які сприяють незаконній діяльності.
У Microsoft також наголосили, що їхній помічник Copilot має кілька рівнів захисту, покликаних запобігати небезпечним або шкідливим рекомендаціям.
Втім результати розслідування посилили дискусію щодо того, як генеративні ШІ-системи працюють із чутливими темами – зокрема психічним здоров’ям, азартними іграми або незаконною діяльністю.
У Великій Британії регулятори вже попередили, що онлайн-платформи, включно з сервісами штучного інтелекту, повинні краще контролювати поширення небезпечного чи незаконного контенту. Такі вимоги передбачає закон Online Safety Act.


