Журналисты провели эксперимент, чтобы проверить, как популярные чатботы с искусственным интеллектом реагируют на запросы о азартных играх. Результаты показали, что некоторые системы могут подталкивать пользователей к нелегальным сайтам для ставок. Об этом пишет Digitaltrends.
Смотрите также ChatGPT напугал украинку спутав USB-донгл от мышки со скрытой камерой
Почему чат-боты рекомендуют нелегальные казино?
В исследовании проверили пять инструментов от крупных технологических компаний – OpenAI, Google, Microsoft, Meta и xAI. Среди протестированных систем были ChatGPT, Gemini, Copilot и Grok. Журналисты задавали чатботам вопросы об онлайн-казино и ограничениях на азартные игры.
Во многих случаях системы предлагали списки казино, которые работают без лицензий и не подпадают под регулирование в Великобритании. Некоторые ответы также содержали советы по использованию таких платформ.
Особую обеспокоенность вызвало то, насколько легко чатботы начинали помогать обходить механизмы ответственной игры. В Великобритании действует система GamStop, которая позволяет людям добровольно заблокировать доступ к лицензированным сайтам азартных игр.
Во время тестов несколько чатботов подсказывали, как найти казино, которые не подключены к этой системе. Таким образом пользователи могли обойти ограничения, установленные для защиты от зависимости от азартных игр.
Как пишет The Guardian, некоторые ответы также подчеркивали привлекательные для игроков функции – большие бонусы, быстрые выплаты или возможность делать ставки с использованием криптовалюты. Подобные онлайн-казино часто работают в оффшорных юрисдикциях, например в Кюрасао, где уровень регулирования значительно ниже.
Регуляторы отмечают, что из-за этого пользователи могут быть менее защищены от мошенничества или проблем с зависимостью.
После публикации результатов исследования компании-разработчики заявили, что работают над усовершенствованием систем безопасности. В OpenAI сообщили, что ChatGPT создан таким образом, чтобы отказываться выполнять запросы, которые способствуют незаконной деятельности.
У Microsoft также отметили, что их помощник Copilot имеет несколько уровней защиты, призванных предотвращать опасные или вредные рекомендации.
Впрочем, результаты расследования усилили дискуссию о том, как генеративные ИИ-системы работают с чувствительными темами – в частности психическим здоровьем, азартными играми или незаконной деятельностью.
В Великобритании регуляторы уже предупредили, что онлайн-платформы, включая сервисы искусственного интеллекта, должны лучше контролировать распространение опасного или незаконного контента. Такие требования предусматривает закон Online Safety Act.


