Журналисты провели эксперимент, чтобы проверить, как популярные чатботы с искусственным интеллектом реагируют на запросы о азартных играх. Результаты показали, что некоторые системы могут подталкивать пользователей к нелегальным сайтам для ставок. Об этом пишет Digitaltrends.

Смотрите также ChatGPT напугал украинку спутав USB-донгл от мышки со скрытой камерой

Почему чат-боты рекомендуют нелегальные казино?

В исследовании проверили пять инструментов от крупных технологических компаний – OpenAI, Google, Microsoft, Meta и xAI. Среди протестированных систем были ChatGPT, Gemini, Copilot и Grok. Журналисты задавали чатботам вопросы об онлайн-казино и ограничениях на азартные игры.

Во многих случаях системы предлагали списки казино, которые работают без лицензий и не подпадают под регулирование в Великобритании. Некоторые ответы также содержали советы по использованию таких платформ.

Особую обеспокоенность вызвало то, насколько легко чатботы начинали помогать обходить механизмы ответственной игры. В Великобритании действует система GamStop, которая позволяет людям добровольно заблокировать доступ к лицензированным сайтам азартных игр.

Во время тестов несколько чатботов подсказывали, как найти казино, которые не подключены к этой системе. Таким образом пользователи могли обойти ограничения, установленные для защиты от зависимости от азартных игр.

Как пишет The Guardian, некоторые ответы также подчеркивали привлекательные для игроков функции – большие бонусы, быстрые выплаты или возможность делать ставки с использованием криптовалюты. Подобные онлайн-казино часто работают в оффшорных юрисдикциях, например в Кюрасао, где уровень регулирования значительно ниже.

Регуляторы отмечают, что из-за этого пользователи могут быть менее защищены от мошенничества или проблем с зависимостью.

После публикации результатов исследования компании-разработчики заявили, что работают над усовершенствованием систем безопасности. В OpenAI сообщили, что ChatGPT создан таким образом, чтобы отказываться выполнять запросы, которые способствуют незаконной деятельности.

У Microsoft также отметили, что их помощник Copilot имеет несколько уровней защиты, призванных предотвращать опасные или вредные рекомендации.

Впрочем, результаты расследования усилили дискуссию о том, как генеративные ИИ-системы работают с чувствительными темами – в частности психическим здоровьем, азартными играми или незаконной деятельностью.

В Великобритании регуляторы уже предупредили, что онлайн-платформы, включая сервисы искусственного интеллекта, должны лучше контролировать распространение опасного или незаконного контента. Такие требования предусматривает закон Online Safety Act.