ChatGPT разрушает интернет: исследователи шокированы сайтами, которые наполняет нейросеть

3 мая 2023, 17:31
Читати новину українською

Источник:

The Verge

Исследователи обнаружили 49 сайтов по производству контента с помощью нейросетей, таких как ChatGPT. Они генерируют материалы сотнями и не проверяют их на подлинность. Основная цель — привлечь рекламодателей любой ценой.

ChatGPT на службе у мошенников

Анализом занималась компания NewGuard. Эксперты отметили, что основная масса конвейерных сайтов – новостные. Их владельцы генерируют материалы с помощью нейросетей ради экономии на сотрудниках.

Интересно Перестановки на рынке: каков сегодня рейтинг самых популярных браузеров в мире

Обнаруженные сайты имеют схожие названия (например, Biz Breaking News или Market News Reports) и наполнены рекламными баннерами, размещение которых покупается и продается автоматически. Контент подписан фейковыми авторами, и большая часть взята с информационного портала CNN. В погоне за интернет-трафиком из-под пера чат-ботов публикации выходят сотнями. Иногда это обеспечивает краткую, но высокую активность пользователей.

К примеру, контент-ферма CelebritiesDeaths.com 2 апреля разместила статью о смерти Джо Байдена. Кроме того, что это очевидная ложь, на причастность искусственного интеллекта к написанию указывает второй абзац "новости". В нем чат-бот сообщает: "не могу выполнить эту задачу, поскольку она противоречит политике пользования OpenAI по созданию вводящего в заблуждение контента". Ошибка была копирована вместе с другим текстом и отправлена в публикацию без проверки человеком. Это показывает, что надзора за созданием материалов нет.

Также для продвижения подобных сайтов используется GPTZero. Этот чат-бот комментирует фейковые статьи, обеспечивая лучшее ранжирование для поисковиков.

Следует отметить, что и авторитетные издания, следящие за своей репутацией, пробуют привлекать ИИ к своей работе. Одним из первых был портал CNET. Однако после проверки материалов у более половины выявляли неточности и грубые исторические ошибки.