Дезинформация и потеря трафика
Компании, создающие генеративные ИИ, отмечают, что их чат-боты добавляют ссылки на источники в свои ответы. Однако генеральный директор Cloudflare Мэтью Принс предупреждает: пользователи все меньше интересуются первичными материалами, а переход по ссылкам почти прекратился, сообщает 24 Канал со ссылкой на Axios.
Смотрите также Илон Маск хочет "исправить" свой ИИ Grok, потому что тот не согласен с его взглядами
- По словам Принса, еще десять лет назад Google направлял одного посетителя на каждые две страницы, которые сканировал.
- Полгода назад соотношение упало до одного на шесть, а сейчас – только один на каждые 18.
- Ситуация с ИИ еще хуже: OpenAI отправляет одного пользователя на каждые 1500 страниц, которые сканирует, тогда как Anthropic – одного на 60 000 страниц.
Это означает, что пользователи чат-ботов слепо доверяют тому, что им выдает искусственный интеллект, даже не проверяя правдивость и точность информации в источниках. Принс считает это экзистенциальной угрозой для издателей: трафик падает, а вместе с ним и доходы от рекламы. При этом доверие к чат-ботам только растет, и все больше людей воспринимают их ответы как окончательную информацию, не прибегая к проверке или глубокому анализу.
Cloudflare хочет бороться с несанкционированным сканированием сайтов
Чтобы противодействовать несанкционированному сканированию содержимого сайтов, Cloudflare разрабатывает инструмент для блокировки ботов, которые обходят запрет в файле robots.txt. В 2024 году многие СМИ сообщали, что ИИ-компании игнорируют этот протокол и продолжают собирать контент для тренировки языковых моделей.
Новый инструмент от Cloudflare под названием AI Labyrinth отправляет искусственно сгенерированные страницы, которые кажутся правдоподобными, но не содержат реального контента. На этих страницах содержатся ссылки, а там еще одни ссылки, а дальше снова и снова новые ссылки. Таким образом система заводит бота в лабиринт страниц, из которого невозможно выбраться и невозможно найти какую-то информацию. Это заставляет ИИ тратить время и ресурсы впустую. По словам Принса, компания уже давно борется с правительственными хакерами и злоумышленниками, а потому способна противостоять также и технологическим гигантам, которые нарушают правила.
Но у этого есть и другая сторона. Если люди не хотят проверять источники, то запрет сканирования никак не поможет сайту получать трафик. Так, информация того или иного сайта не будет попадать в выдачу искусственного интеллекта. Но это и означает, что ссылка на него никогда не появится в данных чат-бота. Если пользователь ищет что-то в условном ChatGPT или Perplexity, то он удовлетворится тем, что ему выдаст из других сайтов, а сайт, который запретил сканирование, потеряет даже тот мизерный шанс на посещение, который имел, если бы его показало в ответе бота.
Призыв к справедливой компенсации
Мэтью Принс призывает издателей не оставаться в стороне и добиваться честной компенсации за использование их контента в скомпилированных ответах ИИ. Ведь пока ИИ-боты становятся все популярнее, прибыли медиа-компаний уменьшаются. И если не принять меры, цифровая инфраструктура, держащаяся на качественном контенте, рискует разрушиться.
Большинство медиа живут с рекламы. Нет просмотров – нет прибыли. Если не будет прибыли, издания просто закроются. И тогда все эти чат-боты, которые берут информацию с сайтов, просто больше не будут иметь источников. Таким образом разработчикам ИИ должно быть выгодно, чтобы источники информации держались на плаву и продолжали публиковать.