Компания Anthropic, которая разрабатывает языковую модель Claude, вероятно, начала масштабную очистку аккаунтов, связанных с использованием сервиса с территории России. Об этом сообщают российские издания со ссылкой на пользователей, которые потеряли доступ к своим учетным записям.

Смотрите также Anthropic делает лучший подарок, значительно повышая лимиты использования Claude

Почему Anthropic начала блокировать аккаунты?

По данным источника, под блокировку попали уже несколько сотен человек. Среди них – IT-специалисты, предприниматели и пользователи, которые активно интегрировали Claude в рабочие процессы. Некоторые из них называют нейросеть своими "внешними мозгами", ведь годами накапливали в чатах архитектуру проектов, аналитические материалы, рабочие инструкции и персонализированные сценарии взаимодействия с ИИ.

Часть пользователей утверждает, что доступ был потерян без возможности восстановления данных. В качестве компенсации Anthropic якобы возвращает деньги за активные подписки, однако сами аккаунты остаются заблокированными.

Claude является одной из самых популярных крупных языковых моделей наряду с ChatGPT и DeepSeek. Однако сервис официально недоступен на территории России. Несмотря на это, пользователи годами обходили ограничения с помощью VPN, иностранных номеров телефонов и сторонних платежных инструментов.

Эксперт по AI Дмитрий Антипов предположил, что именно использование таких "серых схем" могло стать главной причиной нынешней волны блокировок. По его словам, Anthropic может проводить внутреннюю оптимизацию систем безопасности и одновременно ужесточать проверки для неподтвержденных или подозрительных аккаунтов.

Еще одно объяснение озвучил эксперт по внедрению искусственного интеллекта Роман Адаменко. Он считает, что система могла автоматически реагировать на нестабильное подключение пользователей. Постоянная смена IP-адресов, регионов и VPN-серверов может выглядеть для алгоритмов Anthropic как подозрительная активность или нарушение правил использования платформы.

Как пишет Dev by, на данный момент Anthropic официально не комментировала сообщения о массовых блокировках. Также неизвестно, идет ли речь о разовой волне проверок, или компания начала системно бороться с использованием сервиса в регионах, где Claude формально недоступен.

Ситуация также показала риски использования облачных AI-сервисов как основного рабочего инструмента без резервного копирования. Для многих пользователей чаты с нейросетью фактически стали базой знаний, хранилищем идей и рабочей памятью для сложных проектов. Потеря доступа к аккаунту в таком случае означает потерю большого массива наработанной информации.

На фоне стремительного развития генеративного ИИ подобные инциденты могут усилить дискуссии о зависимости пользователей и бизнеса от закрытых AI-платформ, которые имеют полный контроль над доступом к данным и сервисам.