Компанія Anthropic, яка розробляє мовну модель Claude, ймовірно, почала масштабне очищення акаунтів, пов'язаних із використанням сервісу з території Росії. Про це повідомляють російські видання з посиланням на користувачів, які втратили доступ до своїх облікових записів.

Дивіться також Anthropic робить найкращий подарунок, значно підвищуючи ліміти використання Claude

Чому Anthropic почала блокувати акаунти?

За даними джерела, під блокування потрапили вже кілька сотень людей. Серед них – IT-фахівці, підприємці та користувачі, які активно інтегрували Claude у робочі процеси. Деякі з них називають нейромережу своїми "зовнішніми мізками", адже роками накопичували в чатах архітектуру проєктів, аналітичні матеріали, робочі інструкції та персоналізовані сценарії взаємодії з ШІ.

Частина користувачів стверджує, що доступ було втрачено без можливості відновлення даних. Як компенсацію Anthropic нібито повертає гроші за активні підписки, однак самі акаунти залишаються заблокованими.

Claude є однією з найпопулярніших великих мовних моделей поряд із ChatGPT та DeepSeek. Проте сервіс офіційно недоступний на території Росії. Попри це, користувачі роками обходили обмеження за допомогою VPN, іноземних номерів телефонів і сторонніх платіжних інструментів.

Експерт з AI Дмитро Антіпов припустив, що саме використання таких "сірих схем" могло стати головною причиною нинішньої хвилі блокувань. За його словами, Anthropic може проводити внутрішню оптимізацію систем безпеки та одночасно посилювати перевірки для непідтверджених або підозрілих акаунтів.

Ще одне пояснення озвучив експерт із впровадження штучного інтелекту Роман Адаменко. Він вважає, що система могла автоматично реагувати на нестабільне підключення користувачів. Постійна зміна IP-адрес, регіонів і VPN-серверів може виглядати для алгоритмів Anthropic як підозріла активність або порушення правил використання платформи.

Як пише Dev by, наразі Anthropic офіційно не коментувала повідомлення про масові блокування. Також невідомо, чи йдеться про разову хвилю перевірок, чи компанія почала системно боротися з використанням сервісу в регіонах, де Claude формально недоступний.

Ситуація також показала ризики використання хмарних AI-сервісів як основного робочого інструменту без резервного копіювання. Для багатьох користувачів чати з нейромережею фактично стали базою знань, сховищем ідей і робочою пам'яттю для складних проєктів. Втрата доступу до акаунта в такому випадку означає втрату великого масиву напрацьованої інформації.

На тлі стрімкого розвитку генеративного ШІ подібні інциденти можуть посилити дискусії про залежність користувачів і бізнесу від закритих AI-платформ, які мають повний контроль над доступом до даних і сервісів.