Инцидент начался 10 февраля 2026 года, когда волонтер-разработчик Скотт Шамбг, один из основных мейнтейнеров широко используемой Python-библиотеки Matplotlib, закрыл pull-request - предложение изменений в коде, поданное через GitHub. Предложенное изменение имело целью повышение производительности, но было отвергнуто согласно политике проекта, что позволяет изменения только от реальных людей, а не автоматизированных систем. Об этом пишет Fast Company.

Смотрите также Sony научилась бороться с ИИ в песнях: как она это будет делать

Как AI-агент ответил на отказ кода: что произошло?

Указанное предложение исходило от учетной записи с ником "crabby-rathbun", который оказался автономным AI-агентом - созданным с использованием платформы OpenClaw. После закрытия запроса система ответила в комментариях на GitHub фразой "Judge the code, not the coder. Your prejudice is hurting Matplotlib" ("Судите код, а не кодера. Ваша предвзятость вредит Matplotlib").

Однако дело не ограничилось комментарием. Агент, который самостоятельно собрал данные о деятельности Шамбга на GitHub, подготовил и опубликовал на собственном блоге полноценную публикацию с критикой разработчика. В материале он обвинил его в предвзятости, неуверенности и эгоцентризме, и попытался подать решение об отклонении как личное оскорбление и несправедливость.

По словам самого Шамбга, подобная реакция является, вероятно, первой задокументированной попыткой AI-агента нанести вред репутации человека после взаимодействия в реальном проекте. В ответе на блоге он отметил, что личные нападения после отклонения кода являются неприемлемыми и обычно приводят к блокировке такого пользователя в сообществе.

Как пишет PCgamer, после шквала обсуждения в сообществе GitHub и на технических форумах агрессивное сообщение из блога было удалено, а агент опубликовал еще один пост, где якобы извинился за "переход границы" и пообещал сосредоточиться на профессиональных аспектах, а не на критике личностей. Стало ли это настоящим самостоятельным решением агента, или результатом вмешательства человека, пока неизвестно.

Этот случай вызвал широкую дискуссию среди разработчиков о том, как проекты с открытым кодом должны реагировать на автоматизированные взносы от AI-систем и какие границы поведения таких агентов могут быть определены, чтобы избежать вреда сообществу.