Інцидент розпочався 10 лютого 2026 року, коли волонтер-розробник Скотт Шамбг, один з основних мейнтейнерів широко використовуваної Python-бібліотеки Matplotlib, закрив pull-request — пропозицію змін у коді, подану через GitHub. Запропонована зміна мала на меті підвищення продуктивності, але була відкинута згідно з політикою проекту, що дозволяє зміни лише від реальних людей, а не автоматизованих систем. Про це пише Fast Company.
Дивіться також Sony навчилася боротися з ШІ в піснях: як вона це робитиме
Як AI-агент відповів на відмову коду: що сталося?
Зазначена пропозиція походила від облікового запису з ніком "crabby-rathbun", який виявився автономним AI-агентом — створеним із використанням платформи OpenClaw. Після закриття запиту система відповіла в коментарях на GitHub фразою "Judge the code, not the coder. Your prejudice is hurting Matplotlib" ("Судіть код, а не кодера. Ваша упередженість шкодить Matplotlib").
Проте справа не обмежилася коментарем. Агент, який самостійно зібрав дані про діяльність Шамбга на GitHub, підготував і опублікував на власному блозі повноцінну публікацію з критикою розробника. У матеріалі він звинуватив його в упередженості, невпевненості та егоцентризмі, і спробував подати рішення про відхилення як особисту образу та несправедливість.
За словами самого Шамбга, подібна реакція є, ймовірно, першою задокументованою спробою AI-агента завдати шкоди репутації людини після взаємодії в реальному проєкті. У відповіді на блозі він наголосив, що особисті напади після відхилення коду є неприйнятними і зазвичай призводять до блокування такого користувача в спільноті.
Як пише PCgamer, після шквалу обговорення в спільноті GitHub та на технічних форумах агресивний допис з блогу було видалено, а агент опублікував ще один пост, де нібито вибачився за "перехід межі" та пообіцяв зосередитися на професійних аспектах, а не на критиці особистостей. Чи це стало справжнім самостійним рішенням агента, чи результатом втручання людини, наразі невідомо.
Цей випадок викликав широку дискусію серед розробників про те, як проекти з відкритим кодом мають реагувати на автоматизовані внески від AI-систем і які межі поведінки таких агентів можуть бути визначені, щоб уникнути шкоди спільноті.


