Згідно з дослідженням CodeRabbit, код, створений з використанням AI-інструментів, у середньому містять 10,83 проблеми. Для порівняння, у коді, написаному людьми, цей показник становить 6,45. У підсумку це призводить до довших перевірок і підвищує ризик того, що помилки потраплять у фінальну версію продукту. Про це повідомляє 24 Канал із посиланням на CodeRabbit.
Дивіться також Авторитетний словник назвав слово року: можливо, ви його не чули, але точно бачили
Чому AI-згенерований код виявився проблемнішим за людський?
Загалом AI-згенерований код має в 1,7 раза більше проблем. Водночас кількість критичних помилок у ньому вища у 1,4 раза, а серйозних – у 1,7 раза. Тобто йдеться не лише про дрібні недоліки, а й про дефекти, які можуть суттєво вплинути на безпеку та стабільність програм.
Найбільше зростання кількості помилок зафіксовано в категоріях логіки та коректності – у 1,75 раза більше, ніж у людському коді. Проблеми з якістю та підтримуваністю зросли у 1,64 раза, з безпекою – у 1,57 раза, а з продуктивністю – у 1,42 раза. У звіті зазначається, що AI часто додає серйозні дефекти, які згодом змушені виправляти рецензенти-люди.
Серед типових проблем, які найчастіше виникають у AI-коді, дослідники називають неправильну роботу з паролями, небезпечні посилання на об'єкти, вразливості типу XSS та небезпечну десеріалізацію. Саме ці помилки можуть стати причиною серйозних інцидентів у сфері кібербезпеки.
Директор з AI у CodeRabbit Девід Локер зазначає, що інструменти автоматичного програмування значно збільшують обсяги коду, але водночас створюють передбачувані та вимірювані слабкі місця. За його словами, компаніям доводиться активно працювати над зниженням цих ризиків.
Як пише TechRadar, дослідження не робить AI виключно негативним фактором. На ранніх етапах розробки такі інструменти справді підвищують ефективність. Наприклад, у AI-згенерованому коді виявили в 1,76 раза менше орфографічних помилок і в 1,32 раза менше проблем, пов'язаних із тестованістю.
Автори звіту підкреслюють, що результати демонструють зміну ролей у розробці програмного забезпечення. Йдеться не про витіснення людей, а про перехід до моделі, де фахівці більше зосереджуються на контролі, перевірці та управлінні AI, тоді як машини беруть на себе рутинні завдання.
Крім того, AI-моделі, зокрема сімейство GPT від OpenAI, постійно вдосконалюються. Очікується, що з часом вони генеруватимуть точніший і менш помилковий код, хоча нинішні дані показують: без уважного людського контролю AI-програмування поки що не є безпечнішою альтернативою.
Чому понад половина науковців уже використовують ШІ?
Понад 50% дослідників використовували інструменти штучного інтелекту під час рецензування наукових статей. Про це свідчить опитування видавничої компанії Frontiers, у якому взяли участь близько 1 600 академіків зі 111 країн. Майже чверть респондентів зазначили, що за останній рік почали користуватися ШІ для peer review частіше.
Опитування Frontiers також деталізує, як саме рецензенти застосовують AI-інструменти. 59% з тих, хто використовує ШІ, залучають його для допомоги у написанні текстів рецензій. Ще 29% застосовують його для узагальнення змісту рукописів, пошуку прогалин або перевірки посилань. 28% використовують ШІ для виявлення можливих порушень, зокрема плагіату чи дублювання зображень.


