В предыдущей работе, проведенной Нью-Йоркским университетом, рассматривались языки Python, C и Verilog. Исследователи тогда воспользовались помощью искусственного интеллекта Copilot и обнаружили, что около 40 процентов приложений, в создании которых он участвовал, включают в себя уязвимости.

Интересно Искусственный интеллект помогает лечить пациентов с инсультом – выздоравливает втрое больше

Результаты исследования

  • В Стэнфорде проанализировали код Python, JavaScript и C, а также систему искусственного интеллекта Codex, разработанную лабораторией OpenAI в Сан-Франциско. Она училась на миллиардах строк открытого кода, чтобы предложить свои варианты, учитывая контекст уже написанного.
  • К экспериментам привлекли 47 человек с разным уровнем профессионализма – от студентов-бакалавров до специалистов.
  • В группе с AI-помощником безопасные (в смысле возможной кибератаки) решения реализовывались в 67 процентах случаев, во второй группе, работавшей без помощи алгоритмов – в 79%.
  • Из этого сделали вывод, что к искусственному интеллекту в качестве помощника следует относиться с осторожностью, особенно если сам разработчик неопытен.

Инструменты генерации кода на основе искусственного интеллекта – это действительно увлекательная разработка, и вполне понятно, что так многие стремятся их использовать. Однако эти инструменты вызывают проблемы, над которыми стоит задуматься, чтобы двигаться вперед,
– говорит Нил Перри, аспирант Стэнфорда и ведущий соавтор исследования.

С развитием технологий в будущем новые нейросети, возможно, смогут улучшить показатели. Сегодня активно ведется разработка средств, генерирующих уже готовые участки кода, позволяя значительно ускорить разработку программ. Более того, многие разработчики уже сейчас тестируют возможности нейросетей, в частности новую ChatGPT. Однако ее еще не проверяли на умение писать безопасный код.