Исследование: ИИ-генераторы кода создают уязвимости в системе безопасности

hack_b-min-1.png

Группа исследователей из Стэнфорда заявила, что использование систем генерирования кода на базе ИИ с большей вероятностью создает уязвимости безопасности. Об этом пишет TechCrunch.

Основное внимание ученые уделили системе Codex, представленной компанией OpenAI в августе 2021 года. Они привлекли 47 разработчиков разного уровня квалификации для решения проблем с безопасностью на нескольких языках программирования, включая Python, JavaScript и C.

Согласно исследованию, использовавшие Codex участники эксперимента чаще писали неправильный и «небезопасный» код по сравнению с контрольной группой. Также применявшие ИИ программисты чаще выражали уверенность в своих решениях.

Эксперты считают, что разработчики без соответствующих знаний в области кибербезопасности должны осторожно использовать подобные инструменты.

«[По этим причинам] мы в значительной степени выражаем осторожность в отношении использования этих инструментов для замены обучения начинающих разработчиков методам надежного кодирования», — добавила Шривастава.
Напомним, в мае один из разработчиков обнаружил, что Copilot «слил» закрытые ключи от криптокошельков.

В октябре группа программистов объявила о подаче коллективного иска против Microsoft за обучение ИИ с помощью их кода.

В июле 2021 года Copilot заподозрили в копировании защищенных авторским правом фрагментов свободного ПО.