ИИ-ассистенты генерируют код, полный ошибок — что делать разработчикам
Исследование Ox Security выявило, что в коде, сгенерированном с помощью ИИ, часто встречаются архитектурные и кибербезопасностные ошибки, такие как избыточные комментарии, слепое следование шаблонам и отказ от рефакторинга. Аналогичные выводы подтверждает статья Ana Bildea, в которой отмечается, что техническая задолженность в ИИ-стеке растёт экспоненциально из-за хаоса версий моделей, фрагментации и избыточности кода.
Опасности и вызовы, связанные с генерацией кода ИИ
По данным InfoQ, исследование компании Ox Security, опубликованное в конце октября под названием «Army of Juniors: The AI Code Security Crisis», выявило серьёзные проблемы в коде, сгенерированном с помощью ИИ. Эксперты проанализировали 300 открытых проектов, из которых 50 были полностью или частично созданы с участием ИИ, и обнаружили, что в подавляющем большинстве случаев в таких проектах встречаются типичные ошибки и антипаттерны.
В отчёте перечислены 10 наиболее часто встречающихся проблем, среди которых:
- Чрезмерное количество комментариев, которые усложняют работу человека при проверке кода.
- Слепое следование шаблонам, когда ИИ создаёт код по типовым схемам, не учитывая специфику приложения.
- Отказ от рефакторинга, что приводит к сложному и нечитаемому коду.
- Избыточная спецификация, когда ИИ учитывает маловероятные сценарии, не имеющие практического смысла.
- Повторение ошибок, когда ИИ генерирует одинаковые баги в разных частях кода.
Эти проблемы, по мнению Ox Security, требуют коренного изменения подхода к работе с ИИ в разработке. Компания предлагает создать новую роль разработчика, которая будет фокусироваться на архитектурных решениях и стратегическом управлении, оставляя ИИ в качестве инструмента для реализации задач. В области безопасности отмечается, что традиционная ручная проверка кода становится недостаточной. Вместо этого, организациям рекомендуется встраивать требования безопасности непосредственно в промпты ИИ и внедрять автономные инструменты, способные справляться с высокой скоростью генерации кода.
Рост технической задолженности в стеке ИИ
В отдельном материале на Medium, автор Ana Bildea пришла к аналогичным выводам, но рассматривает проблему с более системной точки зрения. В статье «The Hidden Technical Debt Inside Your Generative AI Stack» она отмечает, что техническая задолженность, связанная с ИИ, накапливается нелинейно, в отличие от традиционной, которая растёт постепенно. Скорость эволюции кодогенерирующих ассистентов, частая смена версий моделей и фрагментация внутри организаций создают условия для экспоненциального роста сложности.
Bildea выделяет три основных вектора, способствующих этой проблеме:
- Хаос версий моделей, вызванный быстрым развитием продуктов ИИ.
- Избыточность кода, аналогичная проблеме, описанной Ox Security.
- Фрагментация внутри компании, когда разные группы используют разные модели и подходы.
Эксперт подчёркивает, что эти факторы взаимодействуют друг с другом, ускоряя рост технической задолженности. В её примерах компании, изначально уверенно внедрявшие ИИ, в течение 18 месяцев могли столкнуться с проблемой, когда система становится настолько сложной, что невозможно выпускать новые функции.
Для решения этой ситуации Bildea предлагает подход, основанный на корпоративном управлении: создание прозрачности, согласованности политики управления жизненным циклом. Такой подход позволяет отслеживать, какие модели используются, как они работают и как их применяют разные группы. Важной частью является также выстраивание единого понимания и подхода к использованию ИИ внутри команды, что облегчает совместное отладку и контроль качества.
Интересно: Как обеспечить управляемость и предсказуемость в условиях, когда ИИ создаёт код быстрее, чем человек может его понять и контролировать?

Управление ИИ-кодом: между скоростью и безопасностью
Когда ИИ пишет код — кто его проверяет?
Искусственный интеллект, генерирующий код, обещает ускорить разработку, снизить затраты и освободить разработчиков от рутины. На практике, однако, это приводит к новым формам технической задолженности, которые сложно заметить в начале, но которые становятся критичными со временем.
Ox Security обнаружила, что ИИ часто повторяет типичные ошибки, создает избыточный код и не учитывает специфику проекта. Это не случайно: ИИ обучен на существующих примерах, и если в этих примерах много ошибок — он их копирует.
Ключевой момент: ИИ не создаёт идеальный код. Он копирует поведение, которое уже есть в мире программирования — включая его слабые стороны.
Скрытая задолженность: когда ИИ становится источником сложности
Ana Bildea, в своём анализе, подчёркивает, что техническая задолженность в проектах, где используется генерация кода ИИ, растёт не линейно, а экспоненциально. Это связано с тем, что:
- Модели быстро меняются, и старый код становится несовместимым с новыми версиями.
- Команды используют разные подходы, что приводит к внутренней фрагментации.
- Инструменты и промпты не стандартизированы, что создаёт хаос в подходах к разработке.
В таких условиях даже опытные разработчики могут потерять контроль над системой. Ускорение разработки сменяется ускорением роста сложности.
Ключевой момент: ИИ создаёт иллюзию простоты. Но чем быстрее он пишет код, тем сложнее становится его понимание и управление.
Что делать: стратегия управления ИИ-кодом
Решение проблемы не в том, чтобы отказаться от ИИ. Решение в том, чтобы изменить подход к его использованию. Ox Security предлагает создать новую роль — разработчика, фокусирующегося на архитектуре и управлении, а не на рутинной реализации. Bildea рекомендует:
- Внедрять политики управления жизненным циклом ИИ-моделей.
- Создавать единые промпты и стандарты для работы с ИИ.
- Обеспечивать прозрачность и согласованность в подходах к разработке.
Это не только технические рекомендации. Это признание того, что ИИ не заменяет человека, а требует от него новых навыков: умения управлять сложностью, видеть систему в целом и уметь задавать правильные вопросы.
Важный нюанс: ИИ — не помощник, а новый участник процесса разработки, который требует нового уровня управления и контроля.
Системные последствия и локальный контекст
Для российского рынка внедрение ИИ в разработку означает не только ускорение, но и необходимость строить внутренние процессы с учётом рисков. Компании, которые не будут учитывать специфику ИИ-кода и не будут внедрять системы контроля, рискуют столкнуться с ростом технической задолженности и снижением качества продуктов.
В условиях ограниченного доступа к зарубежным моделям и платформам, российские разработчики могут столкнуться с ещё большими сложностями в управлении ИИ-кодом. Это подчеркивает важность внутренней стандартизации и инвестиций в обучение сотрудников работе с новыми инструментами.
Важный нюанс: Внедрение ИИ в разработку — это не переход на новые инструменты, а сдвиг в том, как мы организуем работу, устанавливаем стандарты и понимаем сложность.
Рост энергетической нагрузки и киберугроз
Внедрение ИИ в разработку сопряжено не только с техническими вызовами, но и с ростом энергозатрат. По данным Мирового энергетического агентства, инвестиции в дата-центры в этом году превысят $580 млрд, что на $40 млрд больше, чем будет потрачено на поиск новых источников нефти [!]. Это указывает на то, что ИИ становится значимым потребителем энергии, что требует адаптации энергетической стратегии и усиления инвестиций в возобновляемые источники.
Кроме того, увеличение зависимости от ИИ открывает новые векторы угроз. Злоумышленники уже используют ИИ-платформы для создания вредоносного ПО, способного адаптироваться и менять поведение в реальном времени [!]. Такие атаки становятся сложнее для обнаружения и требуют пересмотра подходов к кибербезопасности.
Ключевые угрозы, связанные с ИИ-кодом, включают:
- Атаки с инъекцией запроса.
- Утечки данных через автоматизированные процессы.
- Вредоносные модели, используемые для генерации кода.
В условиях роста таких угроз, безопасность жизненного цикла разработки (SDLC) становится критически важной. Компаниям необходимо внедрять меры защиты, включая аудит ИИ-моделей и обучение сотрудников работе с новыми угрозами [!].
Важный нюанс: Рост энергозатрат и киберугроз требует комплексного подхода, включающего как технические, так и организационные меры.
Перспективы развития и адаптация рынка
Современные ИИ-агенты, способные автоматизировать обработку неструктурированных данных, становятся важным инструментом в бизнесе и госуправлении. Они позволяют сократить время на рутинные операции и повысить их качество, интегрируясь в существующую ИТ-инфраструктуру через API [!]. Однако их внедрение требует адаптации процессов и повышения квалификации специалистов.
Для IT-компаний в России актуальным становится вопрос: как сохранить конкурентоспособность в условиях автоматизации? Ответ лежит в развитии навыков, связанных с кибербезопасностью, анализом данных и управлением ИИ-проектами [!]. Специалисты, умеющие работать с ИИ, изучать его модели и выявлять уязвимости, становятся востребованными.
Важный нюанс: Развитие ИИ требует не только новых технологий, но и новых компетенций. Без них компании рискуют упустить преимущества, а также столкнуться с новыми рисками.
Заключение
Внедрение ИИ в разработку программного обеспечения — это не только технологический сдвиг. Это изменение парадигмы, которое затрагивает архитектуру, процессы, стандарты и даже культуру работы. Компании, которые не будут учитывать специфику ИИ-кода и не будут внедрять системы контроля, рискуют столкнуться с ростом технической задолженности, снижением качества продуктов и увеличением киберугроз.
В условиях роста энергозатрат и киберугроз, а также ускорения эволюции ИИ-моделей, важно строить стратегию, которая будет учитывать не только возможности, но и риски. Это требует инвестиций в обучение, стандартизацию, аудит и управление сложностью — ключевых компонентов устойчивого развития в эпоху искусственного интеллекта.
Источник: infoq.com