Ноябрь 2025   |   Обзор события   | 7

ИИ-ассистенты генерируют код, полный ошибок — что делать разработчикам

Исследование Ox Security выявило, что в коде, сгенерированном с помощью ИИ, часто встречаются архитектурные и кибербезопасностные ошибки, такие как избыточные комментарии, слепое следование шаблонам и отказ от рефакторинга. Аналогичные выводы подтверждает статья Ana Bildea, в которой отмечается, что техническая задолженность в ИИ-стеке растёт экспоненциально из-за хаоса версий моделей, фрагментации и избыточности кода.

ИСХОДНЫЙ НАРРАТИВ

Опасности и вызовы, связанные с генерацией кода ИИ

По данным InfoQ, исследование компании Ox Security, опубликованное в конце октября под названием «Army of Juniors: The AI Code Security Crisis», выявило серьёзные проблемы в коде, сгенерированном с помощью ИИ. Эксперты проанализировали 300 открытых проектов, из которых 50 были полностью или частично созданы с участием ИИ, и обнаружили, что в подавляющем большинстве случаев в таких проектах встречаются типичные ошибки и антипаттерны.

В отчёте перечислены 10 наиболее часто встречающихся проблем, среди которых:

  • Чрезмерное количество комментариев, которые усложняют работу человека при проверке кода.
  • Слепое следование шаблонам, когда ИИ создаёт код по типовым схемам, не учитывая специфику приложения.
  • Отказ от рефакторинга, что приводит к сложному и нечитаемому коду.
  • Избыточная спецификация, когда ИИ учитывает маловероятные сценарии, не имеющие практического смысла.
  • Повторение ошибок, когда ИИ генерирует одинаковые баги в разных частях кода.

Эти проблемы, по мнению Ox Security, требуют коренного изменения подхода к работе с ИИ в разработке. Компания предлагает создать новую роль разработчика, которая будет фокусироваться на архитектурных решениях и стратегическом управлении, оставляя ИИ в качестве инструмента для реализации задач. В области безопасности отмечается, что традиционная ручная проверка кода становится недостаточной. Вместо этого, организациям рекомендуется встраивать требования безопасности непосредственно в промпты ИИ и внедрять автономные инструменты, способные справляться с высокой скоростью генерации кода.

Рост технической задолженности в стеке ИИ

В отдельном материале на Medium, автор Ana Bildea пришла к аналогичным выводам, но рассматривает проблему с более системной точки зрения. В статье «The Hidden Technical Debt Inside Your Generative AI Stack» она отмечает, что техническая задолженность, связанная с ИИ, накапливается нелинейно, в отличие от традиционной, которая растёт постепенно. Скорость эволюции кодогенерирующих ассистентов, частая смена версий моделей и фрагментация внутри организаций создают условия для экспоненциального роста сложности.

Bildea выделяет три основных вектора, способствующих этой проблеме:

  • Хаос версий моделей, вызванный быстрым развитием продуктов ИИ.
  • Избыточность кода, аналогичная проблеме, описанной Ox Security.
  • Фрагментация внутри компании, когда разные группы используют разные модели и подходы.

Эксперт подчёркивает, что эти факторы взаимодействуют друг с другом, ускоряя рост технической задолженности. В её примерах компании, изначально уверенно внедрявшие ИИ, в течение 18 месяцев могли столкнуться с проблемой, когда система становится настолько сложной, что невозможно выпускать новые функции.

Для решения этой ситуации Bildea предлагает подход, основанный на корпоративном управлении: создание прозрачности, согласованности политики управления жизненным циклом. Такой подход позволяет отслеживать, какие модели используются, как они работают и как их применяют разные группы. Важной частью является также выстраивание единого понимания и подхода к использованию ИИ внутри команды, что облегчает совместное отладку и контроль качества.

Интересно: Как обеспечить управляемость и предсказуемость в условиях, когда ИИ создаёт код быстрее, чем человек может его понять и контролировать?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Управление ИИ-кодом: между скоростью и безопасностью

Когда ИИ пишет код — кто его проверяет?

Искусственный интеллект, генерирующий код, обещает ускорить разработку, снизить затраты и освободить разработчиков от рутины. На практике, однако, это приводит к новым формам технической задолженности, которые сложно заметить в начале, но которые становятся критичными со временем.

Ox Security обнаружила, что ИИ часто повторяет типичные ошибки, создает избыточный код и не учитывает специфику проекта. Это не случайно: ИИ обучен на существующих примерах, и если в этих примерах много ошибок — он их копирует.

Ключевой момент: ИИ не создаёт идеальный код. Он копирует поведение, которое уже есть в мире программирования — включая его слабые стороны.

Скрытая задолженность: когда ИИ становится источником сложности

Ana Bildea, в своём анализе, подчёркивает, что техническая задолженность в проектах, где используется генерация кода ИИ, растёт не линейно, а экспоненциально. Это связано с тем, что:

  • Модели быстро меняются, и старый код становится несовместимым с новыми версиями.
  • Команды используют разные подходы, что приводит к внутренней фрагментации.
  • Инструменты и промпты не стандартизированы, что создаёт хаос в подходах к разработке.

В таких условиях даже опытные разработчики могут потерять контроль над системой. Ускорение разработки сменяется ускорением роста сложности.

Ключевой момент: ИИ создаёт иллюзию простоты. Но чем быстрее он пишет код, тем сложнее становится его понимание и управление.

Что делать: стратегия управления ИИ-кодом

Решение проблемы не в том, чтобы отказаться от ИИ. Решение в том, чтобы изменить подход к его использованию. Ox Security предлагает создать новую роль — разработчика, фокусирующегося на архитектуре и управлении, а не на рутинной реализации. Bildea рекомендует:

  • Внедрять политики управления жизненным циклом ИИ-моделей.
  • Создавать единые промпты и стандарты для работы с ИИ.
  • Обеспечивать прозрачность и согласованность в подходах к разработке.

Это не только технические рекомендации. Это признание того, что ИИ не заменяет человека, а требует от него новых навыков: умения управлять сложностью, видеть систему в целом и уметь задавать правильные вопросы.

Важный нюанс: ИИ — не помощник, а новый участник процесса разработки, который требует нового уровня управления и контроля.

Системные последствия и локальный контекст

Для российского рынка внедрение ИИ в разработку означает не только ускорение, но и необходимость строить внутренние процессы с учётом рисков. Компании, которые не будут учитывать специфику ИИ-кода и не будут внедрять системы контроля, рискуют столкнуться с ростом технической задолженности и снижением качества продуктов.

В условиях ограниченного доступа к зарубежным моделям и платформам, российские разработчики могут столкнуться с ещё большими сложностями в управлении ИИ-кодом. Это подчеркивает важность внутренней стандартизации и инвестиций в обучение сотрудников работе с новыми инструментами.

Важный нюанс: Внедрение ИИ в разработку — это не переход на новые инструменты, а сдвиг в том, как мы организуем работу, устанавливаем стандарты и понимаем сложность.

Рост энергетической нагрузки и киберугроз

Внедрение ИИ в разработку сопряжено не только с техническими вызовами, но и с ростом энергозатрат. По данным Мирового энергетического агентства, инвестиции в дата-центры в этом году превысят $580 млрд, что на $40 млрд больше, чем будет потрачено на поиск новых источников нефти [!]. Это указывает на то, что ИИ становится значимым потребителем энергии, что требует адаптации энергетической стратегии и усиления инвестиций в возобновляемые источники.

Кроме того, увеличение зависимости от ИИ открывает новые векторы угроз. Злоумышленники уже используют ИИ-платформы для создания вредоносного ПО, способного адаптироваться и менять поведение в реальном времени [!]. Такие атаки становятся сложнее для обнаружения и требуют пересмотра подходов к кибербезопасности.

Ключевые угрозы, связанные с ИИ-кодом, включают:

  • Атаки с инъекцией запроса.
  • Утечки данных через автоматизированные процессы.
  • Вредоносные модели, используемые для генерации кода.

В условиях роста таких угроз, безопасность жизненного цикла разработки (SDLC) становится критически важной. Компаниям необходимо внедрять меры защиты, включая аудит ИИ-моделей и обучение сотрудников работе с новыми угрозами [!].

Важный нюанс: Рост энергозатрат и киберугроз требует комплексного подхода, включающего как технические, так и организационные меры.

Перспективы развития и адаптация рынка

Современные ИИ-агенты, способные автоматизировать обработку неструктурированных данных, становятся важным инструментом в бизнесе и госуправлении. Они позволяют сократить время на рутинные операции и повысить их качество, интегрируясь в существующую ИТ-инфраструктуру через API [!]. Однако их внедрение требует адаптации процессов и повышения квалификации специалистов.

Для IT-компаний в России актуальным становится вопрос: как сохранить конкурентоспособность в условиях автоматизации? Ответ лежит в развитии навыков, связанных с кибербезопасностью, анализом данных и управлением ИИ-проектами [!]. Специалисты, умеющие работать с ИИ, изучать его модели и выявлять уязвимости, становятся востребованными.

Важный нюанс: Развитие ИИ требует не только новых технологий, но и новых компетенций. Без них компании рискуют упустить преимущества, а также столкнуться с новыми рисками.

Заключение

Внедрение ИИ в разработку программного обеспечения — это не только технологический сдвиг. Это изменение парадигмы, которое затрагивает архитектуру, процессы, стандарты и даже культуру работы. Компании, которые не будут учитывать специфику ИИ-кода и не будут внедрять системы контроля, рискуют столкнуться с ростом технической задолженности, снижением качества продуктов и увеличением киберугроз.

В условиях роста энергозатрат и киберугроз, а также ускорения эволюции ИИ-моделей, важно строить стратегию, которая будет учитывать не только возможности, но и риски. Это требует инвестиций в обучение, стандартизацию, аудит и управление сложностью — ключевых компонентов устойчивого развития в эпоху искусственного интеллекта.

Коротко о главном

Сколько проектов проанализировала Ox Security для своего исследования?

Эксперты изучили 300 открытых проектов, из которых 50 были полностью или частично созданы с помощью ИИ, чтобы выявить типичные ошибки и антипаттерны.

Почему традиционная проверка кода становится недостаточной при использовании ИИ?

Потому что скорость генерации кода слишком высока, и ручная проверка не успевает справляться с объёмом и сложностью, что требует внедрения автономных инструментов и встраивания требований безопасности в промпты.

Какова основная причина экспоненциального роста технической задолженности в стеке ИИ, по мнению Ana Bildea?

Это связано с быстрым развитием продуктов ИИ, частой сменой версий моделей и фрагментацией внутри компаний, что ускоряет рост сложности систем.

Какие три фактора выделила Ana Bildea как основные векторы роста технической задолженности?

Хаос версий моделей, избыточность кода и фрагментация внутри компании, когда разные группы используют разные подходы и инструменты.

Какие меры предлагает Ana Bildea для управления технической задолженностью в ИИ?

Она рекомендует создать корпоративное управление, включая прозрачность, согласованность и политики жизненного цикла моделей, чтобы отслеживать их использование и обеспечить единство подходов внутри команд.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Разработка ПО; Бизнес; Аналитика и исследования; Цифровизация и технологии

Оценка значимости: 7 из 10

Проблемы, связанные с генерацией кода ИИ, затрагивают ключевые сферы цифровой экономики и технологического развития, что особенно важно для России, активно внедряющей ИИ в различные отрасли. Воздействие не ограничивается одной областью, затрагивая разработку ПО, безопасность, управление проектами и корпоративные процессы. Последствия могут быть долгосрочными, так как рост технической задолженности и снижение качества кода могут тормозить развитие ИИ-продуктов.

Материалы по теме

Инвестиции в дата-центры превзойдут расходы на нефтедобычу — МЭА

Данные о росте инвестиций в дата-центры ($580 млрд) и их превосходстве над инвестициями в нефтедобычу ($40 млрд) подчеркивают масштаб энергетической нагрузки, связанной с развитием ИИ. Эти цифры усиливают аргумент о необходимости адаптации энергетической стратегии и инвестиций в возобновляемые источники в условиях роста вычислительных мощностей.

Подробнее →
Злоумышленники используют ИИ для создания вредоносного ПО, способного менять поведение в реальном времени

Упоминание вредоносного ПО, способного адаптироваться и менять поведение в реальном времени (типа PromptSteal, PromptLock и др.), служит примером конкретных угроз, связанных с использованием ИИ в киберпреступности. Эти данные иллюстрируют рост сложности атак и необходимость пересмотра подходов к кибербезопасности.

Подробнее →
IT-специалисты против ИИ: как оставаться востребованным в эпоху автоматизации

Информация о росте значимости кибербезопасности в эпоху ИИ, включая необходимость аудита ИИ-моделей и выявления уязвимостей, подкрепляет тезис о том, что специалисты должны развивать новые компетенции. Эти данные усиливают аргумент о том, что автоматизация требует не замены, а трансформации навыков.

Подробнее →
ИИ-агенты: как революционные помощники меняют обработку данных в бизнесе и госуправлении

Описание возможностей ИИ-агентов в автоматизации обработки неструктурированных данных и интеграции через API поддерживает идею их роста в бизнесе и госуправлении. Эти данные помогают показать, как ИИ расширяет возможности, но при этом требует адаптации процессов и повышения квалификации.

Подробнее →
ИИ в разработке ПО: снижение критического мышления и рост киберугроз

Упоминание увеличения киберинцидентов на 56% в 2024 году и снижения критического мышления у разработчиков из-за зависимости от ИИ служит доказательством рисков, связанных с автоматизацией. Эти данные усиливают аргумент о важности пересмотра подходов к обучению и защите в сфере разработки ПО.

Подробнее →