ИИ-инструменты меняют разработку: рост долга проверки и риски галлюцинаций
Более 1100 разработчиков из разных стран признали, что ежедневно используют ИИ-инструменты для написания кода, но при этом 96% отметили его низкую функциональную корректность, что приводит к увеличению времени на проверку. Эксперты отмечают рост зависимости от таких инструментов и появление проблемы, когда экономия на написании кода компенсируется затратами на его проверку.
По данным The Register, исследование, проведённое Sonar, охватывает мнения более чем 1100 разработчиков со всего мира и демонстрирует, как искусственный интеллект меняет подход к разработке программного обеспечения.
Большинство участников опроса уже используют ИИ-инструменты для написания кода, но доверие к его корректности остаётся низким, а усилия на проверку увеличиваются.
Всего 96% опрошенных разработчиков утверждают, что ИИ-сгенерированный код не всегда функционально корректен, при этом только 48% сообщают, что всегда проверяют такой код перед фиксацией изменений. Это указывает на существующий разрыв между ожиданиями и реальностью.
Среди наиболее популярных инструментов, используемых для генерации кода, выделяются GitHub Copilot, ChatGPT, Claude/Claude Code, Gemini/Duet AI и Cursor. Их применяют в самых разных проектах — от прототипов до критически важных сервисов.
Рост зависимости от ИИ-инструментов
По данным исследования, 72% разработчиков, пробовавших ИИ-инструменты, используют их ежедневно или несколько раз в день. Всего 42% участников сообщают, что значительная часть их кода создана с помощью ИИ, и этот показатель, по их оценке, может достичь 65% к 2027 году.
Среди участников опроса 38% отметили, что проверка кода, сгенерированного ИИ, требует больше усилий, чем проверка кода, написанного вручную. Всего 59% описывают этот процесс как «средний» или «значительный».
Это указывает на формирование так называемой «долга проверки» — ситуации, когда экономия времени на написании кода компенсируется затратами на его проверку.
Werner Vogels, CTO Amazon, в своём выступлении на конференции AWS re:Invent 2025 отметил, что «в будущем разработчики будут писать меньше кода, но проверять его больше». Он также подчеркнул, что понимание кода, написанного ИИ, требует дополнительных усилий, в отличие от кода, написанного человеком.
Согласно исследованию, 95% разработчиков тратят определённое количество времени на проверку, тестирование и исправление кода, сгенерированного ИИ.
Риски и вызовы
Один из ключевых вызовов, с которым сталкиваются разработчики, — это так называемые «галлюцинации» ИИ. Это термин, описывающий ситуацию, когда модели генерируют код, который выглядит корректным, но содержит ошибки.
Дополнительным риском становится то, что 35% разработчиков используют ИИ-инструменты из личных аккаунтов. Это может создавать сложности для компаний, стремящихся контролировать процессы и обеспечивать безопасность.
Microsoft, например, ранее поддерживала идею использования личных подписок на GitHub Copilot в рабочем процессе, но позже отказалась от этой позиции.
Всего 88% разработчиков отметили, что переход на ИИ-инструменты имеет и отрицательные последствия. Среди них — избыточный или ненужный код, а также код, который выглядит корректным, но содержит ошибки.
Преимущества и перераспределение нагрузки
Несмотря на вызовы, 93% участников опроса признают, что ИИ-инструменты приносят пользу. В частности, они помогают улучшить процесс документирования кода и создать тестовые сценарии.
Однако, как отмечают в Sonar, ИИ не устраняет проблему, а перераспределяет её. Например, хотя 75% разработчиков считают, что ИИ помогает снизить нежелательные задачи, такие как управление техническим долгом или отладка устаревшего кода, на практике эти задачи перемещаются в новую область — исправление кода, сгенерированного ИИ.
Это подтверждает мнение Tariq Shaukat, генерального директора Sonar, о том, что «ценность в современной разработке определяется не скоростью написания кода, а уверенностью в его корректности».
Компания подчёркивает, что внедрение ИИ в процесс разработки требует улучшения систем проверки и контроля.
Центральная дилемма
Интересно: Как обеспечить высокий уровень доверия к ИИ-сгенерированному коду, если его проверка требует значительных усилий, а ошибки могут быть скрытыми и трудными к распознаванию?

Как ИИ меняет баланс между скоростью и качеством в разработке
Перераспределение усилий: от написания к проверке
Искусственный интеллект уже давно не только ассистент в написании кода — он становится его ключевым участником. По данным исследования Sonar, 72% разработчиков используют ИИ-инструменты ежедневно. Это не вопрос удобства: речь идёт о системном сдвиге в том, как создаётся и проверяется программное обеспечение.
Однако, как показывает практика, экономия времени на написании кода неизбежно приводит к увеличению времени, затрачиваемого на его проверку. 38% опрошенных отметили, что проверка кода, сгенерированного ИИ, требует больше усилий, чем проверка ручного кода. Это формирует новый тип технического долга — «долг проверки».
Важный нюанс: Ускорение процесса разработки не сокращает общий объём работы, а перераспределяет её. Вместо того чтобы писать код, разработчики всё чаще становятся его аудиторами.
Скрытые риски: галлюцинации и безопасность
Одним из ключевых рисков работы с ИИ-генерированным кодом являются так называемые «галлюцинации» — когда модель создаёт логичный на первый взгляд код, но он содержит скрытые ошибки. 95% разработчиков тратят время на тестирование и исправление таких фрагментов.
Дополнительная проблема — использование ИИ-инструментов из личных аккаунтов. 35% разработчиков так поступают, что может создавать проблемы с контролем и безопасностью. Это особенно критично для российских компаний, где вопросы соблюдения регуляторных требований и внутренней безопасности становятся всё более актуальными.
Важный нюанс: ИИ-инструменты, используемые из личных аккаунтов, могут стать уязвимостью, которую сложно обнаружить и контролировать. Это требует пересмотра политик внутри компаний.
Новые правила игры
Искусственный интеллект не устраняет проблемы в разработке — он меняет их форму. Хотя 93% участников исследования признают пользу ИИ, 88% также отмечают отрицательные последствия. Среди них — избыточный код, который выглядит корректным, но не выполняет нужную функцию.
Это подтверждает идею, что центральной метрикой в разработке становится не скорость, а уверенность в корректности кода. Для российских компаний это означает необходимость усиления систем автоматизированной проверки и контроля. Внедрение ИИ в процесс разработки требует не только новых инструментов, но и новых подходов к управлению качеством.
Важный вывод: В условиях роста зависимости от ИИ, ключевым становится не только внедрение технологий, а создание инфраструктуры, которая сможет обеспечить контроль и безопасность.
Расширение границ: ИИ как новый уровень абстракции
Искусственный интеллект становится новым уровнем абстракции в программировании, позволяя автоматизировать часть задач, но не заменяя высококвалифицированных специалистов. Эксперты отмечают, что будущее разработки всё больше связано с системным дизайном, где ключевую роль играет умение проектировать сложные цифровые экосистемы [!].
В этом контексте ИИ-инструменты, такие как GitHub Copilot, Cursor или Gemini, становятся не только средствами написания кода, но и инструментами проектирования. Они позволяют разработчикам оперировать более высоким уровнем абстракции, фокусируясь на архитектуре и логике, а не на деталях реализации. Это требует от инженеров новых навыков — умения работать с ИИ как с партнёром, а не как с заменой.
Важный момент: Внедрение ИИ в разработку не снижает потребности в квалифицированных специалистах — оно меняет их роль и расширяет зону ответственности.
Угрозы и контрмеры: когда ИИ запоминает слишком много
Новые исследования показывают, что коммерческие ИИ-модели способны запоминать и воспроизводить защищённый контент, что может повлиять на их юридическую защиту. В ходе экспериментов из некоторых моделей удаётся извлечь значительные части текстов, что ставит под сомнение их соответствие принципу «справедливого использования» [!].
Это создаёт юридические риски для компаний, так как буквальное воспроизведение защищённого материала может нарушать авторские права. В ответ на такие угрозы разработчики внедряют защитные механизмы для ограничения вывода больших фрагментов контента. Для российских компаний это особенно актуально, поскольку они всё чаще сталкиваются с необходимостью соблюдения международных стандартов и регуляторных требований.
Важный аспект: Использование ИИ в корпоративной среде требует не только технических, но и правовых решений, чтобы минимизировать риски утечки данных и нарушения прав интеллектуальной собственности.
Перспективы: от ассистента к агенту
Microsoft уже представила видение Windows как «агентной ОС», где искусственный интеллект будет выполнять действия от имени пользователя, управляя файлами и приложениями. Однако такие агенты уже демонстрируют риски, включая непреднамеренные ошибки и угрозы безопасности. Например, Copilot может ошибочно переименовать папки вместо форматирования диска, что подрывает доверие пользователей [!].
Такие случаи демонстрируют, что ИИ-ассистенты, даже в корпоративной среде, требуют тщательной настройки и контроля. Для российских компаний это означает необходимость разработки стратегий, которые позволят использовать ИИ с минимальными рисками.
Важный вывод: ИИ-агенты в будущем станут частью повседневной работы, но их внедрение должно сопровождаться мерами, обеспечивающими контроль и предсказуемость.
Заключение
Искусственный интеллект меняет не только инструменты, но и подходы к разработке программного обеспечения. Он позволяет ускорить процессы, но требует новых методов контроля и проверки. Для российских компаний ключевым становится баланс между скоростью внедрения и качеством результатов, а также между автоматизацией и человеческим контролем. В этом контексте ИИ — не только инструмент, а новый уровень в эволюции разработки.
Источник: The Register