Январь 2026   |   Обзор события   | 7

ИИ-инструменты меняют разработку: рост долга проверки и риски галлюцинаций

Более 1100 разработчиков из разных стран признали, что ежедневно используют ИИ-инструменты для написания кода, но при этом 96% отметили его низкую функциональную корректность, что приводит к увеличению времени на проверку. Эксперты отмечают рост зависимости от таких инструментов и появление проблемы, когда экономия на написании кода компенсируется затратами на его проверку.

ИСХОДНЫЙ НАРРАТИВ

По данным The Register, исследование, проведённое Sonar, охватывает мнения более чем 1100 разработчиков со всего мира и демонстрирует, как искусственный интеллект меняет подход к разработке программного обеспечения.

Большинство участников опроса уже используют ИИ-инструменты для написания кода, но доверие к его корректности остаётся низким, а усилия на проверку увеличиваются.

Всего 96% опрошенных разработчиков утверждают, что ИИ-сгенерированный код не всегда функционально корректен, при этом только 48% сообщают, что всегда проверяют такой код перед фиксацией изменений. Это указывает на существующий разрыв между ожиданиями и реальностью.

Среди наиболее популярных инструментов, используемых для генерации кода, выделяются GitHub Copilot, ChatGPT, Claude/Claude Code, Gemini/Duet AI и Cursor. Их применяют в самых разных проектах — от прототипов до критически важных сервисов.

Рост зависимости от ИИ-инструментов

По данным исследования, 72% разработчиков, пробовавших ИИ-инструменты, используют их ежедневно или несколько раз в день. Всего 42% участников сообщают, что значительная часть их кода создана с помощью ИИ, и этот показатель, по их оценке, может достичь 65% к 2027 году.

Среди участников опроса 38% отметили, что проверка кода, сгенерированного ИИ, требует больше усилий, чем проверка кода, написанного вручную. Всего 59% описывают этот процесс как «средний» или «значительный».

Это указывает на формирование так называемой «долга проверки» — ситуации, когда экономия времени на написании кода компенсируется затратами на его проверку.

Werner Vogels, CTO Amazon, в своём выступлении на конференции AWS re:Invent 2025 отметил, что «в будущем разработчики будут писать меньше кода, но проверять его больше». Он также подчеркнул, что понимание кода, написанного ИИ, требует дополнительных усилий, в отличие от кода, написанного человеком.

Согласно исследованию, 95% разработчиков тратят определённое количество времени на проверку, тестирование и исправление кода, сгенерированного ИИ.

Риски и вызовы

Один из ключевых вызовов, с которым сталкиваются разработчики, — это так называемые «галлюцинации» ИИ. Это термин, описывающий ситуацию, когда модели генерируют код, который выглядит корректным, но содержит ошибки.

Дополнительным риском становится то, что 35% разработчиков используют ИИ-инструменты из личных аккаунтов. Это может создавать сложности для компаний, стремящихся контролировать процессы и обеспечивать безопасность.

Microsoft, например, ранее поддерживала идею использования личных подписок на GitHub Copilot в рабочем процессе, но позже отказалась от этой позиции.

Всего 88% разработчиков отметили, что переход на ИИ-инструменты имеет и отрицательные последствия. Среди них — избыточный или ненужный код, а также код, который выглядит корректным, но содержит ошибки.

Преимущества и перераспределение нагрузки

Несмотря на вызовы, 93% участников опроса признают, что ИИ-инструменты приносят пользу. В частности, они помогают улучшить процесс документирования кода и создать тестовые сценарии.

Однако, как отмечают в Sonar, ИИ не устраняет проблему, а перераспределяет её. Например, хотя 75% разработчиков считают, что ИИ помогает снизить нежелательные задачи, такие как управление техническим долгом или отладка устаревшего кода, на практике эти задачи перемещаются в новую область — исправление кода, сгенерированного ИИ.

Это подтверждает мнение Tariq Shaukat, генерального директора Sonar, о том, что «ценность в современной разработке определяется не скоростью написания кода, а уверенностью в его корректности».

Компания подчёркивает, что внедрение ИИ в процесс разработки требует улучшения систем проверки и контроля.

Центральная дилемма

Интересно: Как обеспечить высокий уровень доверия к ИИ-сгенерированному коду, если его проверка требует значительных усилий, а ошибки могут быть скрытыми и трудными к распознаванию?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Как ИИ меняет баланс между скоростью и качеством в разработке

Перераспределение усилий: от написания к проверке

Искусственный интеллект уже давно не только ассистент в написании кода — он становится его ключевым участником. По данным исследования Sonar, 72% разработчиков используют ИИ-инструменты ежедневно. Это не вопрос удобства: речь идёт о системном сдвиге в том, как создаётся и проверяется программное обеспечение.

Однако, как показывает практика, экономия времени на написании кода неизбежно приводит к увеличению времени, затрачиваемого на его проверку. 38% опрошенных отметили, что проверка кода, сгенерированного ИИ, требует больше усилий, чем проверка ручного кода. Это формирует новый тип технического долга — «долг проверки».

Важный нюанс: Ускорение процесса разработки не сокращает общий объём работы, а перераспределяет её. Вместо того чтобы писать код, разработчики всё чаще становятся его аудиторами.

Скрытые риски: галлюцинации и безопасность

Одним из ключевых рисков работы с ИИ-генерированным кодом являются так называемые «галлюцинации» — когда модель создаёт логичный на первый взгляд код, но он содержит скрытые ошибки. 95% разработчиков тратят время на тестирование и исправление таких фрагментов.

Дополнительная проблема — использование ИИ-инструментов из личных аккаунтов. 35% разработчиков так поступают, что может создавать проблемы с контролем и безопасностью. Это особенно критично для российских компаний, где вопросы соблюдения регуляторных требований и внутренней безопасности становятся всё более актуальными.

Важный нюанс: ИИ-инструменты, используемые из личных аккаунтов, могут стать уязвимостью, которую сложно обнаружить и контролировать. Это требует пересмотра политик внутри компаний.

Новые правила игры

Искусственный интеллект не устраняет проблемы в разработке — он меняет их форму. Хотя 93% участников исследования признают пользу ИИ, 88% также отмечают отрицательные последствия. Среди них — избыточный код, который выглядит корректным, но не выполняет нужную функцию.

Это подтверждает идею, что центральной метрикой в разработке становится не скорость, а уверенность в корректности кода. Для российских компаний это означает необходимость усиления систем автоматизированной проверки и контроля. Внедрение ИИ в процесс разработки требует не только новых инструментов, но и новых подходов к управлению качеством.

Важный вывод: В условиях роста зависимости от ИИ, ключевым становится не только внедрение технологий, а создание инфраструктуры, которая сможет обеспечить контроль и безопасность.

Расширение границ: ИИ как новый уровень абстракции

Искусственный интеллект становится новым уровнем абстракции в программировании, позволяя автоматизировать часть задач, но не заменяя высококвалифицированных специалистов. Эксперты отмечают, что будущее разработки всё больше связано с системным дизайном, где ключевую роль играет умение проектировать сложные цифровые экосистемы [!].

В этом контексте ИИ-инструменты, такие как GitHub Copilot, Cursor или Gemini, становятся не только средствами написания кода, но и инструментами проектирования. Они позволяют разработчикам оперировать более высоким уровнем абстракции, фокусируясь на архитектуре и логике, а не на деталях реализации. Это требует от инженеров новых навыков — умения работать с ИИ как с партнёром, а не как с заменой.

Важный момент: Внедрение ИИ в разработку не снижает потребности в квалифицированных специалистах — оно меняет их роль и расширяет зону ответственности.

Угрозы и контрмеры: когда ИИ запоминает слишком много

Новые исследования показывают, что коммерческие ИИ-модели способны запоминать и воспроизводить защищённый контент, что может повлиять на их юридическую защиту. В ходе экспериментов из некоторых моделей удаётся извлечь значительные части текстов, что ставит под сомнение их соответствие принципу «справедливого использования» [!].

Это создаёт юридические риски для компаний, так как буквальное воспроизведение защищённого материала может нарушать авторские права. В ответ на такие угрозы разработчики внедряют защитные механизмы для ограничения вывода больших фрагментов контента. Для российских компаний это особенно актуально, поскольку они всё чаще сталкиваются с необходимостью соблюдения международных стандартов и регуляторных требований.

Важный аспект: Использование ИИ в корпоративной среде требует не только технических, но и правовых решений, чтобы минимизировать риски утечки данных и нарушения прав интеллектуальной собственности.

Перспективы: от ассистента к агенту

Microsoft уже представила видение Windows как «агентной ОС», где искусственный интеллект будет выполнять действия от имени пользователя, управляя файлами и приложениями. Однако такие агенты уже демонстрируют риски, включая непреднамеренные ошибки и угрозы безопасности. Например, Copilot может ошибочно переименовать папки вместо форматирования диска, что подрывает доверие пользователей [!].

Такие случаи демонстрируют, что ИИ-ассистенты, даже в корпоративной среде, требуют тщательной настройки и контроля. Для российских компаний это означает необходимость разработки стратегий, которые позволят использовать ИИ с минимальными рисками.

Важный вывод: ИИ-агенты в будущем станут частью повседневной работы, но их внедрение должно сопровождаться мерами, обеспечивающими контроль и предсказуемость.

Заключение

Искусственный интеллект меняет не только инструменты, но и подходы к разработке программного обеспечения. Он позволяет ускорить процессы, но требует новых методов контроля и проверки. Для российских компаний ключевым становится баланс между скоростью внедрения и качеством результатов, а также между автоматизацией и человеческим контролем. В этом контексте ИИ — не только инструмент, а новый уровень в эволюции разработки.

Коротко о главном

Какова доля разработчиков, которые используют ИИ-инструменты ежедневно?

72% опрошенных, пробовавших ИИ-инструменты, используют их ежедневно или несколько раз в день, что указывает на рост зависимости от таких технологий.

Какие ИИ-инструменты наиболее популярны среди разработчиков?

Среди лидеров — GitHub Copilot, ChatGPT, Claude/Claude Code, Gemini/Duet AI и Cursor, которые применяются в проектах от прототипов до критически важных сервисов.

Почему проверка ИИ-сгенерированного кода становится проблемой?

38% разработчиков отметили, что проверка такого кода требует больше усилий, чем ручная, а 95% тратят время на тестирование и исправление ошибок, что формирует «долг проверки».

Какова доля кода, созданного с помощью ИИ, по оценке разработчиков?

42% участников опроса сообщили, что значительная часть их кода создана с помощью ИИ, и ожидают, что к 2027 году этот показатель достигнет 65%.

Какие риски связаны с использованием ИИ-инструментов?

Один из ключевых — «галлюцинации» ИИ, когда модель генерирует код, выглядящий корректным, но содержащий ошибки, а также использование таких инструментов из личных аккаунтов, что усложняет контроль и безопасность.

Как оценивается влияние ИИ-инструментов на качество работы?

88% разработчиков отметили отрицательные последствия, включая избыточный или некорректный код, а 93% признали пользу ИИ в документировании и создании тестовых сценариев.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Аналитика и исследования; Цифровизация и технологии; Развлечение и творчество

Оценка значимости: 7 из 10

Искусственный интеллект всё глубже проникает в процесс разработки программного обеспечения, что влияет на технологии, трудовые процессы и качество кода. Хотя речь идёт о международной тенденции, внедрение ИИ-инструментов в разработку ПО затрагивает ключевые отрасли экономики и науки, включая Россию. Рост зависимости от ИИ, увеличение времени на проверку кода и появление новых рисков указывают на значимые изменения в сфере IT, что может повлиять на рынок труда, образование и уровень цифровой безопасности.

Материалы по теме

Искусственный интеллект меняет разработку кода: станет ли ИИ новым языком программирования

Концепция ИИ как нового уровня абстракции в программировании подкреплена утверждением, что он не заменяет программистов, а требует от них умения проектировать сложные цифровые экосистемы. Это усиливает аргумент о трансформации роли разработчика в условиях внедрения ИИ.

Подробнее →
Крупные ИИ-гиганты под угрозой: в модели может утекать защищённый контент

Упоминание способности ИИ-моделей запоминать и воспроизводить защищённый контент подкрепляется конкретными примерами, такими как восстановление текста книг. Это усиливает тезис о юридических рисках для компаний, особенно российских, связанных с использованием ИИ.

Подробнее →
Microsoft тестирует «агентную ОС» Windows: риски и ошибки ИИ в реальных системах

Пример ошибки Copilot, переименовавшего папки вместо форматирования диска, используется как иллюстрация рисков автономного поведения ИИ-агентов в системах с широкими полномочиями. Это поддерживает вывод о необходимости контроля и предсказуемости при внедрении агентов.

Подробнее →
AI-код ускоряет разработку, но рискует уязвимостями

Утверждение о том, что ИИ-код увеличивает количество уязвимостей и технической задолженности, подкрепляется данными о минимизации этапов ручного код-ревью и распространённых антипаттернах в генерируемом коде. Это усиливает критику автоматизации без должной проверки.

Подробнее →
Как защитить данные в ИИ-инструментах, если они запоминают всё

Упоминание рисков утечки данных при использовании публичных ИИ-инструментов, таких как ChatGPT, служит основой для рекомендации по переходу на корпоративные решения. Это поддерживает тезис о важности политики безопасности при внедрении ИИ в бизнес-процессы.

Подробнее →
AI-агент нашел больше уязвимостей, чем хакеры — и обошелся дешевле

Пример использования AI-агента ARTEMIS для поиска уязвимостей с высокой точностью и низкой стоимостью усиливает аргумент о потенциале ИИ в кибербезопасности. Это демонстрирует, что ИИ может быть не только угрозой, но и мощным инструментом обороны.

Подробнее →
USPTO установило новый стандарт авторства для изобретений с участием ИИ

Новый стандарт USPTO, признающий ИИ только инструментом, а не изобретателем, используется как пример правовой неопределённости, связанной с ИИ. Это поддерживает аргумент о необходимости правовых решений для минимизации рисков использования ИИ в корпоративной среде.

Подробнее →