Февраль 2026   |   Обзор события   | 7

AI-код не заменяет инженеров: 60% проектов рискуют провалиться из-за отсутствия базы

Искусственный интеллект в разработке ПО всё чаще используется как инструмент ускорения, но его примитивная интеграция создаёт скрытые угрозы для стабильности и безопасности систем. В то время как 90% разработчиков в Google применяют AI, лишь 24% доверяют ему, а к 2026 году 60% проектов могут быть сорваны из-за отсутствия дисциплины и подходящих данных — что ставит под сомнение не сам ИИ, а способ его внедрения.

ИСХОДНЫЙ НАРРАТИВ

По данным Cybernews, многие технологические лидеры продолжают настаивать на том, что искусственный интеллект способен заменить значительную часть человеческого труда в сфере программирования. Однако на практике, несмотря на активное внедрение AI-инструментов, ряд компаний сталкивается с проблемами, связанными с их использованием. Например, в Google 90% разработчиков применяют ИИ для написания кода, но только 24% из них полностью доверяют этой технологии.

Аналогичные проблемы наблюдались и в Amazon Web Services, где сбои в работе системы были связаны с ошибками, возникшими при использовании собственных AI-инструментов. Microsoft также столкнулась с утечкой конфиденциальной информации, когда её AI-ассистент Copilot случайно анализировал черновики и отправляемые письма.

Эксперты подчеркивают, что внедрение ИИ в рабочие процессы требует тщательного подхода. Доктор Илья Колоченко, основатель ImmuniWeb, отмечает, что большинство компаний пока не готовы должным образом обеспечить безопасность и управляемость ИИ в рабочей среде. Это особенно актуально в условиях стремительного роста популярности AI-инструментов, когда как работодатели, так и сотрудники стремятся повысить продуктивность.

Проблемы масштабируемости и структуры кода

Константин Клягин, основатель Redwerk, отмечает, что AI-инструменты способны повысить эффективность разработки, особенно на начальных этапах. Однако, как только проект выходит за рамки прототипа и начинает обслуживать множество пользователей, возникают серьёзные проблемы. В частности, отсутствуют надёжная архитектура, тестирование и знание специфики отрасли.

Компания Redwerk сотрудничает с командами, которые активно использовали AI-инструменты для быстрого старта, но столкнулись с последствиями. В таких случаях, как правило, отсутствует структура, тесты и проверка безопасности, что приводит к проблемам при масштабировании.

Клягин приводит прогноз, согласно которому в 2026 году 60% AI-проектов будут отменены из-за отсутствия подходящей базы данных. Это указывает на то, что основная проблема не в самих моделях, а в дисциплине их применения.

AI-инструменты как помощники, а не замена

Несмотря на утверждения о том, что AI может заменить разработчиков, Клягин подчеркивает, что на данном этапе такие инструменты больше похожи на учеников. Они могут ускорить работу, но не заменить профессионального инженера, архитектора и специалиста в области безопасности.

Компания Redwerk отмечает, что AI-инструменты не способны самостоятельно создавать готовое к использованию программное обеспечение. Они не обладают достаточной памятью, контекстом и здравым смыслом, чтобы обеспечить надёжность и стабильность проекта. Это особенно важно при работе с реальными пользователями, партнёрами и аудиторами.

Влияние «вайб-кодинга» на качество разработки

Одним из явлений, связанного с использованием AI в разработке, стал так называемый «вайб-кодинг» — практика написания кода без глубокого технического знания, основываясь на интуиции и использовании LLM-моделей. Эта практика позволяет быстро создавать прототипы, но не гарантирует их надёжности.

Клягин приводит определение, связанное с Линусом Торвальдсом: «вайб» в данном случае означает «очень неэффективно, но весело». Это подчёркивает, что, несмотря на скорость, качество и стабильность остаются под вопросом.

Компании, которые слишком увлеклись скоростью и начали использовать AI-инструменты без должного контроля, сталкиваются с последствиями. Проблемы проявляются именно при масштабировании, когда становится очевидно, что требуется больше инженерного суждения, а не меньше.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Перспективы развития AI в разработке ПО

Несмотря на текущие ограничения, Клягин не исключает, что ИИ может в будущем достичь уровня, позволяющего самостоятельно проектировать и разрабатывать программные продукты. В качестве примера он приводит сравнение между российскими и китайскими автомобилями: первые — несовершенные, вторые — быстро развиваются и становятся конкурентоспособными.

Если развитие ИИ пойдёт по пути, аналогичному китайской автомобильной индустрии, то через несколько лет или десятилетий можно будет говорить о возможностях ИИ в проектировании и создании ПО. Однако на данном этапе ключевым остаётся сочетание AI-инструментов с человеческим контролем и профессиональными знаниями.

Текущее состояние внедрения ИИ в процесс разработки программного обеспечения демонстрирует как потенциал, так и значительные вызовы. Компании, которые стремятся использовать AI-инструменты для повышения эффективности, должны учитывать необходимость сохранения контроля, тестирования и архитектурного подхода. Только так можно избежать проблем при масштабировании и обеспечить стабильность продукта.

АНАЛИТИЧЕСКИЙ РАЗБОР

Как ИИ меняет разработку ПО: баланс между скоростью и стабильностью

Внедрение искусственного интеллекта в разработку программного обеспечения продолжает ускоряться. В Google 90% разработчиков используют AI-инструменты, но доверяют им лишь 24%. Это указывает на то, что, несмотря на высокий уровень внедрения, доверие к таким инструментам формируется медленно. Основная проблема — не в самих моделях, а в дисциплине их применения и контроле над результатами.

AI-ассистенты, такие как GitHub Copilot, Microsoft Copilot и другие, способны ускорить написание кода, но не заменяют профессиональное суждение. В 2026 году компания Redwerk отметила, что 60% AI-проектов будут отменены из-за отсутствия подходящей базы данных и надёжной архитектуры. Это подтверждает, что основная проблема — не в технологиях, а в том, как они используются.

Риски масштабирования и безопасность

Одним из ключевых вызовов является масштабируемость. На ранних этапах AI-инструменты помогают создавать прототипы, но при переходе к полноценным продуктам возникают проблемы с тестированием, безопасностью и структурой кода. Компании, которые используют AI для быстрого старта, часто сталкиваются с последствиями — например, утечками данных или сбоями в работе систем.

Риски безопасности становятся особенно актуальными. В 2026 году Google сообщила о масштабных атаках на модель Gemini, в ходе которых злоумышленники использовали метод дистилляции для извлечения алгоритмов модели [!]. Это подчеркивает, что даже крупные игроки не защищены от утечек интеллектуальной собственности.

Кроме того, вредоносные расширения, маскирующиеся под ИИ-инструменты, украли данные более чем у 260 000 пользователей Google Chrome [!]. Такие инциденты демонстрируют, что доверие к AI-ассистентам должно сопровождаться строгими мерами контроля и аудита.

Угроза AI double agent

Новые угрозы связаны с AI double agent — агентами, которые злоумышленники захватывают для нелегитимных целей. Microsoft предупреждает, что без должного контроля такие агенты могут стать точками проникновения в корпоративные системы. Методы вроде memory poisoning позволяют манипулировать поведением агентов и получать доступ к конфиденциальным данным. Чтобы снизить риски, компания рекомендует рассматривать агентов как цифровую идентичность и внедрять централизованное управление в их деятельность [!].

Вайб-кодинг и технический долг

Практика вайб-кодинга, при которой разработчики используют ИИ для интуитивного написания кода, становится всё более популярной. Однако, как отмечают эксперты, она не гарантирует надёжности. Андрей Карпати описывает вайб-кодинг как процесс создания кода свободно, без глубокого технического знания. Это позволяет расширить доступ к программированию, но при этом увеличивает технический долг и риск непредсказуемых последствий [!].

Важный нюанс: Разработчики, которые ранее отвечали за стабильность кода, теперь становятся контролёрами AI-генерации. Это меняет их роль, но не уменьшает ответственность. Специалисты в области безопасности и архитектуры становятся ещё более востребованными, а те, кто не готов к этим изменениям, рискуют потерять позиции.

Инвестиции и инфраструктура

Крупные игроки продолжают вкладывать значительные средства в развитие ИИ-инфраструктуры. Google, например, направила $185 млрд на развитие ИИ и облачных вычислений в 2026 году. Эти инвестиции позволили снизить затраты на модель Gemini на 78% и увеличить доходы от облачных сервисов почти на 50% [!].

Важный нюанс: Microsoft также активно развивает ИИ-инфраструктуру, планируя направить около 150 млрд долларов на капитальные вложения в 2026 году. Эти инвестиции включают развитие чипов, робототехники и других смежных направлений. Однако рынок проявляет осторожность, особенно в отношении компаний, не полностью обосновавших масштаб вложений [!].

Выводы и стратегические последствия

ИИ в разработке ПО — это не революция, а переходный этап. Он ускоряет процессы, но не делает их проще. Успех зависит не от инструментов, а от того, как их применяют.

Компании, которые хотят использовать AI, должны:

  • внедрять чёткие стандарты для генерации кода;
  • обучать сотрудников работе с AI-инструментами;
  • сохранять контроль над архитектурой и тестированием.

Важный нюанс: Технологии развиваются, и в будущем ИИ может достичь уровня, при котором будет способен проектировать ПО самостоятельно. Но сегодня он остаётся помощником, а не заменой. Скорость — это мимолётное преимущество, а стабильность — долгосрочная инвестиция.

Коротко о главном

Почему в Amazon Web Services произошли сбои?

Сбои в работе системы были вызваны ошибками, возникшими при использовании собственных AI-инструментов, что подчеркивает риски внедрения ИИ без должного тестирования.

Почему Microsoft столкнулась с утечкой данных?

Утечка конфиденциальной информации произошла, когда AI-ассистент Copilot начал анализировать черновики и отправляемые письма, что выявило проблемы с безопасностью применения ИИ.

Почему 60% AI-проектов могут быть отменены к 2026 году?

Это связано с отсутствием подходящей базы данных и неправильной дисциплиной применения ИИ, а не с недостатками самих моделей, как прогнозирует Константин Клягин.

Почему AI-инструменты не могут заменить профессиональных разработчиков?

Они не обладают достаточной памятью, контекстом и здравым смыслом, чтобы создать надёжное ПО, что приводит к проблемам при масштабировании и интеграции с реальными системами.

Что такое «вайб-кодинг» и в чём его проблема?

Это практика написания кода на основе интуиции и LLM-моделей, которая позволяет быстро создавать прототипы, но не обеспечивает надёжности и стабильности проекта.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Цифровизация и технологии

Оценка значимости: 7 из 10

Внедрение ИИ в разработку ПО — тема, которая уже сейчас оказывает влияние на российских разработчиков и IT-компании, особенно в условиях стремительного развития технологий и роста интереса к AI-инструментам. Масштаб аудитории в России значителен, поскольку IT-сфера активно развивается и вовлечена в глобальные тренды. Воздействие события долгосрочное, поскольку речь идет о фундаментальных изменениях в подходах к разработке. Сферы влияния охватывают технологии, экономику, образование и безопасность. Поскольку тема касается будущего IT-индустрии и профессиональных компетенций, глубина последствий высока.

Материалы по теме

Утечка знаний: как атаки на Gemini угрожают вашей ИИ-стратегии

Масштабные атаки на модель Gemini Google, в которых злоумышленники использовали метод дистилляции для извлечения алгоритмов, подчеркивают уязвимость даже крупных ИИ-проектов и важность защиты интеллектуальной собственности в условиях роста угроз. Эти атаки усиливают дискуссию о безопасности ИИ-инфраструктуры и необходимости более строгого контроля.

Подробнее →
30 вредоносных расширений Chrome украли данные 260 000 пользователей: как маскируются киберпреступники

Утечка данных через 30 вредоносных расширений Google Chrome, маскирующихся под ИИ-инструменты, служит ярким примером рисков, связанных с доверием к внешним ассистентам. Инцидент демонстрирует, как легко злоумышленники могут обойти меры безопасности и получить доступ к конфиденциальной информации, усиливая аргумент о необходимости строгого аудита и контроля.

Подробнее →
Теневой ИИ против вас: как AI double agent становится новой киберугрозой

Угроза AI double agent, описанная в контексте Microsoft, иллюстрирует новые киберриски, связанные с ИИ-агентами, которые могут быть захвачены злоумышленниками. Методы вроде memory poisoning позволяют манипулировать поведением агентов, что делает их потенциальной точкой проникновения в корпоративные системы. Это подтверждает необходимость рассматривать агентов как цифровую идентичность и внедрять централизованное управление их деятельностью.

Подробнее →
Вайб-кодинг меняет рынок технологий и подходы к программированию

Практика вайб-кодинга, описанная в контексте Андрея Карпати, поднимает вопросы о долгосрочных последствиях интуитивного написания кода с помощью ИИ. Хотя это расширяет доступ к программированию, оно увеличивает технический долг и снижает качество кода, что требует большего контроля со стороны разработчиков и архитекторов.

Подробнее →
Google инвестирует $185 млрд в ИИ: как рост задолженности становится топливом для будущего

Инвестиции Google в размере $185 млрд в ИИ и облачные вычисления в 2026 году подчеркивают масштабные амбиции компании в этой области. Эти вложения позволили снизить затраты на модель Gemini и увеличить доходы от облачных сервисов, что служит примером того, как крупные игроки используют ИИ для укрепления своих позиций на рынке.

Подробнее →
ИИ-инвестиции растут, а акции падают: почему рынок сомневается в гигантах

Планируемые инвестиции Microsoft в размере 150 млрд долларов на развитие ИИ-инфраструктуры и смежных технологий в 2026 году отражают стремление компании к технологическому лидерству. Однако рынок проявляет осторожность, особенно в отношении обоснованности таких масштабных вложений, что указывает на необходимость прозрачности и стратегического подхода к развитию ИИ.

Подробнее →