AI-код не заменяет инженеров: 60% проектов рискуют провалиться из-за отсутствия базы
Искусственный интеллект в разработке ПО всё чаще используется как инструмент ускорения, но его примитивная интеграция создаёт скрытые угрозы для стабильности и безопасности систем. В то время как 90% разработчиков в Google применяют AI, лишь 24% доверяют ему, а к 2026 году 60% проектов могут быть сорваны из-за отсутствия дисциплины и подходящих данных — что ставит под сомнение не сам ИИ, а способ его внедрения.
По данным Cybernews, многие технологические лидеры продолжают настаивать на том, что искусственный интеллект способен заменить значительную часть человеческого труда в сфере программирования. Однако на практике, несмотря на активное внедрение AI-инструментов, ряд компаний сталкивается с проблемами, связанными с их использованием. Например, в Google 90% разработчиков применяют ИИ для написания кода, но только 24% из них полностью доверяют этой технологии.
Аналогичные проблемы наблюдались и в Amazon Web Services, где сбои в работе системы были связаны с ошибками, возникшими при использовании собственных AI-инструментов. Microsoft также столкнулась с утечкой конфиденциальной информации, когда её AI-ассистент Copilot случайно анализировал черновики и отправляемые письма.
Эксперты подчеркивают, что внедрение ИИ в рабочие процессы требует тщательного подхода. Доктор Илья Колоченко, основатель ImmuniWeb, отмечает, что большинство компаний пока не готовы должным образом обеспечить безопасность и управляемость ИИ в рабочей среде. Это особенно актуально в условиях стремительного роста популярности AI-инструментов, когда как работодатели, так и сотрудники стремятся повысить продуктивность.
Проблемы масштабируемости и структуры кода
Константин Клягин, основатель Redwerk, отмечает, что AI-инструменты способны повысить эффективность разработки, особенно на начальных этапах. Однако, как только проект выходит за рамки прототипа и начинает обслуживать множество пользователей, возникают серьёзные проблемы. В частности, отсутствуют надёжная архитектура, тестирование и знание специфики отрасли.
Компания Redwerk сотрудничает с командами, которые активно использовали AI-инструменты для быстрого старта, но столкнулись с последствиями. В таких случаях, как правило, отсутствует структура, тесты и проверка безопасности, что приводит к проблемам при масштабировании.
Клягин приводит прогноз, согласно которому в 2026 году 60% AI-проектов будут отменены из-за отсутствия подходящей базы данных. Это указывает на то, что основная проблема не в самих моделях, а в дисциплине их применения.
AI-инструменты как помощники, а не замена
Несмотря на утверждения о том, что AI может заменить разработчиков, Клягин подчеркивает, что на данном этапе такие инструменты больше похожи на учеников. Они могут ускорить работу, но не заменить профессионального инженера, архитектора и специалиста в области безопасности.
Компания Redwerk отмечает, что AI-инструменты не способны самостоятельно создавать готовое к использованию программное обеспечение. Они не обладают достаточной памятью, контекстом и здравым смыслом, чтобы обеспечить надёжность и стабильность проекта. Это особенно важно при работе с реальными пользователями, партнёрами и аудиторами.
Влияние «вайб-кодинга» на качество разработки
Одним из явлений, связанного с использованием AI в разработке, стал так называемый «вайб-кодинг» — практика написания кода без глубокого технического знания, основываясь на интуиции и использовании LLM-моделей. Эта практика позволяет быстро создавать прототипы, но не гарантирует их надёжности.
Клягин приводит определение, связанное с Линусом Торвальдсом: «вайб» в данном случае означает «очень неэффективно, но весело». Это подчёркивает, что, несмотря на скорость, качество и стабильность остаются под вопросом.
Компании, которые слишком увлеклись скоростью и начали использовать AI-инструменты без должного контроля, сталкиваются с последствиями. Проблемы проявляются именно при масштабировании, когда становится очевидно, что требуется больше инженерного суждения, а не меньше.

Перспективы развития AI в разработке ПО
Несмотря на текущие ограничения, Клягин не исключает, что ИИ может в будущем достичь уровня, позволяющего самостоятельно проектировать и разрабатывать программные продукты. В качестве примера он приводит сравнение между российскими и китайскими автомобилями: первые — несовершенные, вторые — быстро развиваются и становятся конкурентоспособными.
Если развитие ИИ пойдёт по пути, аналогичному китайской автомобильной индустрии, то через несколько лет или десятилетий можно будет говорить о возможностях ИИ в проектировании и создании ПО. Однако на данном этапе ключевым остаётся сочетание AI-инструментов с человеческим контролем и профессиональными знаниями.
Текущее состояние внедрения ИИ в процесс разработки программного обеспечения демонстрирует как потенциал, так и значительные вызовы. Компании, которые стремятся использовать AI-инструменты для повышения эффективности, должны учитывать необходимость сохранения контроля, тестирования и архитектурного подхода. Только так можно избежать проблем при масштабировании и обеспечить стабильность продукта.
Как ИИ меняет разработку ПО: баланс между скоростью и стабильностью
Внедрение искусственного интеллекта в разработку программного обеспечения продолжает ускоряться. В Google 90% разработчиков используют AI-инструменты, но доверяют им лишь 24%. Это указывает на то, что, несмотря на высокий уровень внедрения, доверие к таким инструментам формируется медленно. Основная проблема — не в самих моделях, а в дисциплине их применения и контроле над результатами.
AI-ассистенты, такие как GitHub Copilot, Microsoft Copilot и другие, способны ускорить написание кода, но не заменяют профессиональное суждение. В 2026 году компания Redwerk отметила, что 60% AI-проектов будут отменены из-за отсутствия подходящей базы данных и надёжной архитектуры. Это подтверждает, что основная проблема — не в технологиях, а в том, как они используются.
Риски масштабирования и безопасность
Одним из ключевых вызовов является масштабируемость. На ранних этапах AI-инструменты помогают создавать прототипы, но при переходе к полноценным продуктам возникают проблемы с тестированием, безопасностью и структурой кода. Компании, которые используют AI для быстрого старта, часто сталкиваются с последствиями — например, утечками данных или сбоями в работе систем.
Риски безопасности становятся особенно актуальными. В 2026 году Google сообщила о масштабных атаках на модель Gemini, в ходе которых злоумышленники использовали метод дистилляции для извлечения алгоритмов модели [!]. Это подчеркивает, что даже крупные игроки не защищены от утечек интеллектуальной собственности.
Кроме того, вредоносные расширения, маскирующиеся под ИИ-инструменты, украли данные более чем у 260 000 пользователей Google Chrome [!]. Такие инциденты демонстрируют, что доверие к AI-ассистентам должно сопровождаться строгими мерами контроля и аудита.
Угроза AI double agent
Новые угрозы связаны с AI double agent — агентами, которые злоумышленники захватывают для нелегитимных целей. Microsoft предупреждает, что без должного контроля такие агенты могут стать точками проникновения в корпоративные системы. Методы вроде memory poisoning позволяют манипулировать поведением агентов и получать доступ к конфиденциальным данным. Чтобы снизить риски, компания рекомендует рассматривать агентов как цифровую идентичность и внедрять централизованное управление в их деятельность [!].
Вайб-кодинг и технический долг
Практика вайб-кодинга, при которой разработчики используют ИИ для интуитивного написания кода, становится всё более популярной. Однако, как отмечают эксперты, она не гарантирует надёжности. Андрей Карпати описывает вайб-кодинг как процесс создания кода свободно, без глубокого технического знания. Это позволяет расширить доступ к программированию, но при этом увеличивает технический долг и риск непредсказуемых последствий [!].
Важный нюанс: Разработчики, которые ранее отвечали за стабильность кода, теперь становятся контролёрами AI-генерации. Это меняет их роль, но не уменьшает ответственность. Специалисты в области безопасности и архитектуры становятся ещё более востребованными, а те, кто не готов к этим изменениям, рискуют потерять позиции.
Инвестиции и инфраструктура
Крупные игроки продолжают вкладывать значительные средства в развитие ИИ-инфраструктуры. Google, например, направила $185 млрд на развитие ИИ и облачных вычислений в 2026 году. Эти инвестиции позволили снизить затраты на модель Gemini на 78% и увеличить доходы от облачных сервисов почти на 50% [!].
Важный нюанс: Microsoft также активно развивает ИИ-инфраструктуру, планируя направить около 150 млрд долларов на капитальные вложения в 2026 году. Эти инвестиции включают развитие чипов, робототехники и других смежных направлений. Однако рынок проявляет осторожность, особенно в отношении компаний, не полностью обосновавших масштаб вложений [!].
Выводы и стратегические последствия
ИИ в разработке ПО — это не революция, а переходный этап. Он ускоряет процессы, но не делает их проще. Успех зависит не от инструментов, а от того, как их применяют.
Компании, которые хотят использовать AI, должны:
- внедрять чёткие стандарты для генерации кода;
- обучать сотрудников работе с AI-инструментами;
- сохранять контроль над архитектурой и тестированием.
Важный нюанс: Технологии развиваются, и в будущем ИИ может достичь уровня, при котором будет способен проектировать ПО самостоятельно. Но сегодня он остаётся помощником, а не заменой. Скорость — это мимолётное преимущество, а стабильность — долгосрочная инвестиция.
Источник: cybernews.com