Ноябрь 2025   |   Обзор события   | 8

ИИ в разработке ПО: снижение критического мышления и рост киберугроз

Рост внедрения искусственного интеллекта в разработку программного обеспечения сопровождается увеличением рисков для безопасности и качества создаваемых решений. Исследования показывают, что использование ИИ снижает когнитивную активность пользователей, ухудшает воспроизведение информации и повышает вероятность киберинцидентов, что требует пересмотра подходов к обучению и защите в сфере разработки ПО.

ИСХОДНЫЙ НАРРАТИВ

По данным Cybersecurity-Insiders, рост внедрения искусственного интеллекта в процесс разработки программного обеспечения сопровождается ростом рисков. Исследования подтверждают, что при активном использовании ИИ у пользователей снижается уровень критического мышления, что может повлиять на качество и безопасность разрабатываемых решений.

В условиях, когда ИИ становится неотъемлемой частью разработки ПО, обучения программистов, контроля качества кода, безопасности SDLC, когнитивной нагрузки, внедрения уязвимостей, государственного регулирования и кибератак, бизнесу важно учитывать новые вызовы. Особенно это касается разработчиков, чья работа напрямую связана с безопасностью программных продуктов.

Изменения в когнитивной активности при использовании ИИ

Недавнее исследование, проведённое в MIT, сравнило когнитивную активность студентов, пишущих эссе тремя способами: с помощью ИИ, с помощью поисковых систем и без использования внешних инструментов. Для анализа применяли электроэнцефалографию (ЭЭГ). Результаты показали, что группа, которая писала без помощи ИИ, продемонстрировала наибольшую активность мозга. Студенты, использующие ИИ, в свою очередь, показали наименьшую активность и худшие результаты в воспроизведении содержания своих работ.

Это указывает на то, что при частом использовании ИИ-ассистентов снижается уровень вовлечённости, что, в свою очередь, влияет на способность критически оценивать информацию. Участники, писавшие с помощью ИИ, не могли точно воспроизвести текст своих эссе, а их работы легко отличались от рукописных. Такой подход, как отмечают эксперты, может негативно сказаться на развитии навыков программирования, особенно если разработчики начинают полагаться на ИИ вместо самостоятельного анализа.

Рост угроз в сфере кибербезопасности

Данные AI Index Report, подготовленного Стэнфордским университетом, демонстрируют, что в 2024 году 78% организаций применяли ИИ, что на 23% больше, чем в 2023. Рост использования ИИ сопровождается увеличением количества киберинцидентов, связанных с ИИ — на 56% за тот же период. При этом менее двух третей организаций внедрили меры по защите от угроз, что делает их уязвимыми.

Особое внимание требует безопасность SDLC, поскольку уязвимости в коде становятся ключевыми целями злоумышленников. ИИ может вносить уязвимости, например, в виде атак с инъекцией запроса, что требует от разработчиков постоянного обучения и анализа кода.

Нужда в переосмыслении подходов к обучению

Для минимизации рисков ключевым становится обучение разработчиков, ориентированное на безопасность. Исследование MIT предлагает модель, при которой человек начинает работу самостоятельно, а затем использует ИИ для улучшения. Такой подход, названный «Brain-to-LLM», показал более высокую когнитивную активность и лучшее воспроизведение информации.

Для обеспечения безопасности в условиях роста внедрения ИИ, кибератак, атак с инъекцией запроса и недостаточной защиты от ИИ-угроз, бизнесу необходимо формировать культуру, где безопасность и критическое мышление становятся естественной частью процесса разработки.

Интересно: Какие меры обучения и контроля позволят сохранить критическое мышление и повысить уровень безопасности в условиях роста зависимости от ИИ?

АНАЛИТИЧЕСКИЙ РАЗБОР

Рост зависимости от ИИ: когда удобство становится риском

Когда ИИ становится помощником, а не инструментом

Искусственный интеллект всё глубже проникает в процессы разработки программного обеспечения. Он помогает писать код, находить ошибки, обучать специалистов и даже участвует в принятии решений. Однако за этим удобством скрывается важный сдвиг: у людей снижается когнитивная активность. Это не просто усталость от работы — это изменение самого процесса мышления. Когда ИИ делает за нас часть работы, мы начинаем меньше думать, меньше анализировать, а значит, больше рисковать.

Исследование из MIT показало, что студенты, пишущие эссе с помощью ИИ, демонстрировали меньшую активность мозга и худшие результаты в воспроизведении материала. Это означает, что ИИ может стать не помощником, а препятствием в развитии навыков. В сфере разработки программного обеспечения это особенно критично: если разработчики перестают критически оценивать код, риски появления уязвимостей резко растут.

Важный нюанс: ИИ может ускорить процесс, но не заменить понимание. Чем больше мы полагаемся на автоматизацию, тем больше теряем навыки, которые в критический момент могут спасти проект.

Рост угроз: ИИ как инструмент и как цель

В 2024 году 78% организаций использовали ИИ, что на 23% больше, чем в предыдущем году. При этом количество киберинцидентов, связанных с ИИ, выросло на 56%. Это не случайность. Злоумышленники начали использовать ИИ для атак — например, для инъекций в код или создания дипфейков. А значит, сам ИИ становится и инструментом угрозы, и её объектом.

Сложность ситуации в том, что большинство компаний не готовы к этим вызовам. Менее двух третей организаций внедрили меры по защите от ИИ-угроз. Это означает, что даже при наличии ИИ-ассистентов, направленных на повышение безопасности, бизнес остаётся уязвимым. Особенно в сфере SDLC (жизненный цикл программного обеспечения), где уязвимости в коде могут стать лазейкой для киберпреступников.

Новые данные показывают, что злоумышленники уже используют ИИ-модели в реальных атаках, создавая вредоносные инструменты, способные адаптироваться и менять поведение в процессе работы. Такие инструменты, как QuietVault, PromptSteal и FruitShell, уже применяются для кражи данных и обхода систем безопасности. Другие экспериментальные модели, включая PromptLock и PromptFlux, генерируют вредоносные скрипты и переписывают свой код через API, чтобы избежать обнаружения [!]. Это подчеркивает, что угрозы, связанные с ИИ, уже не теоретические — они реальны и масштабны.

Переосмысление обучения и культуры безопасности

Для минимизации рисков необходимо менять подходы к обучению разработчиков. Исследование MIT предлагает модель, где человек начинает работу самостоятельно, а затем использует ИИ для улучшения. Такой способ, названный «Brain-to-LLM», показывает, что когнитивная активность и качество работы остаются на высоком уровне.

Важно не просто обучать ИИ, но и обучать с его помощью — но не в ущерб самостоятельному мышлению. Это особенно актуально для российских компаний, где кадровый дефицит в сфере ИТ и кибербезопасности остаётся острым. ИИ может стать мощным инструментом, но только если он используется как часть процесса, а не как его замена.

Важный нюанс: Безопасность — это не только технологии, это культура. ИИ может помочь, но не заменит осознанное отношение к рискам и постоянное обучение.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Рост уязвимостей и ответственность за данные

В 2025 году 85% организаций столкнулись с утечкой данных, причём в половине случаев виновниками стали сотрудники или подрядчики. Рост объёмов корпоративной информации, сложности с отслеживанием конфиденциальных данных и увеличение рисков, связанных с использованием генеративных ИИ-инструментов, усиливают нагрузку на команды безопасности [!]. Интеграция ИИ в бизнес-процессы создаёт новые точки уязвимости, связанные с обработкой конфиденциальной информации. Генеративные ИИ-инструменты могут неосознанно раскрывать данные, если сотрудники вставляют их в публичные системы или используют модели, обученные на корпоративной информации.

Эти данные подчеркивают, что внедрение ИИ требует не только технической подготовки, но и строгой политики управления данными. Без чёткой стратегии и регулярного аудита риски утечек и неправомерного использования информации значительно возрастают. Особенно это касается компаний, которые используют ИИ-ассистентов для автоматизации рутинных задач, включая обработку конфиденциальных документов и переписки.

Коротко о главном

На сколько выросло использование ИИ в организациях в 2024 году?

По данным AI Index Report, 78% организаций применяли ИИ, что на 23% больше, чем в 2023 году, что сопровождалось увеличением киберинцидентов на 56%.

Почему безопасность SDLC становится важнее при внедрении ИИ?

Уязвимости в коде, особенно в виде атак с инъекцией запроса, становятся ключевыми целями злоумышленников, что требует усиления контроля и обучения разработчиков.

Какой подход предложил MIT для повышения когнитивной активности при работе с ИИ?

Модель «Brain-to-LLM» предполагает, что человек начинает задачу самостоятельно, а затем использует ИИ для улучшения, что показало более высокую активность мозга и лучшее воспроизведение информации.

Почему менее двух третей организаций готовы к угрозам, связанным с ИИ?

Несмотря на рост внедрения ИИ, многие компании не внедрили меры по защите от ИИ-угроз, что делает их уязвимыми для кибератак и атак с инъекцией запроса.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Разработка ПО; Бизнес; Персонал и развитие; Цифровизация и технологии

Оценка значимости: 8 из 10

Рост внедрения искусственного интеллекта в разработку программного обеспечения затрагивает множество ключевых сфер: безопасность, образование, технологии и экономику. Событие имеет национальный масштаб, так как речь идет о процессах, критически важных для IT-индустрии в России. Воздействие продолжительное, поскольку связано с изменением подходов к обучению и работе программистов. Глубина последствий высока — снижение критического мышления и увеличение рисков кибератак могут повлиять на качество и безопасность разрабатываемых продуктов.

Материалы по теме

Злоумышленники используют ИИ для создания вредоносного ПО, способного менять поведение в реальном времени

Упоминание конкретных вредоносных ИИ-инструментов, таких как QuietVault, PromptSteal, FruitShell, PromptLock и PromptFlux, демонстрирует, что угрозы, связанные с ИИ, уже реализованы в реальных атаках. Это усиливает тревогу о том, что ИИ не только помогает в защите, но и становится инструментом злоумышленников, способным адаптироваться и обходить системы безопасности.

Подробнее →
Утечки данных растут: ИИ, автоматика и человеческие ошибки под угрозой

Статистика о том, что 85% организаций столкнулись с утечкой данных, а в половине случаев виновниками стали сотрудники, подчеркивает человеческий фактор как критическую уязвимость. Интеграция ИИ в бизнес-процессы здесь используется как пример, как новые технологии могут создавать дополнительные точки риска, особенно если не сопровождаются политиками управления данными.

Подробнее →
ИИ-суммари подменяют мышление и снижают качество знаний — что это значит для бизнеса и образования

Утверждение о снижении когнитивной нагрузки и поверхностном знании при использовании ИИ-суммари подкрепляет аргумент о том, что ИИ может подменять мышление. Это усиливает идею о том, что возложение ответственности на ИИ в обучении и анализе данных может привести к деградации навыков, особенно если человек не участвует в процессе самостоятельно.

Подробнее →
ИИ и соцсети могут ухудшить когнитивные способности — новые исследования

Данные о снижении когнитивной активности у студентов, использующих ИИ для написания текстов, служат аргументом в пользу того, что ИИ может мешать развитию навыков. Это поддерживает тезис о том, что автоматизация мышления снижает критическое мышление и ухудшает качество работы, особенно в сфере разработки программного обеспечения.

Подробнее →