Декабрь 2025   |   Обзор события   | 8

Как оценить угрозы в современных ИИ-системах: от обобщений к реальному риску

Современные ИИ-системы требуют нового подхода к моделированию угроз, учитывающего функциональные особенности, чувствительность данных и контекст использования. Разделение ИИ-стеков на зоны риска помогает более точно оценить потенциальные утечки и сбои, особенно в моделях, интегрированных в ключевые бизнес-процессы.

ИСХОДНЫЙ НАРРАТИВ

Оценка угроз в современных ИИ-системах: от обобщений к контексту

По данным Helpnetsecurity, подход к моделированию угроз в современных ИИ-системах требует переосмысления. В интервью с Naor Penso, главным специалистом по информационной безопасности в Cerebras Systems, обсуждаются ключевые аспекты, которые необходимо учитывать при анализе рисков, связанных с искусственным интеллектом.

От общих меток к функциональным зонам

Традиционная практика моделирования угроз часто сводит все ИИ-системы к единой категории. Однако, как отмечает Penso, такой подход упускает важные различия между компонентами. Современные ИИ-стеки лучше разделять по функции, способу использования, чувствительности данных и потенциальным последствиям сбоя или утечки информации. Это позволяет отличить низкорисковые инструменты внутренней продуктивности от моделей, встроенных в критически важные бизнес-процессы.

Такое разделение помогает оценивать ИИ не по метке, а по его реальному влиянию на бизнес и безопасность. Например, модель, которая является частью интеллектуальной собственности компании, требует более строгого подхода к защите, чем вспомогательный инструмент для внутренних задач.

Моделирование угроз как инструмент повышения надежности

Для руководителей, не знакомых с техническими деталями, моделирование угроз может восприниматься как препятствие. Чтобы избежать этого, Penso предлагает использовать аналогии из их области. Например, в автосалоне не позволят новому продавцу выдать скидку в 80%, потому что это угрожает доходу, репутации и стабильности. Такой же подход можно применить к ИИ: моделирование угроз выявляет риски, которые иначе могут остаться незамеченными.

Новые вызовы в моделировании угроз

Когда ИИ становится частью инфраструктуры, традиционные подходы к моделированию угроз начинают терять актуальность. Особенно это касается больших языковых моделей (LLM), где поведение системы не всегда предсказуемо. В отличие от классических алгоритмов, где одинаковый входной сигнал возвращает одинаковый результат, в LLM на выход влияют параметры, такие как температура и top_p. Это приводит к неопределенности, затрудняющей оценку корректности работы модели.

Сигналы, которые стоит учитывать

Одним из часто игнорируемых аспектов в моделировании угроз являются паттерны вызовов инструментов. Современные реализации LLM активно используют внешние инструменты, такие как поисковики или внутренние микросервисы. Если эти вызовы не ограничены, они могут привести к неожиданному поведению модели, включая возможные атаки. Отклонения в частоте, последовательности или параметрах вызовов могут указывать на злоупотребление, сбоях модели или попытку получить несанкционированный доступ.

Расширение категории рисков

Когда модели становятся частью критической инфраструктуры, классические категории угроз — конфиденциальность, целостность и доступность — начинают включать новые аспекты. Целостность расширяется до угроз вроде дрейфа модели, отравления данных и несанкционированного смещения. Доступность затрагивает не только устойчивость модели, но и её производительность, а конфиденциальность — теперь включает защиту самой модели как интеллектуальной собственности.

Интересно: Какие новые подходы и инструменты потребуются для адаптации моделирования угроз к неопределенности и динамике, характерной для современных ИИ-систем?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Переписывание правил безопасности в эпоху искусственного интеллекта

Когда метки не работают, а риски — растут

Традиционные подходы к моделированию угроз, которые успешно работали в мире, где системы были предсказуемыми и изолированными, сегодня сталкиваются с новыми вызовами. В эпоху искусственного интеллекта, особенно больших языковых моделей, границы между компонентами размыты, поведение систем не всегда линейно, а угрозы приобретают нестандартные формы. Это требует переосмысления не только методов, но и самого понимания того, что может пойти не так.

Распределение ИИ-стека на функциональные зоны — это не только технический приём, а стратегический шаг. Такой подход позволяет увидеть, что модель, встроенная в критически важный бизнес-процесс, несёт на себе гораздо большие риски, чем вспомогательный инструмент для анализа данных. При этом важно учитывать не только утечку информации, но и то, как сбой в модели может повредить репутации компании, её доходам или даже нарушить закон.

Важный нюанс: Без адаптации моделирования угроз к реальной роли ИИ в бизнесе, компании рискует оценить риски слишком оптимистично, а уязвимости — недооценить.

Угрозы, которые нельзя увидеть

Особенность современных ИИ-систем в том, что их поведение не всегда воспроизводимо. В отличие от традиционных программ, где один и тот же вход всегда даёт одинаковый результат, в больших языковых моделях выход зависит от множества параметров, включая температуру и вероятностные пороги. Это приводит к неопределённости, которая затрудняет как тестирование, так и мониторинг [!].

Кроме того, современные модели активно взаимодействуют с внешними инструментами — поисковыми системами, внутренними сервисами, API. Эти взаимодействия могут стать точками проникновения. Например, если модель начинает слишком часто обращаться к определённому сервису или использовать его в неожиданном порядке, это может быть признаком атаки, сбоя или попытки извлечь из модели конфиденциальную информацию [!].

Новые аспекты безопасности

Когда ИИ становится частью критической инфраструктуры, традиционные категории угроз — конфиденциальность, целостность и доступность — перестают быть достаточными. Целостность теперь включает угрозы вроде дрейфа модели или отравления данных. Доступность — это не только устойчивость к сбоям, но и устойчивость к нагрузке. А конфиденциальность — это не только защита данных, но и защита самой модели как интеллектуальной собственности.

Важный нюанс: Моделирование угроз в ИИ-системах требует не только технической экспертизы, но и глубокого понимания бизнес-процессов и того, как модель в них встроена. Без этого любые меры могут оказаться недостаточными или излишними.

Угрозы извне: ИИ как инструмент злоумышленников

Растущая доступность ИИ открывает новые векторы атак. Киберпреступники уже используют большие языковые модели для генерации вредоносного кода, что позволяет им быстрее создавать сложные троянеры и другие инструменты для взлома [!]. Это увеличивает масштаб и скорость проникновения в системы, делая традиционные методы защиты менее эффективными.

Кроме того, агенты ИИ, внедрённые в бизнес-процессы, могут стать точками утечки данных, если их действия не контролируются. 72% организаций уже используют агенты ИИ, но не все обеспечивают достаточный уровень надзора. Это требует внедрения централизованных платформ управления, которые позволят контролировать поведение агентов и минимизировать риски [!].

Сложности в политике конфиденциальности

С увеличением масштаба использования ИИ, растёт и сложность политик конфиденциальности. Политики конфиденциальности крупных языковых моделей выросли в объёме на 53% по сравнению с политиками программного обеспечения 2019 года, достигнув в среднем 3 346 слов. Уровень языка соответствует университетскому, а неопределённые формулировки и множественные условия затрудняют понимание пользователю, как именно обрабатываются данные [!].

Это создаёт барьер для пользователей, которые не могут точно понять, как обрабатываются их данные. Поставщики ИИ должны сделать политику понятнее, чтобы повысить доверие к своим сервисам.

Рост угроз в 2026 году

51% европейских IT-специалистов прогнозируют, что в 2026 году угрозы, связанные с искусственным интеллектом и дипфейками, станут ключевыми рисками для организаций. 59% из них указывают на AI-ориентированную социальную инженерию и внутренние утечки данных как наиболее значимые угрозы [!].

Это требует от компаний не только обновления политики безопасности, но и пересмотра подходов к обучению сотрудников, а также внедрения новых инструментов для обнаружения инцидентов.

Важный нюанс: С ростом масштаба использования ИИ увеличивается и атакующая поверхность. Руководители по информационной безопасности должны учитывать не только угрозы в данных и моделях, но и в физической инфраструктуре, где ИИ начинает играть ключевую роль [!].

Перспективы развития

Современные модели, такие как Gemini 3 Flash, демонстрируют улучшенную скорость и эффективность, что делает их подходящим решением для масштабных проектов и задач в реальном времени. Однако это также снижает операционные издержки и повышает доступность ИИ, что может привести к росту угроз [!].

Такие разработки требуют адаптации подходов к моделированию угроз, чтобы учитывать не только технические аспекты, но и экономические и стратегические последствия.

Выводы

Переход к ИИ-ориентированной безопасности требует системного подхода. Моделирование угроз должно учитывать не только технические параметры, но и бизнес-контекст, где используется модель . Это включает в себя оценку рисков, связанных с данными, моделями, приложениями и физической инфраструктурой.

Важный нюанс: Без адаптации к новым реалиям, компании рискуют не только потерять конкурентное преимущество, но и столкнуться с серьёзными финансовыми и репутационными потерями.

Это время, когда безопасность ИИ не остаётся на периферии, а становится центральным элементом стратегии бизнеса.

Коротко о главном

Как моделирование угроз помогает руководителям, не знакомым с техническими деталями ИИ?

Penso предлагает использовать аналогии из повседневного управления, например, как в автосалоне ограничивают скидки, чтобы сохранить доход и стабильность. Такой подход позволяет руководителям понять, что моделирование угроз выявляет скрытые риски, которые могут угрожать бизнесу.

Почему поведение больших языковых моделей (LLM) затрудняет моделирование угроз?

В отличие от классических алгоритмов, поведение LLM зависит от параметров, таких как температура и top_p, что делает их работу менее предсказуемой. Это приводит к неопределённости в оценке корректности работы модели и усложняет анализ угроз.

Какие сигналы могут указывать на угрозу в работе LLM?

Паттерны вызовов внешних инструментов, таких как поисковики или микросервисы, могут сигнализировать о злоупотреблении, сбое модели или попытке несанкционированного доступа. Отклонения в частоте, последовательности или параметрах вызовов требуют дополнительного анализа.

Как расширяются классические категории угроз при внедрении ИИ в критическую инфраструктуру?

Конфиденциальность теперь включает защиту самой модели как интеллектуальной собственности. Целостность охватывает угрозы, такие как дрейф модели и отравление данных. Доступность затрагивает не только устойчивость, но и производительность модели.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Аналитика и исследования

Оценка значимости: 8 из 10

Обсуждение угроз в современных ИИ-системах имеет национальный масштаб, поскольку искусственный интеллект становится ключевым элементом цифровой инфраструктуры, включая Россию. Влияние затрагивает несколько сфер — безопасность, технологии, экономику и политику, особенно в контексте защиты интеллектуальной собственности и предотвращения утечек данных. Последствия могут быть долгосрочными, поскольку речь идет о формировании стандартов и подходов к обеспечению надежности ИИ.

Материалы по теме

ИИ меняет бизнес: новые риски в данных, моделях и физической инфраструктуре

Утверждение о том, что ИИ интегрируется в операционные процессы и физическую инфраструктуру, увеличивая атакующую поверхность, напрямую подкрепляется данными из блока. Он усиливает аргумент о том, что традиционные подходы к безопасности становятся недостаточными.

Подробнее →
Как обманывают защиту ИИ: уязвимости в ограничителях больших языковых моделей

Упоминание уязвимостей защитных механизмов ИИ, таких как guardrails, и пример атаки prompt injection с помощью метода EchoGram показывает, что даже современные модели не защищены от обхода ограничений. Это иллюстрирует необходимость пересмотра подходов к моделированию угроз.

Подробнее →
ИИ и дипфейки: угрозы, которые перевернут бизнес к 2026

Статистика о прогнозах европейских IT-специалистов (51% и 59%) используется как доказательство роста угроз, связанных с ИИ и дипфейками. Это усиливает тезис о том, что компании должны готовиться к новым рискам в 2026 году.

Подробнее →
Киберпреступники крадут данные отелей и авиакомпаний с помощью ИИ

Упоминание использования ИИ злоумышленниками для генерации вредоносного кода и пример атак на отели и авиакомпании показывает, как ИИ становится инструментом киберпреступности. Это подкрепляет идею о необходимости адаптации защиты к новым векторам атак.

Подробнее →
Как избежать рисков неконтролируемого использования агентов ИИ

Данные о том, что 72% организаций используют агентов ИИ без достаточного надзора, подчеркивают проблему утечки данных и необходимости централизованных платформ управления. Это служит аргументом в пользу внедрения стратегических мер по контролю ИИ-агентов.

Подробнее →
Политики конфиденциальности ИИ становятся длиннее и сложнее для понимания

Упоминание роста объёма и сложности политик конфиденциальности ИИ-моделей (на 53% по сравнению с 2019 годом) подчеркивает проблему недоступности информации для пользователей. Это усиливает аргумент о необходимости повышения прозрачности и доверия к ИИ-сервисам.

Подробнее →
Великобритания усиливает кибербезопасность ключевых отраслей

Упоминание закона Великобритании о кибербезопасности и устойчивости как примера регуляторного подхода используется для подчёркивания важности правовой базы в обеспечении безопасности ИИ. Это служит иллюстрацией того, как регуляция может стать частью комплексного решения.

Подробнее →