Бизнесы массово внедряют ИИ-агентов, но рискуют утечкой данных
35% компаний уже внедрили в работу ИИ-агентов и ботов, а более 70% планируют это сделать в ближайшее время, поскольку такие субъекты обеспечивают высокую производительность и масштабируемость. Эксперты отмечают, что они становятся новыми векторами атак, поскольку редко подвергаются проверке и могут использоваться для фишинга, синтетического мошенничества и других видов киберпреступлений.
По данным Cybersecurity-Insiders, 35% компаний уже внедрили негуманоидные идентификаторы (НГИ), включая ИИ-агентов и ботов, а более 70% планируют это сделать в ближайшее время. Такие субъекты, обладая высокой производительностью и масштабируемостью, становятся важной частью цифровой инфраструктуры бизнеса. Однако они также открывают новые векторы атак и создают уязвимости, которые ранее не были учтены.
Угрозы, связанные с НГИ
ИИ-агенты, боты, токены, созданные машинами, получают постоянный доступ к системам и редко подвергаются проверке. Это делает их привлекательной целью для злоумышленников. По данным экспертов, такие субъекты могут использоваться для совершения синтетического мошенничества, фишинга и других видов атак, которые трудно обнаружить.
Ключевая проблема заключается в том, что барьер для запуска атак с применением НГИ снижается. С появлением сервисов, предоставляющих ИИ как услугу, злоумышленникам не требуется высокий уровень технической подготовки. Они могут создавать дипфейки, писать вредоносное ПО и генерировать синтетические идентификаторы, используя лишь простые команды.
Управление рисками для НГИ
Чтобы противостоять этим угрозам, необходимо пересмотреть подходы к идентификации и аутентификации. Компании должны применять те же строгие стандарты к НГИ, что и к человеческим идентификаторам. Это включает:
- Аутентификация НГИ: применение криптографических ключей, регулярное обновление сертификатов и политики Zero Trust.
- Жизненный цикл НГИ: отслеживание с момента создания до уничтожения, контроль поведения и управление правами.
- Динамическая оценка рисков: использование ИИ для анализа поведенческих паттернов и выявления аномалий в реальном времени.
Защита от атак на основе НГИ
Злоумышленники активно используют НГИ для масштабных атак, которые способны перегружать системы и обходить традиционные меры безопасности. Чтобы противостоять этим угрозам, компании должны внедрять многоуровневую систему защиты, включающую:
- Анализ скорости действий: выявление подозрительных паттернов, таких как множественные попытки регистрации с одного устройства.
- Динамическая проверка подлинности: переход от статических методов к анализу движений, глубины и текстуры.
- Кросс-транзакционный анализ рисков: сопоставление данных из разных систем для выявления связей между подозрительными действиями.
Интересно: Какие меры безопасности окажутся эффективными, если злоумышленники смогут создавать идентификаторы, которые невозможно отличить от реальных?
Рост влияния негуманоидных идентификаторов и новые вызовы безопасности
Когда машины становятся пользователями
С каждым годом количество негуманоидных идентификаторов — ИИ-агентов, ботов, автоматизированных систем — растёт. Компании всё чаще делегируют им функции, которые раньше выполняли люди: обработка данных, управление системами, выполнение рутинных операций. Это повышает эффективность, но при этом создаёт новые точки проникновения для злоумышленников.
Ключевой момент: негуманоидные субъекты получают доступ к системам, но редко подвергаются такому же уровню проверки, как люди. Они не проходят биометрию, не задерживаются на подозрительных действиях, не вызывают подозрений при частых запросах. В результате, если злоумышленник получает контроль над таким идентификатором, он может действовать скрытно и масштабно.
Снижение барьеров для атак
С развитием таких технологий ИИ как услуги, создание вредоносных сценариев становится доступнее. Не нужно быть профессиональным хакером, чтобы сгенерировать дипфейк, создать синтетический идентификатор или запустить атаку на систему. Достаточно пары команд в облаке — и атака готова.
Это создаёт новую реальность: атаки становятся не сложными, а массовыми. То, что раньше требовало специфических знаний, теперь доступно широкому кругу. Это снижает порог вхождения в киберпреступность и делает её более демократичной, что, в свою очередь, увеличивает её распространённость.

Пересмотр подходов к безопасности
Традиционные методы защиты, ориентированные на человека, перестают справляться. Теперь необходимо учитывать, что все субъекты, взаимодействующие с системой, могут быть машинами. Это требует:
- Аутентификации на уровне кода, а не только имени и пароля.
- Контроля жизненного цикла — от создания идентификатора до его удаления.
- Динамического анализа поведения, чтобы отличить «нормальное» поведение машины от аномального.
Важно понимать, что защита от атак на основе НГИ — это не просто вопрос обновления ПО. Это вопрос переосмысления всей архитектуры безопасности. В будущем, возможно, понятие «пользователь» станет расплывчатым, и вместо него будут использоваться более точные метрики: уровень доверия, паттерн поведения, география запросов и многое другое.
Важный нюанс: Защита от негуманоидных атак требует не только новых инструментов, но и нового мышления — перехода от контроля человека к контролю действий, независимо от их источника.
Влияние на бизнес и технологии
Для российского бизнеса особенно важно учитывать, что внедрение НГИ и защита от связанных с ними атак требует инвестиций в обучение персонала, обновление инфраструктуры и, возможно, сотрудничество с внешними экспертами. Компании, которые не успеют адаптироваться, рискуют столкнуться с утечками данных, финансовыми потерями и потерей репутации.
Ключевая задача: необходимо внедрять системы, способные анализировать поведение не только людей, но и машин. Это включает в себя не только ИИ для мониторинга, но и процессы, которые будут обновляться по мере развития угроз.
Важный нюанс: Когда машины становятся пользователями, безопасность перестаёт быть вопросом технической реализации — она становится вопросом архитектуры доверия.
Утечки данных через ИИ-агентов
Новые угрозы связаны с тем, что AI-агенты, используемые в корпоративных системах, могут стать вектором утечки конфиденциальной информации. Исследование показало, что злоумышленники могут внедрить вредоносные инструкции в текст, невидимый для пользователя. Агенты, анализируя такие данные, могут передавать секреты на сторонние серверы, используя встроенные инструменты поиска и работы с файлами. Это открывает возможность для атак, которые трудно обнаружить, так как они происходят в рамках обычных операций системы [!].
Угрозы из внешних источников
Дополнительный риск возникает при взаимодействии ИИ-агентов с веб-сайтами. Был обнаружен метод атаки, при котором веб-сайты могут отправлять ИИ-агентам скрытые команды, недоступные обычным пользователям, используя браузерную идентификацию. Это позволяет заставлять агентов выполнять действия, противоречащие интересам пользователей, например, извлекать конфиденциальную информацию или устанавливать вредоносное ПО. Тестирование показало, что даже современные агенты, такие как GPT-5 Fast и Google Gemini 2.5 Pro, уязвимы к таким атакам [!].
Меры защиты и будущее ИИ-безопасности
Для минимизации рисков, связанных с НГИ, необходимо внедрять многоуровневую систему защиты. Это включает:
- Анализ скорости действий: выявление подозрительных паттернов, таких как множественные попытки регистрации с одного устройства.
- Динамическая проверка подлинности: переход от статических методов к анализу движений, глубины и текстуры.
- Кросс-транзакционный анализ рисков: сопоставление данных из разных систем для выявления связей между подозрительными действиями.
Важно учитывать, что защита от атак на основе НГИ требует не только технических решений, но и изменений в подходах к управлению доступом и поведением автоматизированных субъектов. Например, новая система gpt-oss-safeguard от OpenAI позволяет разработчикам устанавливать и корректировать правила безопасности в реальном времени, не меняя саму модель. Это повышает прозрачность процесса принятия решений и даёт возможность адаптировать контроль под конкретные сценарии [!].
Перспективы и регулирование
В условиях роста угроз, связанных с ИИ, Министерство цифрового развития рассматривает возможность маркировки контента, сгенерированного искусственным интеллектом. Цель — повысить прозрачность и ответственность за распространение поддельной информации. Такая маркировка может помочь пользователям определять источник контента и снизить риски его злоупотребления [!].
Заключение
Рост числа применения ИИ в бизнес-процессах создаёт как возможности, так и новые риски. Компаниям необходимо пересмотреть подходы к безопасности, учитывая, что источники угроз могут быть не людьми, а машинами. Внедрение современных технологий, таких как динамическая аутентификация и анализ поведения, становится критически важным для обеспечения стабильности и доверия в цифровой среде.
Источник: cybersecurity-insiders.com