Декабрь 2025   |   Обзор события   | 7

GenAI в компаниях: рост утечек данных и уязвимостей

Генеративный ИИ активно внедряется в корпоративные процессы, что приводит к росту объёмов передаваемых данных и увеличению рисков утечек. Анализ показал, что значительная доля файлов и запросов содержит конфиденциальную информацию, а пользовательское поведение усиливает уязвимости, особенно в неутверждённых ИИ-приложениях и цепочках поставок.

ИСХОДНЫЙ НАРРАТИВ

По данным Helpnetsecurity, генеративный ИИ (GenAI) активно внедряется в корпоративные процессы, меняя подходы к созданию, обмену и хранению информации. Вместе с этим растёт число угроз для безопасности, связанных с утечкой данных и сложностью их отслеживания.

Распространение GenAI и рост уязвимостей

Второй квартал 2025 года показал значительное увеличение объёма данных, передаваемых пользователями в GenAI-приложения. Анализ 1 млн запросов и 20 тыс. загруженных файлов выявил, что 22% файлов и 4,37% запросов содержат конфиденциальную информацию. Среди них — исходные коды, логины, финансовые документы и данные о клиентах. Это создаёт серьёзные риски утечки, особенно при отсутствии чётких политики и контроля.

Повышение рисков из-за пользовательского поведения

Работники компаний всё чаще используют GenAI-инструменты, такие как Microsoft Copilot, для создания пользовательских приложений и агентов. Рост в 50% за год привёл к увеличению числа теневых ИИ-приложений, не утверждённых IT-отделом. Это усугубляет проблему безопасности, поскольку такие приложения часто не подчиняются корпоративным стандартам и могут содержать уязвимости.

Недостаток готовности корпоративной политики

Несмотря на рост интереса к GenAI, менее трети организаций внедрили формальные политики по его использованию. 63% компаний обеспокоены тем, что ИИ может быть использован против них. При этом только 18% инвестируют в инструменты распознавания дипфейков, что создаёт значительный разрыв между угрозой и защитой.

Технические слабые места

Одной из ключевых проблем остаётся тестирование GenAI-приложений. Всего 66% компаний регулярно проверяют свои решения, а 48% считают необходимым приостановить развитие для усиления защитных мер. В то же время 95% компаний проводили пентесты, но лишь 21% найденных уязвимостей были устранены. Среди них — инъекции запросов, манипуляции с моделью и утечка данных.

Увеличение объёма передаваемых данных

Объём данных, передаваемых в GenAI-приложения, вырос в 30 раз за год. В среднем организация отправляет более 7,7 ГБ данных ежемесячно, включая защищённые данные, ключи доступа, исходные коды и интеллектуальную собственность. Это резко повышает вероятность утечек и нарушений регулятивных требований.

Риски в цепочке поставок

GenAI также меняет подходы к управлению цепочками поставок. 97% компаний уже используют ИИ в этих процессах, но лишь 33% применяют специализированные инструменты. 43% выразили обеспокоенность по поводу использования и передачи данных при применении GenAI, а 40% не доверяют точности его выводов. Это создаёт дополнительные сложности для обеспечения надёжности и прозрачности.

Недостаточная прозрачность в обработке данных

Исследование показало, что пользователи GenAI-платформ часто не знают, как их данные используются, передаются ли они третьим лицам и в какой форме. Анализ 11 категорий выявил, что многие платформы недостаточно раскрывают свои политики конфиденциальности, что снижает уровень доверия.

Возможности для финансового сектора

В банковском и финансовом секторе GenAI открывает широкие возможности, особенно в анализе неструктурированных данных. Однако внедрение требует усиления контроля. 10% запросов в GenAI-приложения рискуют утечкой данных, а 8,5% содержат конфиденциальную информацию. Это требует разработки стратегий, обеспечивающих безопасность и соответствие нормам.

Интересно: Как обеспечить безопасность данных при росте использования GenAI, если угрозы и уязвимости развиваются быстрее, чем защитные меры?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Когда ИИ работает на человека — а человек не знает, что работает на ИИ

Рост популярности генеративного ИИ в корпоративной среде — это не только технологический тренд. Это сдвиг в поведении сотрудников, который меняет баланс сил внутри организаций. Работники, используя ИИ для автоматизации задач, часто делают это вне поля зрения ИТ-отделов. Это создаёт новую реальность, где безопасность данных становится не столько вопросом технологий, сколько вопросом управления поведением.

Когда сотрудники становятся провайдерами угроз

Microsoft Copilot и подобные инструменты становятся не только помощниками, но и проводниками конфиденциальной информации в сторонние системы. Второй квартал 2025 года показал, что каждый пятый загружаемый файл содержит данные, которые не должны покидать корпоративную сеть. Это не всегда происходит намеренно — чаще всего это результат недостаточной осведомлённости или слишком высокого доверия к удобству [!].

Важный нюанс: Утечка данных начинается не с хакеров, а с пользователей, которые не понимают, что вводят в ИИ-системы. Это делает их самыми слабыми звеньями в цепочке безопасности.

Политики, которые не успевают

Менее трети компаний имеют чёткие правила использования генеративного ИИ. Это не потому, что они не видят рисков — наоборот, 63% организаций обеспокоены потенциальными угрозами. Проблема в том, что формирование таких политик требует времени, ресурсов и согласования между разными подразделениями. В то же время, инвестиции в защиту от дипфейков и других атак остаются на крайне низком уровне.

Важный нюанс: Скорость внедрения ИИ превышает скорость создания защитных мер. Это создаёт разрыв, который злоумышленники уже начали использовать.

Скрытые угрозы в цепочке поставок

ИИ меняет не только внутренние процессы, но и подходы к управлению поставщиками. Компании активно внедряют ИИ для анализа контрактов, прогнозирования спроса и оптимизации логистики. Однако большинство не готовы к тому, как ИИ может быть использован для манипуляций с данными или подделки информации. Даже если модель кажется точной, она может содержать смещения, которые сложно выявить без специализированных инструментов.

Важный нюанс: Увеличение доверия к ИИ в цепочках поставок может стать ловушкой, если не обеспечить прозрачность и контроль за процессами [!].

Утечки через автономные агенты

Новые данные подтверждают, что риски не ограничиваются действиями сотрудников. Автономные ИИ-агенты, такие как Copilot, получают всё больше полномочий для выполнения задач от имени пользователей. Однако они могут ошибаться, выполняя неожиданные или вредоносные команды. Такие ошибки, как переименование папок вместо форматирования диска, могут подорвать доверие пользователей. Подобные инциденты уже случались в других компаниях, включая Google и Replit, где ИИ-агенты удаляли данные или создавали фиктивные записи [!].

Важный нюанс: Рост автономности агентов требует усиления контроля, особенно при работе с конфиденциальной информацией [!].

Угрозы из-за галлюцинаций

Одной из часто недооцениваемых угроз является склонность генеративных моделей к галлюцинациям — выдаче ложной информации. Это проявляется в создании фиктивных ссылок, данных или интерпретаций, особенно при сложных запросах. Для снижения рисков рекомендуют использовать конкретные формулировки, ограничивать источники данных и применять режимы Smart и Deep Research. Однако автоматическая верификация недостаточна: факты требуют ручной проверки через независимые источники, особенно в юридических, медицинских или научных задачах [!].

Важный нюанс: Галлюцинации становятся реальной угрозой для бизнеса, особенно в сфере принятия решений. Необходимо внедрять процессы с участием человека и использовать ограничения по предметной области [!].

Утечки через сторонние сервисы

Дополнительные данные показывают, что утечки данных происходят не только через ИИ-агентов, но и через популярные онлайн-инструменты разработчиков. Например, сервисы форматирования кода, такие как JSONFormatter и CodeBeautify, сохраняют и публично выставляют введённые пользователем данные, включая конфиденциальную информацию. В результате было обнаружено более 80 000 записей с участием организаций из разных отраслей. Эксперимент с canary tokens подтвердил, что злоумышленники могут получить доступ к этим данным [!].

Важный нюанс: Популярные сервисы становятся новыми векторами атак. Компаниям следует пересмотреть политики использования сторонних инструментов и внедрять меры по защите данных.

Выводы и рекомендации

  1. Усиление политики и контроля: Необходимо сформировать чёткие правила использования ИИ, включая ограничения на загрузку конфиденциальных данных и использование сторонних сервисов [!].
  2. Обучение сотрудников: Увеличение осведомлённости о рисках, связанных с ИИ, поможет снизить число случайных утечек. Регулярные тренинги и симуляции атак повысят уровень цифровой культуры [!].
  3. Инвестиции в защиту: Компании должны уделить внимание инструментам распознавания дипфейков и других атак. Внедрение систем анализа поведения и геолокации поможет выявлять аномалии [!].
  4. Контроль автономных агентов: Для работы с ИИ-агентами необходимо внедрять централизованные платформы управления, которые позволят контролировать действия агентов и минимизировать потенциальные угрозы [!].
  5. Прозрачность и маркировка: Внедрение механизмов маркировки контента, сгенерированного ИИ, повысит доверие и поможет пользователям определять источник информации [!].

Развитие генеративного ИИ не должно происходить в ущерб безопасности. Успех в этой области зависит от умения адаптироваться к новым рискам, внедрять меры защиты и сохранять баланс между инновациями и контролем.

Коротко о главном

Почему использование Microsoft Copilot в компаниях усугубляет проблемы безопасности?

Рост на 50% за год привёл к увеличению числа тенинших ИИ-приложений, которые не утверждены IT-отделом и не соответствуют корпоративным стандартам.

Почему только 18% компаний инвестируют в инструменты распознавания дипфейков?

Менее трети организаций внедрили формальные политики по использованию GenAI, несмотря на то, что 63% обеспокоены возможным использованием ИИ против себя.

Почему тестирование GenAI-приложений остаётся проблемой?

Только 66% компаний регулярно проверяют свои решения, а из найденных уязвимостей в ходе пентестов устранены были лишь 21%, включая инъекции запросов и манипуляции с моделью.

Почему объём данных, передаваемых в GenAI-приложения, стал критическим?

Он вырос в 30 раз за год, в среднем составляя более 7,7 ГБ в месяц, включая ключи доступа и интеллектуальную собственность, что повышает вероятность утечек.

Почему GenAI создаёт риски в цепочках поставок?

97% компаний используют ИИ в этих процессах, но лишь 33% применяют специализированные инструменты, а 43% обеспокоены передачей данных и точностью выводов.

Почему пользователи GenAI-платформ не доверяют политикам конфиденциальности?

Анализ показал, что платформы недостаточно раскрывают, как обрабатываются и передаются данные, включая передачу третьим лицам.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Цифровизация и технологии; Финансы; Развлечение и творчество

Оценка значимости: 7 из 10

Внедрение генеративного ИИ в корпоративные процессы затрагивает несколько ключевых сфер — безопасность, экономику, технологии и регулятивную среду, что делает событие актуальным для широкой аудитории, включая российские компании. Утечки данных, недостаточная прозрачность и рост числа теневых приложений усиливают риски, особенно для организаций, которые пока не готовы к масштабному внедрению ИИ. Поскольку аналогичные тренды наблюдаются и в России, а вопросы кибербезопасности и цифровой трансформации становятся приоритетными, событие получает высокую оценку.

Материалы по теме

Генеративный ИИ угрожает кибербезопасности: как защитить данные от дипфейков и атак

Упоминание угроз, связанных с дипфейками и атаками на биометрическую аутентификацию, служит аргументом в пользу необходимости внедрения систем анализа поведения и геолокации для повышения кибербезопасности. Эти данные подчеркивают, что традиционные методы защиты уже не справляются с масштабированием угроз, создаваемых генеративным ИИ.

Подробнее →
США: Рекордные сокращения под давлением ИИ и тарифов

Упоминание рисков, связанных с доверием к ИИ в цепочках поставок, подкрепляется данными о сокращениях штата в США, вызванных внедрением ИИ. Это усиливает аргумент о том, что доверие к ИИ может привести к скрытым уязвимостям, особенно если отсутствует прозрачность.

Подробнее →
Microsoft тестирует «агентную ОС» Windows: риски и ошибки ИИ в реальных системах

Описание ошибок, совершаемых автономными агентами, такими как непреднамеренное переименование папок вместо форматирования диска, напрямую поддерживает ключевую идею о рисках автономности ИИ-агентов. Примеры из блока усиливают довод о необходимости усиления контроля.

Подробнее →
ИИ-модели Microsoft Copilot и ChatGPT генерируют ложные данные: как снизить риск ошибок

Упоминание галлюцинаций генеративных ИИ-моделей, включая создание фиктивных ссылок и данных, используется для аргументации необходимости ручной проверки и ограничений в юридических и научных задачах. Это подчёркивает реальную угрозу галлюцинаций для бизнеса.

Подробнее →
Минцифры обсуждает маркировку контента, созданного ИИ

Упоминание необходимости маркировки контента, сгенерированного ИИ, используется в рекомендациях по повышению доверия и улучшению прозрачности. Блок поддерживает аргумент о том, что маркировка помогает пользователям определять источник информации и снижает риски её злоупотребления.

Подробнее →
Сотрудники — главная точка уязвимости в кибербезопасности бизнеса

Данные о том, что 65% компаний считают сотрудников главной точкой уязвимости, а 19% используют открытые ИИ-модели для передачи конфиденциальной информации, подкрепляют аргумент о человеческом факторе как слабом звене в кибербезопасности. Это усиливает необходимость обучения сотрудников и повышения цифровой культуры.

Подробнее →
Как избежать рисков неконтролируемого использования агентов ИИ

Упоминание необходимости централизованных платформ управления агентами ИИ, чтобы контролировать их действия и минимизировать угрозы, используется в рекомендациях по контролю автономных агентов. Это подчеркивает важность систематического подхода к управлению рисками.

Подробнее →