Ноябрь 2025   |   Обзор события   | 7

Рост утечек данных через AI-чат-боты: как защитить конфиденциальность

Рост популярности AI-чат-ботов в личной и профессиональной среде приводит к увеличению рисков утечки конфиденциальной информации, поскольку данные пользователей сохраняются в облачных системах с неясными политиками хранения и обработки. В 2024 году число утечек через генеративные модели достигло рекордного уровня, особенно в финансовой, медицинской и юридической сферах, где сотрудники передавали внутренние данные в публичные сервисы, обходя корпоративные системы безопасности.

ИСХОДНЫЙ НАРРАТИВ

По данным Cybernews, рост популярности AI-чат-ботов в личной и рабочей сфере вызывает рост рисков, связанных с конфиденциальностью информации. Системы, которые кажутся интимными и безопасными, на деле работают как облачные сервисы с политиками хранения данных, логами и сложными пайплайнами.

Риски, связанные с «теневым» использованием AI

По данным eSecurityPlanet, 77% сотрудников вводят конфиденциальную информацию в публичные чат-боты, обходя системы защиты данных. Это особенно опасно, поскольку данные, переданные в такие сервисы, остаются в сети, могут быть украдены или храниться дольше, чем пользователь ожидает.

Технологии вроде ChatGPT воспринимаются как личные помощники, но на деле они — часть открытой инфраструктуры, где ввод пользователя становится частью набора данных. Такие системы не отличают между «входом» и «инструкцией», что создаёт потенциальные уязвимости. Как отмечает Wired, это может привести к утечке информации, даже если не было прямого нарушения безопасности.

Проблема утечек данных в 2024–2025 годах

В 2024 году количество утечек данных через генеративные AI достигло рекордного уровня, особенно в финансовой, медицинской и юридической сферах. В одном случае сотрудники оборонного подрядчика загрузили внутренние угрозы в ChatGPT, что спровоцировало внутреннее расследование, затянувшееся на недели.

Традиционные системы DLP не способны отследить такие утечки, поскольку данные передаются через HTTPS-запросы, и выглядят как обычный трафик. Как отмечают эксперты, большинство компаний пока не готовы к таким угрозам, и их внутренние мониторинговые системы не справляются с теневым использованием AI.

Политика хранения данных и позиция OpenAI

OpenAI подчеркивает, что данные пользователей не используются для обучения моделей без согласия. Однако критики указывают, что «публичные данные», на которых обучаются модели, могут включать информацию, собранную с веб-сайтов, включая авторизованные и незарегистрированные источники.

Пользователи не могут точно знать, как долго сохраняются их запросы, какие метаданные собираются и как модель обрабатывает диалоги. В частности, OpenAI может хранить диалоги до 30 дней, а интеграции с внешними API могут обрабатывать данные по-разному. Таким образом, очистка истории чата не гарантирует удаления данных.

Альтернативы: приватные и нишевые AI-сервисы

Растущие риски стимулируют развитие альтернативных решений. Сервисы вроде JustDone обеспечивают обработку данных на локальном уровне или в изолированных облачных средах. Такой подход исключает отправку данных в удалённые серверы и гарантирует, что информация не используется для обучения модели.

В отличие от ChatGPT Enterprise, где пользователь должен доверять внутренним процессам OpenAI, JustDone предлагает модель «закрытого вывода», где данные не сохраняются и не логируются. Это делает такие решения особенно привлекательными для компаний в финансовой, юридической и медицинской отраслях.

Регулирование и будущее AI-гovernance

Глобальные регуляторы начинают уделять внимание вопросам прозрачности и безопасности AI. В Европе уже идут расследования по соблюдению GDPR, а в США разрабатываются стандарты отслеживания источников данных, аналогичные аудиторским процедурам в финансовой сфере.

По прогнозам Gartner, к 2026 году более 70% компаний из списка Fortune 500 внедрят формальные политики по использованию AI, ограничивая применение непроверенных публичных моделей. Это сопоставимо с переходом от Dropbox к защищённым корпоративным облачным решениям.

Как использовать AI безопасно

Современные рекомендации по безопасности включают:

  • Не передавать конфиденциальные данные в публичные LLM.
  • Использовать корпоративные или приватные AI-деплойменты, такие как Mistral, LLaMA или JustDone.
  • Проводить ревизию и очистку AI-выводов перед публикацией.
  • Обучать сотрудников основам безопасного взаимодействия с AI.
  • Выбирать поставщиков, которые раскрывают политики хранения данных и обеспечивают аудит.

Интересно: Какие модели и подходы обеспечат баланс между инновациями и безопасностью, если традиционные системы защиты не справляются с утечками данных через AI?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Риски в тени генеративного ИИ: когда удобство становится уязвимостью

Когда личный помощник становится поставщиком утечек

AI-чат-боты, такие как ChatGPT, создаются, чтобы быть удобными. Они запоминают стиль общения, учатся на диалогах, и вроде бы — работают только на пользователя. Но на деле, как показывает практика, они являются частью сложной инфраструктуры, где личные данные могут становиться частью общей базы. Это не всегда происходит из-за умышленного нарушения, а потому, что архитектура таких систем не предусматривает полной изоляции информации.

Пользователь вводит конфиденциальные данные, думая, что они исчезнут после диалога. Но на деле они остаются в логах, в облаке, и могут быть использованы для улучшения модели — даже без явного согласия. Это создаёт неочевидную, но реальную угрозу, особенно в корпоративной среде, где данные о клиентах, партнёрах и внутренних процессах могут быть украдены или использованы.

Важный нюанс: Утечка данных через ИИ не всегда выглядит как кибератака. Часто она происходит из-за простого недопонимания того, как работает сервис, и как обрабатываются введённые данные.

Скрытые победители и проигравшие в новой реальности

Один из неочевидных выигравших от роста рисков — это рынок приватных и корпоративных ИИ-решений. Сервисы вроде JustDone, Mistral и LLaMA становятся альтернативой публичным моделям, особенно для компаний, где конфиденциальность имеет критическое значение. Эти решения работают на локальных серверах или в изолированных облаках, что делает их менее уязвимыми к утечкам.

В то же время, традиционные поставщики публичных ИИ-сервисов, вроде OpenAI, сталкиваются с ростом регуляторного давления. В Европе уже идут расследования по соблюдению GDPR, а в США разрабатываются стандарты, которые могут ограничить использование данных без явного согласия. Это создаёт барьер для расширения бизнеса, особенно в отраслях с высокими требованиями к безопасности.

Важный нюанс: Рост регуляторной нагрузки и переход на приватные ИИ-сервисы может привести к фрагментации рынка, где крупные игроки потеряют часть своих пользователей, а нишевые решения получат шанс на рост.

Что происходит, когда традиционные системы не справляются

Одна из главных проблем — это то, что существующие системы защиты данных, такие как DLP, не умеют распознавать утечки через ИИ. ChatGPT и подобные сервисы работают через HTTPS-запросы, и их трафик выглядит как обычный. Это делает их труднодетектируемыми для корпоративных систем мониторинга.

Компании, которые не готовы к этим угрозам, рискуют не только потерей данных, но и юридическими последствиями. Особенно это касается российского бизнеса, где вопросы конфиденциальности и защиты данных становятся всё более актуальными. В условиях растущего внимания к безопасности, переход на закрытые ИИ-сервисы может стать не только хорошей практикой, а необходимостью.

Важный нюанс: Традиционные подходы к безопасности данных становятся недостаточными в условиях роста ИИ. Без обновления систем и политики, компании рискуют остаться беззащитными перед новыми угрозами.

Путь к балансу: безопасность и инновации

Однако полностью отказаться от публичных ИИ-сервисов — не выход. Они остаются мощным инструментом, особенно для малого и среднего бизнеса. Задача — найти баланс между удобством и безопасностью. Это включает в себя не только выбор правильных технологий, но и обучение сотрудников, внедрение внутренних политик и регулярный аудит.

В России, где цифровизация бизнеса идёт полным ходом, вопрос безопасности стоит особенно остро. Компаниям, которые хотят использовать ИИ, но не готовы рисковать данными, стоит обратить внимание на локальные и приватные решения. Это не только снижает риски, но и повышает доверие клиентов и партнёров.

Важный нюанс: Безопасное использование ИИ требует не только технических решений, но и изменения в поведении пользователей. Без этого даже самые продвинутые системы защиты могут оказаться бесполезными.

Коротко о главном

Почему традиционные системы DLP не могут отследить утечки через AI в 2024–2025 годах?

Потому что данные передаются через HTTPS-запросы, что делает их неотличимыми от обычного трафика, и большинство компаний пока не готовы к мониторингу теневого использования AI.

Почему сотрудники оборонного подрядчика загрузили внутренние угрозы в ChatGPT?

Это привело к внутреннему расследованию, поскольку данные оказались в публичной AI-инфраструктуре, где их обработка и хранение находятся вне контроля компании.

Почему OpenAI может хранить диалоги пользователей до 30 дней?

Потому что политика компании предусматривает временное хранение данных, и даже после очистки истории чата информация может оставаться в системе, а интеграции с внешними API могут обрабатывать её по-разному.

Почему JustDone считается безопасной альтернативой ChatGPT?

Потому что он использует локальную или изолированную обработку данных, исключая отправку информации в удалённые серверы, и предлагает модель «закрытого вывода», где данные не сохраняются и не логируются.

Почему к 2026 году 70% компаний Fortune 500 могут ограничить использование публичных AI-моделей?

Это связано с ростом регуляторного внимания к безопасности и прозрачности AI, а также с необходимостью перехода на проверенные и безопасные корпоративные решения, подобно переходу с Dropbox на защищённые облачные платформы.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Право и регулирование; Цифровизация и технологии; Государственное управление и общественная сфера

Оценка значимости: 7 из 10

Рост рисков, связанных с использованием AI-чат-ботов, особенно в корпоративной среде, затрагивает несколько ключевых сфер: технологию, безопасность, экономику и регулирование. Вопрос конфиденциальности и утечки данных становится особенно актуальным для российских компаний, которые всё чаще внедряют AI-инструменты, но не готовы к связанным с этим угрозам. Событие не ограничено локальным масштабом, поскольку затрагивает широкий круг пользователей и отраслей, а также имеет долгосрочные последствия для корпоративной и национальной безопасности.

Материалы по теме

Как обманывают защиту ИИ: уязвимости в ограничителях больших языковых моделей

Уязвимость GPT-4o при атаках типа EchoGram показывает, что даже минимальные изменения в запросе могут обойти защитные механизмы, что усиливает аргумент о том, что традиционные системы безопасности не справляются с новыми угрозами, связанными с ИИ.

Подробнее →
Браузер стал главной точкой утечки данных в корпорациях

Утечки данных через браузерные ИИ-инструменты, такие как ChatGPT, подтверждают тезис о том, что личные данные остаются в логах и облаке, а не исчезают после диалога, что создаёт реальную угрозу конфиденциальности.

Подробнее →
AMD ускоряет расширение в сфере ИИ и ведёт масштабные переговоры с крупными клиентами

Стратегическое партнёрство AMD и OpenAI, включая масштабные инвестиции, подчёркивает рост регуляторного давления на крупных ИИ-провайдеров и необходимость перехода к более закрытым и безопасным решениям.

Подробнее →
OpenAI представила открытую систему контроля ИИ-контента

Выпуск OpenAI моделей gpt-oss-safeguard под лицензией Apache 2.0 демонстрирует усилия компании по повышению прозрачности и контролируемости ИИ, что противоречит идеям о скрытых угрозах и недостаточной защите данных.

Подробнее →
ИИ в бизнесе: доверие под угрозой из-за неточностей в финансах и праве

Падение надежности ChatGPT в корпоративных задачах, особенно в финансовой и правовой сферах, где модель не всегда замечает ошибки, усиливает мысль о том, что ИИ-сервисы не всегда подходят для деловых задач без дополнительной проверки.

Подробнее →
OpenAI оспорит решение суда о передаче 20 млн чатов ChatGPT

Судебный спор OpenAI о передаче 20 миллионов чатов ChatGPT демонстрирует масштаб проблем с конфиденциальностью и подчёркивает, что данные пользователей могут быть использованы без их явного согласия, что является ключевым элементом аргументации о рисках ИИ.

Подробнее →
Snapdragon X: локальный AI обогнал облака в скорости и энергоэффективности

Регуляторные требования, включая GDPR, способствуют переходу на локальную обработку данных, что поддерживает идею о необходимости использования приватных ИИ-решений, особенно в секторах с высокими требованиями к конфиденциальности.

Подробнее →
Скрытый ИИ в компаниях: риски и как их обнаружить

Скрытый ИИ в компаниях, когда сотрудники используют ИИ вне контроля ИТ, подкрепляет тезис о том, что утечка данных может происходить не из-за кибератак, а из-за недостаточного понимания рисков и архитектуры сервисов.

Подробнее →
Риски использования ИИ-чатов для обработки личных фотографий

Риски использования ИИ-чатов для обработки личных фотографий, включая создание deepfake и утечку данных, усиливают общий аргумент о том, что конфиденциальность данных находится под угрозой при использовании ИИ.

Подробнее →