Декабрь 2025   |   Обзор события   | 7

Как защитить данные в ИИ-инструментах, если они запоминают всё

Рост популярности ИИ-инструментов в повседневной работе увеличивает риски утечки личной и конфиденциальной информации. Публичные модели могут сохранять и использовать введённые данные для обучения, в то время как корпоративные решения, такие как Gemini, не предназначены для этого и обеспечивают более высокий уровень безопасности.

ИСХОДНЫЙ НАРРАТИВ

По данным Business Insider, пользователи всё чаще включают искусственный интеллект в повседневные задачи, такие как исследование, написание заметок, программирование и поиск в интернете. Однако с этим растёт необходимость защиты личной информации. Особенно это касается тех, кто работает в сфере разработки и безопасности, где риски утечек данных особенно высоки.

Риск утечки личных данных при использовании ИИ

AI-модели собирают данные для генерации ответов. Это делает пользователей уязвимыми перед злоумышленниками, которые могут получить доступ к персональной информации. Важно помнить, что общение с AI-чат-ботами следует воспринимать как отправку открытки в общественное пространство. Если данные не предназначены для публичного обсуждения, их не стоит вводить в систему.

Например, данные, такие как номера кредитных карт, адреса, медицинские истории или другие персональные сведения, могут быть использованы для обучения моделей. Это может привести к утечке информации, когда модель запоминает данные одного пользователя и случайно возвращает их другому. К тому же, существует риск хищения данных в случае взлома.

Разница между публичными и корпоративными ИИ-инструментами

Важно понимать, в какой «комнате» вы находитесь — в общественном пространстве или в защищённой корпоративной среде. Публичные модели, такие как ChatGPT, могут использовать пользовательские данные для обучения, в то время как корпоративные ИИ-инструменты, например, Gemini, не предназначены для этого. Это делает их более безопасными для обсуждения деловых проектов или конфиденциальной информации.

Ошибки сотрудников, которые обсуждают незапатентованные разработки или планы с публичными чат-ботами, уже приводили к утечкам данных. Поэтому специалисты рекомендуют использовать корпоративные ИИ-инструменты даже для небольших задач, таких как редактирование рабочих писем.

Регулярное удаление истории общения

AI-чат-боты обычно сохраняют историю взаимодействия. Регулярное удаление истории — это важная мера предосторожности, особенно в случае, если аккаунт может быть взломан. Даже если пользователь не вводит личные данные, хранение истории может содержать информацию, которая позже окажется полезной для злоумышленников.

Примером может служить случай, когда Gemini вспомнил адрес пользователя, который тот вводил ранее при помощи ИИ для редактирования письма. Такие функции долговременной памяти могут сохранять информацию, даже если пользователь этого не заметил.

Для временных задач, где не нужно сохранять историю, можно использовать специальный режим, например, «временный чат», как в ChatGPT или Gemini. В этом режиме данные не сохраняются и не используются для обучения модели.

Выбор проверенных ИИ-инструментов

Рекомендуется использовать только известные ИИ-инструменты, такие как Google Gemini, OpenAI ChatGPT или Anthropic Claude, которые имеют чёткие политики конфиденциальности и защитные механизмы. Перед началом использования стоит изучить разделы, связанные с обработкой данных и убедиться, что функция, связанная с улучшением модели, отключена. Это предотвратит использование пользовательских данных для обучения.

Интересно: Как обеспечить конфиденциальность данных при использовании ИИ-инструментов, если пользователь сам становится частью процесса обучения моделей?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Конфиденциальность в эпоху ИИ: когда пользователь — часть системы

Когда личность становится ресурсом

Искусственный интеллект, особенно чат-боты, работает на основе данных. Чем больше информации он получает, тем лучше учится. Но это порождает парадокс: пользователь, используя ИИ, становится его частью — поставщиком данных, из которых модель формирует свои ответы. При этом пользователь редко осознаёт, что его слова, запросы и даже промахи могут быть использованы, храниться или утекать.

Важный нюанс: модель не только «слушает» — она запоминает. Если вы вводите личные данные, модель может их сохранить и случайно вернуть кому-то другому. Это не гипотетический сценарий — такие случаи уже фиксировались. Например, система вспомнила адрес пользователя, который он вводил ранее, и выдала его в ответ на запрос другого человека [!].

Публичные и корпоративные ИИ: разница в правах доступа

Публичные ИИ-инструменты, такие как ChatGPT, используют данные пользователей для улучшения модели. Это означает, что история может быть включена в тренировочный датасет. В корпоративных системах, таких как Google Gemini, обычно действуют более строгие правила: данные не используются для обучения, а хранятся в изолированной среде.

Однако и здесь есть нюансы. Даже если модель не использует данные для обучения, она может сохранять историю взаимодействия. Это создаёт риск в случае компрометации аккаунта. Поэтому рекомендуется не только выбирать правильные инструменты, но и настраивать их так, чтобы минимизировать хранение данных.

Как защитить себя: технические и поведенческие меры

  • Используйте режимы без сохранения истории. Многие ИИ-сервисы предлагают «временные чаты», где данные не сохраняются и не используются для обучения. Это особенно важно при работе с конфиденциальной информацией.
  • Отключите функции улучшения модели. Большинство ИИ-инструментов позволяют отключить автоматическую отправку данных для улучшения сервиса. Эта опция часто прячется в настройках, но её стоит найти и включить.
  • Не вводите персональные данные. Если информация не предназначена для публичного обсуждения, её не стоит вводить в ИИ-систему. Это включает в себя номера карт, медицинские сведения, адреса и прочие личные данные.

Важный нюанс: использование ИИ-инструментов в профессиональной среде требует не только технической грамотности, но и осознанного подхода к поведению. Пользователь, не задумываясь, может стать источником утечки данных, даже если использует корпоративную систему.

Системные риски и долгосрочные последствия

Для бизнеса, особенно в России, где вопросы регулирования ИИ и обработки данных всё ещё находятся в разработке, важно учитывать, где и как обрабатываются данные. Если ИИ-модель работает на инфраструктуре, находящейся вне юрисдикции страны, это может создавать дополнительные риски. Например, доступ к данным может быть предоставлен по запросу иностранных органов.

Долгосрочная тенденция — рост спроса на локальные ИИ-инструменты, где данные обрабатываются внутри страны и под контролем внутренних регуляторов. Это снижает риски утечек, но требует значительных инвестиций в инфраструктуру и разработку собственных моделей.

Важный нюанс: конфиденциальность в эпоху ИИ — это не только техническая проблема, но и вопрос архитектуры, регулирования и поведения пользователей. Устойчивое решение требует синхронизации всех трёх компонентов.

Углубление рисков: ИИ в кибератаках и робототехнике

Рост популярности ИИ-инструментов не только облегчает повседневную работу, но и становится инструментом в руках злоумышленников. Так, более 40% малых и средних компаний в США столкнулись с кибератаками, основанными на искусственном интеллекте [!]. ИИ используется для создания убедительных фишинговых писем, дипфейков и вредоносного ПО, что затрудняет обнаружение угроз традиционными системами безопасности.

Кроме того, антропоморфные роботы, оснащённые ИИ, создают новые вызовы в области кибербезопасности. Устройства становятся уязвимыми к захвату управления и утечкам данных. По мнению эксперта Joseph Rooke, безопасность таких роботов должна быть заложена ещё на этапе проектирования [!].

Новые вызовы: утечки данных и угрозы изнутри

Рост утечек данных через AI-чат-боты становится заметной тенденцией. В 2024 году число таких инцидентов достигло рекордного уровня, особенно в финансовой, медицинской и юридической сферах. Сотрудники передавали внутренние данные в публичные сервисы, обходя корпоративные системы безопасности. Такие действия могут привести к утечке конфиденциальной информации, даже без прямого нарушения безопасности [!].

Кроме того, OpenAI столкнулась с утечкой данных пользователей API, включая имена, адреса электронной почты и локации, в результате инцидента с бывшим поставщиком Mixpanel. Хотя ChatGPT не пострадал, инцидент подчеркнул важность проверки поставщиков и контроля над обработкой данных [!].

Перспективы и решения: локализация и контроль

Одним из путей снижения рисков становится переход к локальным ИИ-моделям. Так, в сфере рекламы компании всё чаще выявляют риски утечки проприетарных данных через сторонние ИИ-сервисы. В ответ на это многие переходят к локальным ИИ-моделям, чтобы сохранить контроль над данными, обеспечить прозрачность процессов и соответствовать нормативным требованиям [!].

Кроме того, платформы, такие как Lanai, позволяют организациям отслеживать ИИ-активность на уровне устройства, выявляя риски в реальном времени. Это помогает снизить вероятность нарушения норм и утечек данных, особенно когда сотрудники используют несанкционированные сервисы [!].

Заключение: баланс между удобством и безопасностью

Конфиденциальность в эпоху ИИ требует не только технических решений, но и поведенческих изменений. Пользователь, который становится частью системы, должен осознавать, что его данные могут быть сохранены, использованы или утекать. Решение проблемы — в сочетании строгих правил, прозрачности и технологий, которые минимизируют риски.

Важный нюанс: бизнесу важно учитывать не только текущие угрозы, но и долгосрочные тенденции. Рост ИИ-инфраструктуры, кибератак и новых форм взаимодействия требует адаптации стратегий, усиления контроля и инвестиций в локальные решения. Только тогда можно говорить о сбалансированном использовании ИИ, где удобство не уступает безопасности.

Коротко о главном

Какие данные особенно уязвимы при взаимодействии с AI-чат-ботами?

К уязвимым данным относятся номера кредитных карт, адреса, медицинские истории и другие персональные сведения, которые могут быть использованы или украдены при взаимодействии с ИИ.

Чем отличаются публичные ИИ-инструменты, такие как ChatGPT, от корпоративных, например, Gemini?

Публичные модели могут использовать данные пользователей для обучения, в то время как корпоративные инструменты, как правило, не предназначены для этого, что делает их более подходящими для обсуждения конфиденциальной информации.

Почему важно регулярно удалять историю общения с AI-чат-ботами?

Хранение истории может содержать информацию, полезную для злоумышленников, даже если пользователь не вводил личные данные, а также снижает риск утечки в случае взлома аккаунта.

Какие функции ИИ-инструментов помогают защитить конфиденциальность?

Режимы, такие как «временный чат» в ChatGPT или Gemini, позволяют использовать ИИ без сохранения истории и без использования данных для обучения модели.

Почему стоит выбирать только проверенные ИИ-инструменты?

Проверенные инструменты, такие как Google Gemini или OpenAI ChatGPT, имеют чёткие политики конфиденциальности и защитные механизмы, что снижает риски утечки данных.

Как пользователь может минимизировать риск утечки данных при использовании ИИ?

Следует избегать ввода конфиденциальной информации, использовать корпоративные ИИ-инструменты, отключить функции улучшения модели и регулярно удалять историю общения.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Персонал и развитие; Цифровизация и технологии; Развлечение и творчество

Оценка значимости: 7 из 10

Проблема конфиденциальности данных при использовании ИИ-инструментов имеет национальное значение для России, поскольку затрагивает широкую аудиторию, включая бизнес, IT-специалистов и частных пользователей. Вопрос касается нескольких сфер — технологий, безопасности, экономики и регулирования. Утечки данных могут иметь долгосрочные последствия, особенно в условиях роста зависимости от цифровых сервисов. Риск утечки и злоупотребления личной информацией создаёт системные вызовы, что делает тему актуальной и важной для обсуждения.

Материалы по теме

Google планирует использовать ИИ для глубокой персонализации, но это поднимает вопросы конфиденциальности

Упоминание, как Google Gemini собирает данные о поведении пользователей в сервисах, служит примером того, как ИИ-модели используют личные данные для персонализации, что может создавать риски конфиденциальности. Этот факт подкрепляет тезис о том, что пользователь становится частью системы, а его данные — ресурсом для улучшения ИИ.

Подробнее →
Малый бизнес США поднимает цены из-за кибератак и ИИ-угроз

Статистика о 41% малых и средних компаний США, подвергшихся кибератакам, основанным на ИИ, используется как доказательство роста угроз в сфере кибербезопасности. Эти данные усиливают аргумент о том, что ИИ становится инструментом злоумышленников, требующим усиления защитных мер.

Подробнее →
Рост антропоморфных роботов ставит кибербезопасность под угрозу

Утверждение эксперта Joseph Rooke о том, что безопасность антропоморфных роботов должна быть заложена ещё на этапе проектирования, служит аргументом в разделе о новых вызовах в области кибербезопасности. Оно подчеркивает системный подход к защите данных и предотвращению утечек.

Подробнее →
Рост утечек данных через AI-чат-боты: как защитить конфиденциальность

Данные о рекордном уровне утечек через AI-чат-боты в 2024 году, особенно в финансовой, медицинской и юридической сферах, подкрепляют ключевую мысль о рисках конфиденциальности при использовании ИИ. Они иллюстрируют масштаб проблемы и необходимость поведенческих и технических мер защиты.

Подробнее →
OpenAI: утечка данных через бывшего поставщика Mixpanel

Инцидент с утечкой данных пользователей API OpenAI через бывшего поставщика Mixpanel используется как конкретный пример уязвимости, подчеркивающий важность контроля над поставщиками и обработкой данных. Он усиливает тезис о системных рисках, связанных с ИИ.

Подробнее →
Локальный ИИ: как защитить данные и повысить эффективность в программатике

Упоминание о переходе компаний в сфере программатической рекламы к локальным ИИ-моделям в целях контроля над данными и соответствия нормативным требованиям служит примером практического решения. Это поддерживает аргумент о локализации как стратегии снижения рисков.

Подробнее →
Скрытый ИИ в компаниях: риски и как их обнаружить

Данные о платформе Lanai, отслеживающей ИИ-активность на уровне устройства, используются как пример технического решения для выявления рисков утечек данных. Это подкрепляет идею о важности инструментов внутреннего контроля в условиях широкого внедрения ИИ.

Подробнее →