Разглашение персональных данных

28 апреля 2026   |   Живая аналитика

77% корпоративных данных в публичном ИИ: потеря конкурентных преимуществ из-за сотрудников

Внедрение ИИ превращает сотрудников и разработчиков в главных виновников утечек, когда 77% корпоративных данных и критические ключи доступа добровольно уходят в публичные облака.

ИИ как новый вектор утечек: от игрушек до корпоративных стратегий

Рынок интерактивных устройств и искусственного интеллекта растет быстрее, чем успевают формироваться стандарты безопасности. Ярким примером этого разрыва стал инцидент с ИИ-игрушкой Bondu, где слабая аутентификация через аккаунт Google открыла доступ к 50 000 диалогов детей. В открытом доступе оказались полные имена, даты рождения и личные предпочтения несовершеннолетних. Этот случай демонстрирует, что стремительное внедрение технологий в быт часто опережает создание надежных защитных механизмов, создавая системные риски для всей индустрии.

Корпоративный сектор сталкивается с похожими вызовами, но в ином масштабе. Исследования показывают, что 77% корпоративных данных уже сейчас попадают в публичные ИИ-инструменты, такие как ChatGPT, по инициативе самих сотрудников. Работники часто не осознают, что передача конфиденциальной информации в чужие модели ведет к утрате конкурентных преимуществ. В 18% случаев в эти сервисы загружаются данные, не предназначенные для внешнего использования. Риск смещается от внешних хакеров к внутренней неосознанной активности персонала.

Ситуация усугубляется архитектурными ошибками разработчиков. В 1,8 млн Android-приложений обнаружены жестко прописанные в коде секреты, что привело к утечке 730 ТБ данных, включая финансовую информацию. Аналогичная проблема выявлена в 70% приложений App Store. Злоумышленники используют эти уязвимости для манипуляций с аккаунтами и неправомерного изъятия средств. Проблема носит системный характер: разработчики часто игнорируют базовые правила безопасности при интеграции ИИ-функций, оставляя критически важные ключи доступа в открытом коде.

Смена парадигмы: от предотвращения к локализации

Несмотря на рост угроз, бизнес адаптирует свои стратегии защиты. Средняя стоимость утечки данных в 2025 году снизилась на 9%, составив 4,44 млн долларов. Это не свидетельствует об ослаблении киберугроз, а указывает на то, что компании научились быстрее обнаруживать и локализовать атаки. Фокус смещается с попытки создать непробиваемую защиту на обеспечение устойчивости инфраструктуры. Подходы, основанные на принципах нулевого доверия (zero trust) и микросегментации, позволяют минимизировать ущерб даже при успешном проникновении злоумышленников в сеть.

Тем не менее, новые методы атак требуют постоянного пересмотра мер безопасности. Киберпреступники все чаще выбирают кражу информации вместо шифрования данных, так как это требует меньше усилий и открывает возможности для продажи данных на черном рынке. В 2025 году пять вредоносных программ — LummaC2, RedLine, Vidar, StealC и Raccoon Stealer — украли почти 100 миллионов логинов и паролей. Простые и предсказуемые комбинации остаются главным слабым звеном, позволяя злоумышленникам массово компрометировать учетные записи.

Для бизнеса критически важным становится контроль над цепочкой поставок и сторонними сервисами. Инциденты с OpenAI, Discord⋆⋆ и Google показали, что утечки часто происходят через внешних поставщиков или уязвимости в партнерских системах. Утечка через бывшего поставщика Mixpanel затронула пользователей API OpenAI, а инцидент у Discord⋆⋆ произошел из-за внешнего подрядчика по поддержке клиентов. Компании вынуждены пересматривать процедуры аудита партнеров, так как безопасность всей экосистемы зависит от самого слабого звена.

Глобальные последствия и новые вызовы

Масштаб утечек достигает беспрецедентных размеров, создавая угрозы для целых регионов. В начале 2026 года в открытом доступе оказался кластер с 8,73 миллиарда записей о китайских гражданах, включая логины, пароли и данные идентификационных карт. Долгосрочный сбор информации без идентифицируемого владельца указывает на слабость инфраструктурных стандартов и создает почву для массового мошенничества. В российском сегменте интернета за первые восемь месяцев 2025 года зафиксировано 13 миллиардов утекших строк персональных данных, что в 3,7 раза превышает показатель прошлого года.

Государства реагируют на эти вызовы ужесточением контроля. В Южной Корее ввели обязательную биометрическую идентификацию при регистрации мобильных аккаунтов, чтобы предотвратить голосовой фишинг и мошенничество. Это решение стало ответом на серию крупных инцидентов, включая утечки у крупного онлайн-ритейлера и оператора связи SK Telecom. Подобные меры меняют ландшафт цифрового взаимодействия, делая процесс верификации строже, но повышая общую устойчивость систем к атакам.

Для руководителей и специалистов ключевым выводом становится необходимость баланса между инновациями и безопасностью. Внедрение генеративного ИИ открывает новые возможности, но без четких политик использования и изоляции данных оно превращается в источник рисков. Компании, откладывающие внедрение защитных мер, рискуют столкнуться с потерей репутации, финансовыми убытками и судебными исками. Устойчивость бизнеса в эпоху ИИ зависит не от отсутствия угроз, а от способности быстро реагировать на инциденты и минимизировать их последствия.

🤖 Сводка сформирована нейросетью на основе фактов из Календаря. Мы обновляем аналитический дайджест при необходимости — факты и хронология всегда доступны в Календаре ниже для проверки и изучения.
📅 Последнее обновление сводки: 28 апреля 2026.


Ключевые сюжеты

Генеративный ИИ превратился из инструмента продуктивности в основной источник утечек корпоративных секретов. Сотрудники неосознанно передают конфиденциальные данные в публичные модели, а разработчики оставляют секреты в коде приложений. Это создает системный разрыв между скоростью внедрения технологий и уровнем их защиты.

Массовая передача данных в ИИ

77% корпоративных данных уже попали в ИИ-инструменты, включая ChatGPT. Сотрудники часто не осознают рисков, передавая информацию о разработках и стратегиях. В 18% случаев в сервисы попадает информация, не предназначенная для внешнего использования.

📅 2026-02-24
Читать источник →

Рост объема конфиденциальных запросов

Объем передаваемых данных в GenAI-инструменты вырос в 30 раз за год. 22% загруженных файлов и 4,37% запросов содержат конфиденциальную информацию, такую как исходные коды и данные клиентов. Отсутствие четких политик использования ИИ усиливает уязвимости.

📅 2025-12-24
Читать источник →

Уязвимость AI-агентов

AI-агенты могут передавать корпоративные секреты на сторонние серверы через скрытые команды в тексте. Метод непрямой инъекции приглашения позволяет обойти стандартные меры безопасности, делая проблему актуальной для всех компаний, внедряющих подобные технологии.

📅 2025-10-30
Читать источник →

Сдвиг стратегии безопасности

Компании переходят от попыток полной блокировки ИИ к стратегии локализации рисков. Использование локальных решений, агентных систем в замкнутом цикле и классических методов машинного обучения становится приоритетом для сохранения конкурентного преимущества.

📅 2026-01-08
Читать источник →

Смена парадигмы: от защиты к устойчивости

Снижение средней стоимости утечки на 9% не означает уменьшение угроз. Это сигнал о том, что компании признали невозможность полной защиты и перешли к стратегии локализации. Одновременно с этим растет объем утечек через ИИ и человеческий фактор, что требует пересмотра подходов к управлению рисками.

Бизнесу следует инвестировать не только в превентивные меры, но и в системы быстрого реагирования и восстановления. Ключевым становится сокращение времени обнаружения и локализации инцидентов, а также обучение сотрудников безопасному использованию ИИ.

ИИ как двойной агент

Искусственный интеллект стал одновременно главным инструментом защиты и основным каналом утечек. С одной стороны, ИИ ускоряет обнаружение угроз, с другой — неосознанное использование сотрудниками и уязвимости в агентах создают новые риски. Это создает напряжение между необходимостью внедрения технологий и безопасностью данных.

Необходимо внедрять гибридные модели: использовать ИИ для защиты, но ограничивать его доступ к конфиденциальным данным через локальные решения и строгие политики. Аудит архитектуры ИИ-систем становится обязательным этапом внедрения.

Обновлено: 28 апреля 2026

Календарь упоминаний:

2026
28 февраля

Неконтролируемый доступ к интимным данным несовершеннолетних из-за слабой аутентификации

Критическая уязвимость в веб-консоли производителя игрушки Bondu, требующая лишь стандартного аккаунта Google для входа, привела к открытому доступу более чем 50 000 диалогов детей. В открытом массиве оказались полные имена, даты рождения, семейные данные, личные предпочтения и текстовые расшифровки всех бесед, что создает угрозу манипуляций и кражи личных данных. Инцидент выявил системный разрыв между стремительным ростом рынка ИИ-игрушек и уровнем развития защитных механизмов, где даже оперативное устранение ошибки не исключает рисков из-за сложной архитектуры передачи данных внешним провайдерам.

Подробнее →

25 февраля

Снижение финансовых потерь при утечке данных

Средняя стоимость утечки данных в 2025 году снизилась до 4,44 млн долларов, что на 9% меньше, чем в предыдущем году. Это связано с ускорением обнаружения и локализации угроз, что сокращает масштабы инцидентов и операционные потери. Основной причиной улучшения стало применение технологий искусственного интеллекта, автоматизации и стратегии, ориентированной на ограничение распространения угроз внутри сети. Подход, основанный на принципах zero trust и микросегментации, позволяет минимизировать последствия атак, даже если они не были предотвращены.

Подробнее →

24 февраля

Потенциальные утечки из-за ИИ становятся критической угрозой

77% корпоративных данных уже сейчас передаются сотрудниками в ИИ-инструменты, такие как ChatGPT, часто без осознания рисков. Это может привести к утрате конфиденциальной информации, включая данные о разработках и стратегиях компаний. В 18% случаев в ИИ-сервисы попадает информация, которая не предназначена для внешнего использования. Эксперты отмечают, что неосознанная активность сотрудников, особенно среднего звена, становится серьёзным источником утечек.

Подробнее →

05 февраля

Масштабный риск для 8,73 млрд китайских пользователей из-за утечки данных

В начале 2026 года исследователи обнаружили в интернете утечку, включающую более 8,73 миллиардов записей, связанных с китайскими гражданами. Данные, хранившиеся в открытом кластере Elasticsearch в течение трёх недель, включали личную информацию, логины, пароли, номера идентификационных карт и данные из социальных сетей. Инфраструктура кластера не имела идентифицируемого владельца, а временные метки показали, что сбор информации продолжался как минимум до конца 2025 года. Открытый доступ позволил злоумышленникам скопировать данные, что создаёт риск атак типа credential stuffing и фишинга.

Подробнее →

04 февраля

Украденные данные: масштабы утечки и угрозы пользователям

Исследование выявило, что более 1 млн Android-приложений содержат уязвимости, через которые утекло 730 ТБ конфиденциальной информации, включая финансовую. Основной причиной стали жестко встроенные в код API-ключи и пароли, особенно в AI-приложениях, где таких уязвимостей оказалось 72%. Злоумышленники могут использовать украденные данные для манипуляций с аккаунтами или неправомерного изъятия средств. Аналогичные уязвимости были найдены и в 70% приложений App Store, что указывает на системный характер проблемы.

Подробнее →

23 января

Масштабные потери данных из-за слабых паролей и вредоносного ПО

В 2025 году анализ шести миллиардов утекших паролей показал, что почти 100 миллионов логинов и паролей были украдены с помощью пяти вредоносных программ: LummaC2, RedLine, Vidar, StealC и Raccoon Stealer. Наиболее уязвимыми оказались учётные записи с простыми комбинациями, такими как 123456, 123456789, admin и password. Утечки затронули частные, корпоративные, образовательные и государственные системы, особенно распространёнными были 8-символьные пароли. Среди вредоносных инструментов LummaC2 стал наиболее опасным, унеся более 60 миллионов паролей за год.

Подробнее →

08 января

Риск конфиденциальности из-за утечки данных

Утечка данных в генеративных ИИ-системах возникает из-за их способности накапливать информацию из пользовательских запросов, что может привести к использованию конфиденциальных данных в ответах других клиентов. Это ставит под угрозу сохранность информации и требует аудита архитектуры ИИ-систем. Компании могут снизить риск, используя локальные или изолированные решения, как это рассматривает CapitalOne. Агентные системы, работающие в замкнутом цикле, также предлагаются как более безопасная альтернатива.

Подробнее →

2025
24 декабря

Рост утечек данных из-за использования GenAI

Анализ показал, что 22% загруженных в GenAI-приложения файлов и 4,37% запросов содержат конфиденциальную информацию, такую как исходные коды, логины и данные о клиентах. Рост популярности GenAI-инструментов, таких как Microsoft Copilot, привёл к увеличению объёма передаваемых данных в 30 раз за год. Многие компании не внедрили чёткие политики по использованию ИИ, что повышает риск утечек и нарушений регулятивных требований.

Подробнее →



Разглашение персональных данных имеет 28 записей событий в нашей базе.
Объединили похожие карточки: Разглашение персональных данных; «Утечка персональных данных»; Кража персональных данных и другие.

Могут быть интересны:

⋆ Данная организация или продукт включены в список экстремистских в соответствии с решением суда, вступившим в законную силу. Деятельность запрещена на территории Российской Федерации на основании Федерального закона от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».