Конфиденциальность данных


Конфиденциальность данных в новостной повестке, календарь упоминаний и aналитика в реальном времени.

Календарь упоминаний. Страница 3:

2025
14 декабря

Риски, связанные с обработкой данных в системах ИИ

Наибольшую тревогу у ИТ-директоров вызывает вопрос обеспечения конфиденциальности данных при внедрении решений на основе искусственного интеллекта. Несмотря на это, компании продолжают масштабно развивать ИИ-проекты, что свидетельствует о приоритете технологического прогресса над текущими рисками.

Подробнее →

13 декабря

Риск утечки данных из-за обучения ИИ

Использование ИИ-инструментов может привести к утечке личной информации, так как данные, введённые пользователями, могут быть использованы для обучения моделей. Особенно уязвимы номера кредитных карт, медицинские истории и другие конфиденциальные сведения, которые модель может случайно вернуть другому пользователю или сохранить для злоумышленников. Риск возрастает, если пользователь обсуждает деловые или незапатентованные разработки в публичных чат-ботах, что уже приводило к реальным инцидентам. Чтобы снизить угрозу, рекомендуется использовать корпоративные ИИ-инструменты, не предназначенные для сбора данных, и регулярно удалять историю общения.

Подробнее →

11 декабря

Риски для личной конфиденциальности при корпоративном мониторинге

Конфиденциальность данных сотрудников под угрозой из-за расширения возможностей работодателей отслеживать их деятельность с помощью технологий. Использование корпоративных устройств вне рабочего времени может привести к тому, что личные сообщения и действия окажутся доступны работодателю. Юридические сложности возникают, когда ИТ-службы удаляют корпоративные данные с личных устройств, случайно получая доступ к личной информации. Это создаёт риски как для работодателя, так и для сотрудника.

Подробнее →

05 декабря

Риски утечки данных в условиях масштабного внедрения ИИ

Стратегия Министерства здравоохранения США по внедрению искусственного интеллекта предполагает обработку медицинских данных пациентов, что вызывает опасения относительно их конфиденциальности. В документе не указаны чёткие меры защиты агрегированных данных, что усиливает сомнения в обеспечении безопасности. Увеличение числа ИИ-проектов в 2025 году на 70% по сравнению с 2024 годом подчёркивает необходимость строгого регулирования доступа к информации.

Подробнее →

01 декабря

Риск снижения конфиденциальности при введении рекламы

Внедрение рекламы в ChatGPT может угрожать конфиденциальности данных пользователей, поскольку история запросов может использоваться для персонализации рекламных материалов. Это вызывает опасения относительно нейтральности рекомендаций и контроля над личной информацией. В тексте отмечается, что такие изменения могут сделать диалоги менее естественными, особенно если контекст рекламы будет неочевиден.

Подробнее →

27 ноября

Утечка данных усилила контроль над поставщиками

В результате утечки информации, связанной с бывшим поставщиком OpenAI — Mixpanel, компания прекратила с ним сотрудничество и ужесточила меры контроля над безопасностью поставщиков. Инцидент затронул пользователей API, утекли данные, включая имена, адреса электронной почты, локации, информацию об операционных системах и браузерах. OpenAI подчеркнула, что обычные пользователи ChatGPT не пострадали, а ответственность за безопасность данных возложена на партнёров. Компания продолжает работать с Mixpanel и другими поставщиками, чтобы оценить масштабы инцидента и усилить защиту.

Подробнее →

23 ноября

Рост рисков для конфиденциальности данных сотрудников

Использование программного обеспечения для мониторинга активности сотрудников, включая визуальные параметры и онлайн-поведение, увеличивает риски утечки личной информации. Такие инструменты собирают данные о здоровье, социальных сетях, фото и видео, что вызывает опасения по поводу нарушения конфиденциальности. В США и Великобритании практика мониторинга распространена, но правовые рамки остаются слабыми. Некоторые штаты рассматривают ограничения на сбор чувствительных данных, однако законодательные усилия могут быть сведены к минимуму.

Подробнее →

21 ноября

Риски утечки данных при использовании личных диалогов для обучения ИИ

Конфиденциальность данных пользователей при тренировке языковых моделей остаётся под угрозой, поскольку личные диалоги могут включаться в обучающие наборы без явного согласия. Отсутствуют обязательные правила, регулирующие путь обработки данных, что делает невозможным контроль их дальнейшего использования. Риски повышаются, так как компании не удаляют личную информацию перед повторным применением, а чат-боты способны запоминать и воспроизводить данные. Это создаёт потенциал для утечки информации и нарушения приватности.

Подробнее →



Конфиденциальность данных имеет 50 записей событий в нашей базе.