Конфиденциальность данных
Конфиденциальность данных в новостной повестке, календарь упоминаний и aналитика в реальном времени.
Календарь упоминаний. Страница 2:
Конфиденциальность данных сохранена за счёт добровольного использования
Google не собирает новые данные для функции Personal Intelligence в Gemini, используя только информацию, уже находящуюся на серверах компании. Личные данные не применяются для обучения модели, а их использование в ответах остаётся под контролем пользователя. Пользователи могут отключить доступ к определённым данным или запустить чат без персонализации. Анализ чувствительной информации возможен только по запросу и с согласия пользователя.
Риск утечки данных при использовании ИИ в медицине
Использование ИИ в медицинских консультациях требует строгого соблюдения конфиденциальности данных пациентов. Новая версия ChatGPT Health будет работать в отдельном режиме, не используя данные пользователей для обучения основной модели, что снижает риск их утечки. Однако специалисты по кибербезопасности отмечают, что передача медицинской информации компаниям, не соответствующим стандартам HIPAA, может вызвать юридические и этические проблемы. Эксперты подчеркивают необходимость регулирования и защиты информации, чтобы обеспечить доверие пациентов к цифровым медицинским решениям.
Приватность на новом уровне
Новая функция «Дисплей приватности» в Galaxy S26 блокирует возможность просмотра экрана посторонними, используя аппаратную технологию Flex Magic Pixel OLED и искусственный интеллект. В отличие от физических пленок, она не снижает яркость или искажает изображение. Режим автоматически активируется в приложениях с конфиденциальной информацией, обеспечивая защиту данных без ущерба для удобства.
Риск раскрытия данных при использовании ИИ
Конфиденциальность данных при работе с искусственным интеллектом зависит от политики обработки информации, применяемой конкретным сервисом. Пользователи могут устанавливать параметры приватности, например, включить режим Temporary Chat в ChatGPT, чтобы исключить сохранение истории. Однако важно помнить, что любая передаваемая информация может быть доступна третьим лицам, особенно если речь идёт о чувствительных данных, таких как пароли или персональные сведения.
Риск утечки данных из-за автоматизации
Использование браузерных агентов, автоматизирующих задачи в интернете, связано с рисками для конфиденциальности, так как семь из восьми агентов передают данные веб-сессии на серверы провайдера ИИ. Это лишает пользователей контроля над обработкой и хранением информации. В дополнение, агенты часто игнорируют предупреждения о вредоносных сайтах и слабой защите соединений, что повышает вероятность утечки личных данных. Некоторые агенты также сохраняют профильные данные без уведомления, делая невозможным их удаление. Всего исследователи выявили 30 уязвимостей, каждая из которых представляет угрозу конфиденциальности.
Утечка личных данных через рекламные объявления
Исследование показывает, что современные системы показа рекламы позволяют извлекать личную информацию пользователей, даже если прямая таргетировка отключена. Мультимодельные языковые модели, такие как Gemini 2.0 Flash, анализируют тексты и изображения объявлений, чтобы предсказывать атрибуты, включая возраст, пол, занятость и политические предпочтения. Алгоритмическое профилирование, основанное на этих данных, может достигать точности выше случайного угадывания. Угроза усиливается возможностью реализации атак через браузерные расширения, которые легально получают доступ к рекламному контенту.
Риск утечки личных данных через умные телевизоры
Конфиденциальность данных пользователей умных телевизоров под угрозой из-за технологии ACR, которая собирает информацию о просмотре контента без явного согласия. Система передаёт данные на серверы производителей, формируя подробные профили пользователей. Штат Техас обвиняет пять компаний в использовании скрытых условий для получения согласия и в потенциальном нарушении закона о недобросовестных торговых практиках.
Растущая сложность политики конфиденциальности LLM снижает прозрачность
Политики конфиденциальности крупных языковых моделей становятся длиннее и сложнее, достигая в среднем 3 346 слов — на 53% больше, чем аналогичные документы программного обеспечения в 2019 году. Это связано с расширением возможностей ИИ, введением новых типов данных и различиями в регулировании. Пользователям приходится изучать несколько документов, чтобы понять, как обрабатываются их данные. Высокий уровень сложности языка и неопределённые формулировки, такие как «может» или «возможно», затрудняют восприятие и снижают прозрачность.
Конфиденциальность данных имеет 50 записей событий в нашей базе.