Отравление моделей
Отравление моделей в новостной повестке, календарь упоминаний и aналитика в реальном времени.
Календарь упоминаний:
2025
12 сентября
Утечка данных из-за атак на ИИ-модели
Отравление моделей — это угроза, при которой злоумышленники искажают данные для обучения ИИ, чтобы получить контроль над его выводами. Такие атаки позволяют воровать конфиденциальную информацию или манипулировать моделью на своё усмотрение. Утечка может произойти до появления сигналов тревоги, так как атаки на основе ИИ происходят в 40 раз быстрее традиционных. Отравление моделей становится особенно опасным в условиях низкой готовности организаций к защите ИИ-инфраструктуры.
Отравление моделей имеет 1 запись событий в нашей базе. Объединили похожие карточки: Отравление моделей; Отравление нейронных моделей; Токсичное обучение моделей и другие.