Декабрь 2025   |   Обзор события   | 7

Риски ИИ: дипфейки, утечки данных и алгоритмическая предвзятость

Национальные органы безопасности Китая зафиксировали рост рисков, связанных с применением крупных моделей искусственного интеллекта, включая утечку конфиденциальных данных, использование дипфейков для создания дезинформации и алгоритмические смещения в ответах. Эксперты выявили случаи несанкционированного доступа к корпоративной информации через открытые фреймворки и подделку видеоматериалов, направленных на нарушение общественного порядка.

ИСХОДНЫЙ НАРРАТИВ

Новые риски в сфере применения ИИ: что важно знать бизнесу и пользователям

По данным источника IT Home, национальные органы безопасности Китая обратили внимание на растущие риски, связанные с внедрением крупных моделей искусственного интеллекта. Развитие ИИ, несмотря на очевидные преимущества, не обошлось без потенциальных угроз, особенно в области защиты данных, алгоритмической беспристрастности и предотвращения технического мошенничества.

Расширение уязвимостей в корпоративной среде

Одним из ключевых факторов, усугубляющих ситуацию, стало использование открытых фреймворков без должного контроля. В одном из случаев, о котором стало известно, сотрудники организации использовали сторонние ИИ-инструменты для обработки внутренних документов. При этом система оставалась открыта для внешнего доступа, что позволило злоумышленникам с иностранных IP-адресов получить несанкционированный доступ к конфиденциальной информации. Это событие подчеркивает важность ограничения прав доступа и строгого контроля за сетевыми настройками.

Угрозы, связанные с дипфейками

Второй проблемной зоной стало применение дипфейков — технологий, позволяющих создавать убедительные подделки аудио, видео и текста. Такие инструменты могут использоваться не только для личных целей, но и для распространения дезинформации, что представляет риск для общественного порядка и национальной безопасности. В одном из случаев, выявленном специалистами, дипфейк-видео было создано для подрыва доверия к государственным институтам.

Алгоритмические предубеждения и неоднозначные ответы

Третья проблема касается алгоритмических смещений, которые могут проявляться в ответах ИИ. При тестировании определённой модели было замечено, что она демонстрировала систематическую предвзятость в зависимости от языка запроса. Например, при одинаковых вопросах на английском и китайском языках модель возвращала разные результаты, что может вводить пользователей в заблуждение, особенно в исторических или политических контекстах.

Рекомендации для пользователей и организаций

В целях минимизации рисков, органы безопасности предложили три основных принципа:

  1. Ограничение доступа. Следует соблюдать принцип «минимальных привилегий» — ИИ не должен обрабатывать конфиденциальные данные, не сохранять платежные реквизиты и не иметь доступа к личной информации без явного разрешения.
  2. Контроль цифровых следов. Пользователям рекомендовано регулярно очищать историю взаимодействия с ИИ, менять пароли, обновлять антивирусные решения и следить за активными устройствами, с которых ведётся доступ.
  3. Оптимизация взаимодействия с ИИ. При формулировке запросов стоит требовать от модели предоставления источников информации, избегать автоматических выводов и проверять ответы в других источниках, особенно при работе с темами, имеющими политическое или историческое значение.

Приоритет безопасности и ответственности

Органы безопасности подчеркивают, что безопасность — это основа устойчивого развития. Развитие ИИ не должно происходить за счёт уязвимостей. Пользователям рекомендовано быть внимательными к запросам на предоставление личных данных и критически оценивать информацию, предоставляемую ИИ-моделями.

Интересно: Какие меры контроля и регулирования будут эффективны в предотвращении злоупотреблений ИИ, если сама модель может стать источником дезинформации и предвзятости?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Когда удобство становится риском: ИИ и новые границы ответственности

Когда ИИ работает вне контроля

Искусственный интеллект, особенно крупные модели, обладает уникальной способностью обрабатывать данные, генерировать текст и принимать решения. Но именно эта универсальность становится источником новых уязвимостей. В бизнес-среде особенно опасно, когда ИИ используется без понимания его ограничений и зависимости от внешней инфраструктуры. Например, если модель работает в облаке, а не локально, она подвергается риску перехвата данных, задержек в ответах и потери конфиденциальности.

Компании, стремясь сэкономить на развертывании собственной ИИ-инфраструктуры, часто используют сторонние сервисы. Это удобно, но не безопасно. Если ИИ-модель размещена за границей, то данные, передаваемые через интернет, могут попасть в руки третьих лиц — от хакеров до государственных органов. Это не гипотетическая угроза: уже были случаи, когда злоумышленники из-за рубежа получали доступ к корпоративной информации через открытое API ИИ [!].

Важный нюанс: Удобство ИИ-сервисов часто скрывает зависимость от внешней инфраструктуры, что делает бизнес уязвимым к атакам и потерям данных.

Дипфейки: когда ИИ подделывает реальность

Другая сторона медали — дипфейки. Технологии, создающие убедительные подделки видео, аудио и текста, уже используются не только для развлечений. В руках злоумышленников они становятся оружием дезинформации. Особенно опасно, когда такие подделки касаются государственных институтов, политиков или общественных деятелей. Если пользователь не может отличить поддельное видео от оригинала, доверие к информации резко падает.

Для бизнеса это означает необходимость повышения уровня критического мышления среди сотрудников. Следует внедрять тренинги по работе с ИИ и обучать команду распознавать признаки манипуляций. В условиях, где ИИ может стать инструментом дезинформации, защита репутации компании становится сложнее. Особенно актуальны эти риски в преддверии 2026 года, когда 51% европейских IT-специалистов прогнозируют, что дипфейки станут одной из главных угроз [!].

Важный нюанс: Дипфейки становятся не только инструментом злоумышленников, но и предметом международного регулирования. В Ханое 65 стран подписали конвенцию ООН против киберпреступности, включающую борьбу с поддельным контентом [!].

Алгоритмические предубеждения: когда ИИ не объективен

ИИ не всегда нейтрален. Модели, обученные на больших объемах данных, могут унаследовать предвзятости из этих данных. Это особенно критично, когда ИИ используется для принятия решений в финансовой сфере, юриспруденции или медицине. Если модель демонстрирует смещение в зависимости от языка или контекста запроса, это может привести к ошибочным выводам и, как следствие, к юридическим или этическим последствиям.

Организациям важно не только использовать ИИ, но и уметь интерпретировать его ответы. Пользователи должны быть готовы проверять информацию, особенно в политически или исторически чувствительных темах. Это требует не только технической грамотности, но и постоянного мониторинга качества работы ИИ-систем. Особенно важно учитывать, что поведение ИИ не всегда предсказуемо из-за параметров, таких как температура и top_p, что приводит к неопределённости и затрудняет оценку корректности работы модели [!].

Важный нюанс: Алгоритмические предубеждения могут стать скрытым фактором, влияющим на бизнес-решения, особенно если ИИ используется для анализа данных или прогнозирования.

Путь к ответственному использованию ИИ

Органы безопасности Китая предложили три принципа, которые могут стать основой для более безопасного применения ИИ: ограничение доступа, контроль цифровых следов и оптимизация взаимодействия с моделью. Эти рекомендации не только защищают данные, но и способствуют развитию культуры ответственного использования ИИ.

Для российского бизнеса особенно важно учитывать, что ИИ-инфраструктура часто размещена за рубежом. Это требует тщательного анализа рисков и, возможно, инвестиций в локальные решения. В условиях, где данные становятся новой валютой, защита информации — это не только требование, а стратегический приоритет.

Если бизнес будет игнорировать эти риски, он может столкнуться с финансовыми потерями, ущербом репутации и даже юридическими последствиями. Но если правильно использовать ИИ, он станет мощным инструментом для повышения эффективности и конкурентоспособности. Особенно значимы здесь новые возможности, такие как детерминированные сети, позволяющие передавать данные с гарантированной задержкой, что критично для ИИ-нагруженных задач [!].

Важный нюанс: Развитие ИИ не должно происходить за счёт уязвимостей. Пользователям рекомендовано быть внимательными к запросам на предоставление личных данных и критически оценивать информацию, предоставляемую ИИ-моделями.

Новые вызовы и решения

Рост уязвимостей в облачных системах из-за ИИ требует внедрения современных решений, основанных на искусственном интеллекте, способных анализировать угрозы в реальном времени и автоматически реагировать на них [!]. Это особенно актуально в условиях, когда AI-агенты уже способны находить уязвимости быстрее и дешевле, чем профессиональные хакеры [!].

Дополнительно, рост популярности passkeys, более устойчивых к фишингу методов аутентификации, наблюдается среди крупных технологических компаний, внедряющих их вместо уязвимых одноразовых кодов. Их применение сокращает время входа в систему и снижает нагрузку на службы поддержки, однако остаются вызовы при масштабировании и переходе между разными экосистемами [!].

Важный нюанс: Внедрение новых технологий и совершенствование цифровых сервисов открывает путь к прорывному развитию, делая взаимодействие удобнее и эффективнее для людей.

Выводы

Искусственный интеллект — это не только инструмент, но и фактор, который меняет экономику отрасли и влияет на энергосистему. Развитие ИИ не должно происходить за счёт уязвимостей. Пользователям рекомендовано быть внимательными к запросам на предоставление личных данных и критически оценивать информацию, предоставляемую ИИ-моделями. Для бизнеса ключевым становится аудит ИИ-процессов, повышение кибербезопасности и внедрение современных решений, способных противостоять быстро меняющимся угрозам.

Коротко о главном

Почему использование открытых фреймворков стало риском?

Сотрудники одной компании использовали сторонние ИИ-инструменты без должного контроля, что позволило злоумышленникам с иностранных IP-адресов получить доступ к конфиденциальной информации.

Как дипфейки угрожают обществу?

В одном из случаев дипфейк-видео было использовано для подрыва доверия к государственным институтам, что представляет риск для стабильности и общественного порядка.

Почему алгоритмические предубеждения опасны?

Тестирование ИИ-модели показало, что она выдавала разные ответы на одинаковые вопросы в зависимости от языка, что может вводить пользователей в заблуждение в политических и исторических темах.

Какие рекомендации дали органы безопасности?

Были предложены три принципа: ограничение доступа, контроль цифровых следов и оптимизация взаимодействия с ИИ, чтобы снизить риски утечки данных и дезинформации.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Маркетинг и продажи; Право и регулирование; Государственное управление и общественная сфера

Оценка значимости: 7 из 10

Событие касается рисков, связанных с применением искусственного интеллекта, что особенно актуально для России, где ИИ активно внедряется в различные сферы. Угрозы касаются как корпоративной безопасности, так и национальной, включая дипфейки и алгоритмические предубеждения. Эти риски затрагивают несколько ключевых сфер — экономику, технологии, политику и общественную безопасность, а их влияние может быть долгосрочным, поскольку связано с развитием и регулированием ИИ. Связь с Россией усиливает значимость темы, делая её важной для обсуждения внутри страны.

Материалы по теме

Браузерные агенты под угрозой: 30 уязвимостей угрожают конфиденциальности

Упоминание случаев, когда злоумышленники из-за рубежа получали доступ к корпоративной информации через открытое API ИИ, служит прямым подтверждением рисков, связанных с передачей данных в облако. Этот факт усиливает аргумент о том, что использование сторонних ИИ-сервисов может привести к утечке конфиденциальной информации и потере контроля над данными.

Подробнее →
ИИ и дипфейки: угрозы, которые перевернут бизнес к 2026

Ссылка на прогноз европейских IT-специалистов о том, что дипфейки станут одной из главных угроз к 2026 году, служит доказательством роста рисков в области кибербезопасности. Это подкрепляет тезис о необходимости подготовки бизнеса к угрозам, связанным с поддельным контентом.

Подробнее →
65 стран подписали ООН-конвенцию против киберпреступности по российской инициативе

Упоминание подписания конвенции ООН 65 странами, включая борьбу с дипфейками, демонстрирует международное осознание масштаба проблемы. Это усиливает идею о том, что дипфейки вышли за рамки технической угрозы и стали предметом глобального регулирования.

Подробнее →
Как оценить угрозы в современных ИИ-системах: от обобщений к реальному риску

Ссылка на неопределённость поведения ИИ из-за параметров, таких как температура и top_p, поддерживает тезис о сложности прогнозирования реакции моделей. Это усиливает аргумент о необходимости интерпретации ответов ИИ и мониторинга его работы в чувствительных темах.

Подробнее →
Китай запускает сеть будущего: 100 Гбит/с и 72 ТБ за 1,6 часа

Упоминание детерминированных сетей, позволяющих передавать данные с гарантированной задержкой, служит примером технологического решения для повышения надёжности ИИ-нагруженных задач. Это поддерживает идею о том, что развитие ИИ требует инфраструктурных инноваций для минимизации угроз.

Подробнее →
Искусственный интеллект расширяет уязвимости в облачных системах

Упоминание роста уязвимостей в облачных системах из-за ИИ служит доказательством того, что внедрение ИИ требует пересмотра подходов к кибербезопасности. Это усиливает тезис о необходимости применения современных ИИ-инструментов для анализа угроз в реальном времени.

Подробнее →
AI-агент нашел больше уязвимостей, чем хакеры — и обошелся дешевле

Ссылка на AI-агента ARTEMIS, который нашёл больше уязвимостей, чем хакеры, иллюстрирует двойственность ИИ: его можно использовать как для защиты, так и для атак. Это подкрепляет идею о том, что кибербезопасность становится критически важной в условиях роста возможностей искусственного интеллекта.

Подробнее →