Август 2025   |   Обзор события   | 6

DeepSeek: Как новый китайский чат-бот угрожает кибербезопасности России

Появление инструментов искусственного интеллекта, таких как китайский чат-бот DeepSeek, вызывает серьезную озабоченность в связи с потенциальными угрозами кибербезопасности. В ответ на эти опасения компании уже принимают меры, включая полный запрет на использование инструментов ИИ и приостановку работы с конкретными AI-решениями. Эксперты призывают к государственному регулированию и сотрудничеству для обеспечения безопасного развития искусственного интеллекта.

ИСХОДНЫЙ НАРРАТИВ

В условиях стремительного развития технологий искусственного интеллекта (ИИ) руководители служб информационной безопасности (CISO) сталкиваются с новыми и сложными вызовами. В частности, появление таких инструментов, как китайский чат-бот DeepSeek, вызывает серьезную обеспокоенность в связи с потенциальными рисками для кибербезопасности.

DeepSeek и угроза национальной безопасности

По данным опроса 250 CISO крупных британских организаций, проведенного компанией Absolute Security, подавляющее большинство (81%) считает, что DeepSeek требует немедленного государственного регулирования. Эксперты опасаются, что без своевременных мер этот инструмент может стать катализатором масштабного национального киберкризиса.

В ответ на эти опасения более трети (34%) CISO уже ввели полный запрет на использование инструментов ИИ по соображениям кибербезопасности, а еще 30% приостановили работу с конкретными AI-решениями. Такая реакция, хотя и может показаться радикальной, объясняется стремлением защитить компании от быстро эволюционирующих угроз.

DeepSeek и киберпреступность

Основная опасность платформ, подобных DeepSeek, заключается в их потенциале для утечки конфиденциальных корпоративных данных и использования злоумышленниками. 60% опрошенных CISO прогнозируют увеличение числа кибератак с появлением DeepSeek, а еще столько же отмечают, что эта технология уже осложняет управление конфиденциальностью и соблюдение нормативных требований.

В связи с этим растет число специалистов, которые считают, что ИИ представляет собой большую опасность, чем пользу для киберзащиты. 42% CISO уже видят в нем скорее угрозу, чем помощника.

Почти половина (46%) руководителей служб безопасности признают, что их команды не готовы противостоять уникальным угрозам, которые несут AI-атаки. Они наблюдают, как инструменты, такие как DeepSeek, опережают развитие защитных механизмов, создавая опасную брешь в безопасности, которую, по их мнению, может закрыть только государственное регулирование.

Необходимость государственного регулирования

Несмотря на эти опасения, компании не отказываются от ИИ. 84% организаций планируют активно привлекать специалистов в области ИИ, а 80% - инвестировать в обучение руководства основам этой технологии. Цель – подготовить внутренние команды к управлению ИИ и минимизировать риски.

CISO призывают к более тесному сотрудничеству с правительством для обеспечения безопасного развития ИИ. Они требуют четких правил, государственного надзора, подготовки квалифицированных кадров и единой национальной стратегии по управлению рисками, связанными с DeepSeek и будущими поколениями мощных AI-инструментов.

АНАЛИТИЧЕСКИЙ РАЗБОР

Развитие искусственного интеллекта ставит перед российскими компаниями новые вызовы в сфере информационной безопасности. Появление инструментов, подобных китайскому чат-боту DeepSeek, подчеркивает острую необходимость государственного регулирования и создания эффективных механизмов защиты от киберугроз.

Ключевой проблемой является лаг в развитии защитных технологий по сравнению с наступательным потенциалом ИИ. Это создает серьезную уязвимость для утечки конфиденциальных данных и использования их злоумышленниками. Рост числа кибератак, связанных с DeepSeek, и сложности в управлении конфиденциальностью требуют немедленных мер.

Несмотря на опасения, связанные с рисками ИИ, российские компании не отказываются от его внедрения. Государство должно активно содействовать развитию квалифицированных кадров в области ИИ и созданию единой национальной стратегии по управлению рисками, связанными с новыми технологиями.

Только тесное сотрудничество бизнеса и государства позволит России занять лидирующие позиции в сфере безопасного развития искусственного интеллекта.

Коротко о главном

Компании уже реагируют на угрозу DeepSeek

Более трети руководителей служб информационной безопасности полностью запретили использование инструментов ИИ по соображениям безопасности, а еще 30% приостановили работу с конкретными AI-решениями.

DeepSeek может привести к утечке данных и росту кибератак

Половина опрошенных CISO прогнозирует увеличение числа кибератак с появлением DeepSeek и усложнение управления конфиденциальностью.

Специалисты видят в ИИ больше угрозы, чем пользы для киберзащиты

42% CISO считают, что ИИ представляет собой большую опасность, чем пользу, для защиты от кибератак.

Команды безопасности не готовы к борьбе с AI-атаками

Почти половина руководителей служб безопасности признают, что их команды не готовы противостоять уникальным угрозам, которые несут AI-атаки.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Государственное управление и общественная сфера

Оценка значимости: 6 из 10

Это событие затрагивает важные вопросы кибербезопасности в России, поскольку развитие ИИ, как показано на примере DeepSeek, может привести к серьезным угрозам для компаний. Несмотря на то, что сам DeepSeek не является российским продуктом, его потенциальное влияние на кибербезопасность российских организаций и возможные последствия для экономики страны заставляют отнести это событие к категории значимых.

Материалы по теме