DeepSeek: Как новый китайский чат-бот угрожает кибербезопасности России
Появление инструментов искусственного интеллекта, таких как китайский чат-бот DeepSeek, вызывает серьезную озабоченность в связи с потенциальными угрозами кибербезопасности. В ответ на эти опасения компании уже принимают меры, включая полный запрет на использование инструментов ИИ и приостановку работы с конкретными AI-решениями. Эксперты призывают к государственному регулированию и сотрудничеству для обеспечения безопасного развития искусственного интеллекта.
В условиях стремительного развития технологий искусственного интеллекта (ИИ) руководители служб информационной безопасности (CISO) сталкиваются с новыми и сложными вызовами. В частности, появление таких инструментов, как китайский чат-бот DeepSeek, вызывает серьезную обеспокоенность в связи с потенциальными рисками для кибербезопасности.
DeepSeek и угроза национальной безопасности
По данным опроса 250 CISO крупных британских организаций, проведенного компанией Absolute Security, подавляющее большинство (81%) считает, что DeepSeek требует немедленного государственного регулирования. Эксперты опасаются, что без своевременных мер этот инструмент может стать катализатором масштабного национального киберкризиса.
В ответ на эти опасения более трети (34%) CISO уже ввели полный запрет на использование инструментов ИИ по соображениям кибербезопасности, а еще 30% приостановили работу с конкретными AI-решениями. Такая реакция, хотя и может показаться радикальной, объясняется стремлением защитить компании от быстро эволюционирующих угроз.
DeepSeek и киберпреступность
Основная опасность платформ, подобных DeepSeek, заключается в их потенциале для утечки конфиденциальных корпоративных данных и использования злоумышленниками. 60% опрошенных CISO прогнозируют увеличение числа кибератак с появлением DeepSeek, а еще столько же отмечают, что эта технология уже осложняет управление конфиденциальностью и соблюдение нормативных требований.
В связи с этим растет число специалистов, которые считают, что ИИ представляет собой большую опасность, чем пользу для киберзащиты. 42% CISO уже видят в нем скорее угрозу, чем помощника.
Почти половина (46%) руководителей служб безопасности признают, что их команды не готовы противостоять уникальным угрозам, которые несут AI-атаки. Они наблюдают, как инструменты, такие как DeepSeek, опережают развитие защитных механизмов, создавая опасную брешь в безопасности, которую, по их мнению, может закрыть только государственное регулирование.
Необходимость государственного регулирования
Несмотря на эти опасения, компании не отказываются от ИИ. 84% организаций планируют активно привлекать специалистов в области ИИ, а 80% - инвестировать в обучение руководства основам этой технологии. Цель – подготовить внутренние команды к управлению ИИ и минимизировать риски.
CISO призывают к более тесному сотрудничеству с правительством для обеспечения безопасного развития ИИ. Они требуют четких правил, государственного надзора, подготовки квалифицированных кадров и единой национальной стратегии по управлению рисками, связанными с DeepSeek и будущими поколениями мощных AI-инструментов.
Развитие искусственного интеллекта ставит перед российскими компаниями новые вызовы в сфере информационной безопасности. Появление инструментов, подобных китайскому чат-боту DeepSeek, подчеркивает острую необходимость государственного регулирования и создания эффективных механизмов защиты от киберугроз.
Ключевой проблемой является лаг в развитии защитных технологий по сравнению с наступательным потенциалом ИИ. Это создает серьезную уязвимость для утечки конфиденциальных данных и использования их злоумышленниками. Рост числа кибератак, связанных с DeepSeek, и сложности в управлении конфиденциальностью требуют немедленных мер.
Несмотря на опасения, связанные с рисками ИИ, российские компании не отказываются от его внедрения. Государство должно активно содействовать развитию квалифицированных кадров в области ИИ и созданию единой национальной стратегии по управлению рисками, связанными с новыми технологиями.