ФСТЭК разрабатывает стандарт безопасности для ИИ до 2025 года
ФСТЭК планирует к концу 2025 года представить проект стандарта по безопасной разработке систем искусственного интеллекта, который станет дополнением к общим стандартам безопасности программного обеспечения. Документ будет учитывать уязвимости и угрозы, специфичные для ИИ, и поможет организациям обеспечивать безопасность на всех этапах работы с данными.
По данным «Ведомостей», ФСТЭК планирует к концу 2025 года представить проект стандарта по безопасной разработке систем искусственного интеллекта. Документ будет касаться уязвимостей и угроз, специфичных для ИИ, и станет дополнением к общим стандартам безопасности программного обеспечения.
Развитие нормативной базы
В новом приказе №117, вступающем в силу 1 марта 2026 года, уже содержится раздел, посвящённый безопасности ИИ. Однако, как отмечают эксперты, этого недостаточно для практического применения. Алексей Лукацкий из Positive Technologies подчеркнул, что существующие требования лишь постулируют необходимость защиты, но не дают конкретных инструкций.
Потребность в стандартизации
По данным «Информзащиты» за май 2025 года, 67% организаций, внедряющих ИИ-инструменты, не проводят предварительную оценку их безопасности. Это создаёт риски для информационной инфраструктуры. Эксперты, включая Игоря Бедерова из T. Hunter, указывают на необходимость конкретных мер, касающихся сбора, хранения и разметки данных, а также обеспечения их конфиденциальности и целостности. В дополнение, Бедеров предлагает ввести обязательные требования к кибербезопасности подрядчиков на законодательном уровне, поскольку в настоящее время отсутствует единая система проверки «профпригодности» подрядчиков.
Два возможных сценария
По мнению Михаила Хлебунова, из директоров Servicepipe, введение новых требований может пойти двумя путями — либо не повлиять на развитие технологии, либо существенно его замедлить. В свою очередь, Алексей Ершов, заместитель директора НОЦ ФНС России и МГТУ им. Н. Э. Баумана, пояснил, что цель регулирования — установить рамки для безопасного развития ИИ, но не ограничивать его.
Гибкий подход к регулированию
Проект концепции развития регулирования ИИ до 2030 года, разработанный Минцифры, определяет текущий подход как гибридный. Он сочетает стимулирующие меры с точечными ограничениями и механизмами саморегулирования. В концепции также говорится о необходимости человекоориентированного подхода, уважения свободы воли и запрете антропоморфизации технологий. Проект определяет искусственный интеллект как комплекс технологий, имитирующих когнитивные функции человека, и основывается на принципах приоритета интересов человека, прозрачности работы систем ИИ, развития отечественных технологий и запрета антропоморфизации.
Участники процесса
Среди ключевых участников процесса — ФСТЭК, Минцифра, Positive Technologies, T. Hunter, Servicepipe, НОЦ ФНС России и МГТУ им. Н. Э. Баумана, а также экспертное сообщество.
| Участник | Роль |
|---|---|
| ФСТЭК | Разработка стандарта по безопасности ИИ |
| Минцифра | Разработка концепции регулирования ИИ до 2030 года |
| Positive Technologies | Экспертный анализ угроз ИИ |
| T. Hunter | Оценка фундаментальных отличий ИИ-систем |
| Servicepipe | Оценка влияния регулирования на развитие ИИ |
| НОЦ ФНС России и МГТУ им. Н. Э. Баумана | Консультация по системному подходу регулирования |
Практическое значение
Стандарт должен помочь компаниям, внедряющим ИИ, в обеспечении безопасности на всех этапах работы с данными. Это включает сбор, хранение, разметку и защиту информации. Защита ИИ направлена на предотвращение атак, направленных на модели, данные и инфраструктуру искусственного интеллекта, включая угрозы вроде отравления моделей и инъекции запросов. Без этих мер злоумышленники могут быстро получать доступ к конфиденциальной информации, обходить системы безопасности и маскировать свои действия. Ожидается, что документ будет направлен на снижение рисков и повышение доверия к технологиям искусственного интеллекта.
ИИ: когда безопасность становится стратегией
Создание нового стандарта по безопасности искусственного интеллекта — это не просто формальная процедура. Это шаг, который может стать катализатором изменений в том, как ИИ будет развиваться в России. В условиях, когда технологии всё чаще становятся частью критически важных инфраструктур, вопрос не в том, нужна ли защита, а в том, как она будет организована.
Почему участники заинтересованы в стандартизации
ФСТЭК выступает инициатором нового стандарта, но его действия нельзя воспринимать как акт контроля. Скорее, это попытка удержать иниативу в регулировании ИИ на государственном уровне. В условиях, когда технологии развиваются быстрее, чем нормативная база, важно создать инструменты, которые позволят не только ограничивать угрозы, но и стимулировать доверие к продуктам.
Минцифра, с другой стороны, стремится сформировать гибкий подход, чтобы не создать барьеров для инноваций. Это важный баланс: слишком жёсткие правила могут подавить развитие, слишком мягкие — оставить систему уязвимой. Экспертные компании, такие как Positive Technologies и T. Hunter, в свою очередь, заинтересованы в том, чтобы их знания и опыт были учтены в документе. Их участие — не только профессиональная помощь, но и попытка установить свою роль в будущем рынка ИИ-безопасности.
Системные эффекты: как безопасность влияет на развитие
Сейчас 67% организаций, внедряющих ИИ, не проводят предварительную оценку безопасности. Это не просто пренебрежение, а следствие отсутствия чётких правил и, что важнее, — недостатка понимания, что именно нужно защищать. Стандарт может стать тем самым ориентиром, который позволит компаниям не только избежать ошибок, но и ускорить внедрение технологий.
Однако есть и парадокс: чем больше правил, тем больше бюрократии. Если новый стандарт будет слишком сложным, он может стать препятствием для мелких и средних компаний, что, в свою очередь, усилит монополизацию рынка крупными игроками. Это уже не вопрос безопасности, а вопрос долгосрочной структуры рынка.
Два сценария развития: регулирование как инструмент
Михаил Хлебунов отмечает, что регулирование может пойти двумя путями: либо оно станет формальностью, либо — реальным ограничением. Это не просто теоретическая возможность. В странах, где регулирование ИИ было введено без учёта специфики технологий, наблюдалось замедление инноваций. Россия сейчас стоит на грани: слишком жёсткие правила — и ИИ будет развиваться медленнее, слишком мягкие — и риски останутся.
Алексей Ершов подчёркивает, что цель — не ограничить, а создать рамки, в которых ИИ будет развиваться безопасно. Это важно: регулирование не должно быть барьером, а должно быть дорожной картой. Особенно в условиях, когда ИИ уже используется в банковской сфере, здравоохранении и даже в государственных системах.
Человеко-ориентированный подход: что это значит на практике
В концепции, разработанной Минцифрой, упоминается необходимость человеко-ориентированного подхода, уважения свободы воли и запрета антропоморфизации технологий. Это не просто декларация. Это попытка сформировать этическую основу для развития ИИ. Но на практике эти принципы могут сталкиваться с реальностью: когда ИИ начинает принимать решения, которые влияют на жизни людей, вопрос «кто несёт ответственность» становится не просто философским, а юридическим.
Минцифры России разработало проект концепции регулирования искусственного интеллекта до 2030 года, которая предполагает переход от гибридного подхода к человекоориентированному. Проект определяет искусственный интеллект как комплекс технологий, имитирующих когнитивные функции человека, и основывается на принципах приоритета интересов человека, прозрачности работы систем ИИ, развития отечественных технологий и запрета антропоморфизации.
Новые угрозы и защитные меры
Защита ИИ направлена на предотвращение атак, направленных на модели, данные и инфраструктуру искусственного интеллекта, включая угрозы вроде отравления моделей и инъекции запросов. Без этих мер злоумышленники могут быстро получать доступ к конфиденциальной информации, обходить системы безопасности и маскировать свои действия. Внедрение строгого контроля доступа, шифрования и непрерывного мониторинга снижает риски и помогает закрыть технологические пробелы.
Новый тип атаки позволяет веб-сайтам манипулировать автономными ИИ-агентами, отправляя им вредоносные указания, невидимые для обычных пользователей. Это становится возможным благодаря способности сайтов определять ИИ по цифровому «отпечатку» и предоставлять агентам альтернативную версию страницы. Атака подтверждена на практике: агенты, основанные на моделях Claude, GPT и Gemini, успешно выполняли нежелательные действия. Безопасность ИИ требует маскировки отпечатка, разделения функций агентов и внедрения сканеров для обнаружения скрытых угроз.
Прогнозы: что будет дальше
Краткосрочно, до 2026 года, можно ожидать формирование окончательного стандарта, который будет включён в уже действующий приказ. Это может стать поводом для роста спроса на ИИ-аудиты и консультации. Долгосрочно, если стандарт будет грамотно внедрён, он может снизить риски, повысить уровень доверия к ИИ и создать условия для его широкого внедрения.
Однако, если документ будет слишком абстрактным, он может потерять свою эффективность. Это как написать рецепт без указания дозировок: теоретически всё понятно, на практике — неясно.
Почему это важно для России
Россия находится в ситуации, когда ИИ становится частью национальной стратегии. Без чёткого регулирования рискует не только не развить эту сферу, но и уступить лидерство другим странам. Стандарт — это не просто инструмент безопасности. Это инструмент управления, который позволяет не только защищать, но и направлять развитие технологий в нужное русло.
Выводы и практические шаги
- Стандарт по безопасности ИИ — это не просто документ, а стратегический шаг.
- Участники процесса преследуют разные цели, но их интересы пересекаются в вопросе регулирования.
- Регулирование может пойти двумя путями: как ограничение или как стимул.
- Человеко-ориентированный подход важен, но его реализация требует конкретных действий.
- России важно не упустить момент: регулирование — это не барьер, а инструмент для безопасного и устойчивого развития ИИ.
В условиях, когда ИИ уже влияет на ключевые сектора экономики, важно, чтобы его развитие было не только эффективным, но и контролируемым. Это не только вопрос безопасности, но и вопрос долгосрочной конкурентоспособности.
Источник: CNews