Сентябрь 2025   |   Обзор события   | 7

ГИИ бурно развивается, но безопасность данных отстает

Генеративный искусственный интеллект активно внедряется в бизнес-процессы, но многие компании сталкиваются с проблемой несоответствия между его развитием и готовностью систем защиты информации. Около трети крупных организаций уже используют ГИИ, но более 70% признают, что быстро меняющаяся экосистема ИИ создает новые риски для обеспечения целостности и безопасности данных.

ИСХОДНЫЙ НАРРАТИВ

В последние годы генеративный искусственный интеллект (ГИИ) активно внедряется в различные сферы бизнеса. Он используется в автоматизированных чат-ботах, маркетинговых кампаниях и других процессах, где требуется скорость и инновации. Однако развитие этих технологий сопряжено с новыми рисками для обеспечения безопасности данных. В 2025 году исследование «Thales Data Threat Report», основанное на опросе более 3 000 специалистов в области информационных технологий и безопасности, показало, что компании сталкиваются с проблемой несоответствия между внедрением ГИИ и готовностью стратегий защиты информации.

Ускоренное внедрение и недостаточная подготовка

Около трети крупных организаций уже начали интеграцию генеративного ИИ в свои операции, а у некоторых он уже меняет бизнес-процессы. Этот процесс развивается стремительно, и многие компании не останавливаются, чтобы устранить риски безопасности и обеспечить соблюдение нормативных требований. Более 70% опрошенных отметили, что быстро меняющаяся экосистема ГИИ стала их основной заботой. В её состав входят новые сервисы SaaS, появляющаяся инфраструктура и все более автономные ИИ-агенты, которые работают с конфиденциальными данными.

Целостность данных становится ключевой задачей

Традиционно в информационных системах внимание уделялось конфиденциальности и доступности информации. Однако с развитием ИИ акцент сместился на целостность данных. Атакующие могут внедрять ложную или предвзятую информацию в модели, что может повредить их функционирование. Такие атаки занимают второе место по степени опасности после сложности самой экосистемы ГИИ.

Защита данных — основа для развития ИИ

Для работы генеративного ИИ необходимы большие объёмы качественных данных. Если эти данные окажутся под угрозой, ИИ не сможет функционировать безопасно. Компании начинают реагировать на эти риски, вкладывая средства в специализированные инструменты защиты. Более 70% участников опроса сообщили о финансировании таких мероприятий, используя как предложения от провайдеров облака, так и отдельные средства. Однако между внедрением ИИ и его защитой всё ещё остаётся пробел. Специалистам по безопасности необходимо лучше понимать, как данные перемещаются внутри ИИ-систем, особенно когда они встроены в SaaS-продукты.

Переход к гибридной модели

Для руководителей информационной безопасности (CISO) задача заключается в том, чтобы привести программы обеспечения безопасности в соответствие с рисками, связанными с ИИ, и требованиями суверенитета данных. Эксперты указывают на несколько практических шагов. Важно вести учёт данных в локальных и облачных средах, внедрять унифицированные инструменты для упрощения разрозненных контрольных механизмов, а также планировать гибкость, чтобы адаптироваться к изменяющимся нормативам и технологиям.

Будущее зависит от защищённости данных

Генеративный ИИ продолжит развиваться, и его успех будет зависеть от качества и уровня защиты данных, на которых он строится. Суверенитет цифровых данных определит, где и как они будут храниться и обрабатываться. Совместное решение этих задач поможет руководителям безопасности управлять рисками и одновременно поддерживать инновации.

АНАЛИТИЧЕСКИЙ РАЗБОР

Когда скорость угрожает стабильности: ИИ и баланс между инновациями и безопасностью

С каждым годом генеративный искусственный интеллект становится неотъемлемой частью бизнес-процессов. Компании внедряют ИИ для автоматизации, повышения эффективности и создания новых продуктов. Однако ускоренное внедрение не всегда сопровождается соответствующей подготовкой в области безопасности. Исследование 2025 года показало, что около трети крупных организаций уже используют генеративный ИИ, но более 70% специалистов обеспокоены неспособностью систем отвечать на вызовы безопасности. Это не просто вопрос технической защиты — это сдвиг в приоритетах, где скорость сталкивается с устойчивостью.

Скрытые мотивы и системные противоречия

Одной из ключевых причин неравномерного подхода к внедрению и защите ИИ является нехватка понимания специфической природы ИИ-технологий. Традиционные меры безопасности, направленные на защиту данных от утечек и несанкционированного доступа, не учитывают особенности работы с моделями, которые могут быть обучены на основе ошибочных или манипулированных данных. Это создаёт новый тип уязвимости — угрозу целостности данных, что может привести к искажению выводов ИИ. Компании, стремясь к технологическому лидерству, часто игнорируют этот аспект, что в перспективе может привести к росту ошибок в принятии решений и снижению доверия к ИИ-системам.

Гибкость как стратегия выживания

При этом гибридная модель управления данными, сочетающая локальные и облачные решения, становится всё более актуальной. Такой подход позволяет организациям сохранять контроль над своими данными, даже при использовании сторонних ИИ-сервисов. Это особенно важно в условиях, когда данные становятся стратегическим ресурсом. В России, где вопросы суверенитета данных уже находятся на государственном уровне, подобные решения могут сыграть ключевую роль в обеспечении технологической независимости. Совместное управление рисками и инновациями становится не просто желательным, а необходимым шагом для устойчивого развития цифровой экономики.

К чему ведёт игнорирование рисков

Если компании не начнут адаптировать стратегии безопасности под специфику ИИ, они столкнутся с ростом уязвимостей, связанных с манипуляциями данными, и с последующим снижением эффективности ИИ-систем. В долгосрочной перспективе это может привести к замедлению внедрения ИИ и потере конкурентоспособности. Важно, чтобы специалисты по безопасности не только защищали данные, но и понимали, как они используются в ИИ, чтобы вовремя выявлять и блокировать угрозы. Цифровая безопасность станет основой для доверия к ИИ, а значит — и основой для его развития.

Краткосрочные и долгосрочные прогнозы

  • Краткосрочно ожидается рост инвестиций в специализированные инструменты защиты ИИ-систем, особенно в компаниях, где ИИ уже играет ключевую роль.
  • Долгосрочно развитие ИИ будет зависеть от того, насколько эффективно организованы меры по защите данных и обеспечения их целостности.
  • Для России переход к гибридной модели управления данными может стать стратегическим преимуществом, особенно в условиях роста международной цифровой конкуренции.

Уроки для бизнеса и государства

Для компаний важно не только внедрять ИИ, но и планировать его безопасность на этапе проектирования. Для государственных органов — это возможность создать условия, при которых цифровые технологии будут развиваться устойчиво и в рамках национальных интересов. Безопасность данных — это не просто техническая задача, а основа доверия к технологиям будущего.

Коротко о главном

Около 70% специалистов обеспокоены быстрым развитием экосистемы ИИ

Рост популярности SaaS-сервисов и автономных ИИ-агентов осложняет управление рисками.

Целостность данных становится приоритетом безопасности

Атаки, направленные на искажение информации в моделях ИИ, занимают второе место по опасности.

ИИ требует больших объёмов качественных данных, что повышает риски

Если данные под угрозой, ИИ не может функционировать корректно, что ставит под сомнение его надёжность.

Более 70% компаний финансируют защиту ИИ-систем

Инвестиции ведутся в специализированные инструменты, но между внедрением и безопасностью остаётся разрыв.

Руководители безопасности стремятся к гибким решениям

Ведётся учёт данных в локальных и облачных средах, внедряются унифицированные инструменты контроля.

Суверенитет данных определит будущее ИИ

Где и как будут обрабатываться данные, зависит от технологий и нормативов, что влияет на безопасность и эффективность ИИ.

Инновации в области ИИ требуют сбалансированного подхода к безопасности

Руководители безопасности должны учитывать риски, связанные с передачей данных в облачные среды и SaaS-продукты.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Управление и стратегия; Цифровизация и технологии; Государственное управление и общественная сфера

Оценка значимости: 7 из 10

Развитие генеративного ИИ и связанные с ним вызовы в сфере безопасности данных затрагивают широкий круг отраслей — от бизнеса до государственных систем, что указывает на влияние на несколько сфер. В России, где ИИ активно внедряется в различные отрасли, вопросы суверенитета и защиты данных становятся особенно актуальными. Риск утечек и нарушения целостности данных может повлиять как на экономическую, так и на политическую стабильность. Поскольку тема касается долгосрочных тенденций и имеет глубокие последствия для технологической и информационной безопасности, она вызывает повышенный интерес у российской аудитории.

Материалы по теме