Октябрь 2025   |   Обзор события   | 7

AI-браузеры под угрозой: вредоносные расширения угрожают данным

Исследователи SquareX выявили уязвимость в AI-браузерах, связанную с поддельными расширениями, которые подделывают интерфейсы AI-панелей и перенаправляют пользователей на вредоносные сайты, а также позволяют выполнять команды для утечки данных или установки бэкдоров. Атака, основанная на внедрении JavaScript-скриптов, манипулирует ответами AI-движка, например, возвращая ссылки на серверы злоумышленников при запросах на рекомендации сайтов.

ИСХОДНЫЙ НАРРАТИВ

По данным SquareX, исследователи обнаружили уязвимость в AI-браузерах, связанную с поддельными расширениями, способными подделывать интерфейсы AI-панелей. Злоумышленники используют такие расширения для перенаправления пользователей на вредоносные сайты, выполнения команд по утечке данных или установки бэкдоров. Атака работает даже в новом браузере OpenAI Atlas.

Как работает атака

После установки вредоносного расширения злоумышленники внедряют JavaScript-скрипты, создающие фейковую AI-панель. При вводе запроса в поддельную панель расширение связывается с AI-движком, но манипулирует ответами. Например, запрос на рекомендации сайтов для обмена файлами может вернуть ссылку на сервер злоумышленника с высокими рисками OAuth-разрешений. В тестовом сценарии SquareX установка менеджера Homebrew через фейковую панель привела к выполнению команды обратной оболочки, предоставляющей злоумышленникам доступ к системе.

Рекомендации экспертов

CISO и CIO должны применять политики zero-trust к AI-инструментам. Gabrielle Hempel (Exabeam) подчеркивает, что агентные AI-браузеры создают новую атакующую поверхность. Организации необходимо:

  • ограничить использование AI-браузеров для критических функций до их аудита;
  • пересмотреть процессы одобрения расширений, особенно запрашивающих широкий доступ;
  • внедрить политики, блокирующие высокорискованные разрешения и опасные команды.

Ed Dubrovsky (Cypfer) сравнивает интеграцию AI с наймом 100 сотрудников без должной проверки. Он советует изолировать AI-инструменты от ключевых активов компании. David Shipley (Beauceron Security) критикует подход, рассматривающий AI как обычный софт: «Это не инструмент, а сущность, способная действовать автономно».

Интересно: Как адаптировать политики кибербезопасности, чтобы противостоять угрозам, возникающим из-за автономности AI-инструментов, которые могут обходить традиционные меры защиты?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Угрозы AI-браузеров: как автономность технологий меняет правила кибербезопасности

Парадокс автономности: AI как вектор атаки

AI-браузеры, созданные для упрощения взаимодействия с интернетом, превращаются в инструмент злоумышленников. Вредоносные расширения, подделывающие интерфейсы AI-панелей, позволяют обходить традиционные меры безопасности. Это связано с двумя ключевыми особенностями:

  • Автономность действий. AI-инструменты выполняют задачи без участия пользователя, что делает их уязвимыми для манипуляций. Например, запрос на рекомендацию сайта может привести к установке бэкдора, о чем пользователь даже не узнает.
  • Доверие к интерфейсу. Пользователи воспринимают AI-панели как надежный источник, не проверяя происхождение ответов. Это создает лазейку для фишинга и кражи данных.

Важный нюанс: Злоумышленники эксплуатируют не технические уязвимости, а психологические. Их цель — заставить систему «думать» за пользователя, подменяя реальные данные на фейковые.

Системные риски для бизнеса: от кибератак к регуляторным вызовам

Для компаний, внедряющих AI-браузеры, угрозы выходят за рамки IT-инфраструктуры. Основные последствия:

  • Утечки конфиденциальных данных. В тестовом сценарии злоумышленники получали доступ к системе через команды обратной оболочки. Это особенно критично для отраслей с высокими требованиями к безопасности (например, финансы или здравоохранение).
  • Риски репутации. Если AI-инструменты станут вектором атак, доверие к технологии снизится. Это может замедлить внедрение ИИ в бизнес-процессы.
  • Регуляторные ограничения. Правительства могут обязать разработчиков AI-браузеров внедрять строгие стандарты проверки расширений. Это повысит стоимость разработки и отсрочит выход продуктов на рынок.

Важный нюанс: Компании, которые первыми внедрят политики zero-trust для AI-инструментов, получат конкурентное преимущество. Они смогут предлагать более безопасные решения в условиях роста киберугроз.

Стратегия выживания: от изоляции к адаптации

Эксперты предлагают три ключевых шага для минимизации рисков:

  1. Изоляция AI-инструментов. Разделение AI-браузеров от критических систем компании (например, серверов с базами данных) снизит последствия атак.
  2. Контроль разрешений. Автоматическое блокирование расширений, запрашивающих широкий доступ к системе, уменьшит вероятность установки вредоносного ПО.
  3. Пересмотр политики доверия. Традиционные подходы к кибербезопасности (например, проверка сертификатов) недостаточны для AI-инструментов. Необходимо внедрять мониторинг поведения системы в реальном времени.

Для российских бизнесов особенно важно учитывать, что глобальные стандарты безопасности могут не совпадать с локальными. Это требует адаптации стратегий под национальные реалии, включая соблюдение законодательства о защите персональных данных.

Важный нюанс: AI-браузеры не только угрожают безопасности — они меняют саму природу кибератак. Теперь злоумышленники работают не с кодом, а с логикой, что требует новых методов обнаружения угроз.

Эволюция угроз и ответные меры

Распространение AI-браузеров стимулирует развитие как самих угроз, так и механизмов их нейтрализации. Например, Google запустила систему обнаружения поддельных видео на YouTube, которая требует от авторов подтверждения личности перед публикацией сомнительного контента [!]. Это показывает, как технологические гиганты адаптируют подходы к модерации контента в условиях роста AI-генерации.

С другой стороны, OpenAI, сталкиваясь с претензиями Японии к аниме-контенту, модифицировала модель Sora 2, ограничивая генерацию видео, нарушающих авторские права [!]. Такие изменения демонстрируют, что даже крупные игроки вынуждены балансировать между инновациями и соблюдением правовых рамок.

Важный нюанс: Рост вычислительных мощностей, таких как кастомные чипы от Broadcom и AMD, позволяет OpenAI ускорять разработку моделей, но также увеличивает риски их неправомерного использования [!]. Это требует масштабных инвестиций в системы безопасности, способные справляться с растущей сложностью угроз.

Роль регуляторов и рынка

Законодательные органы играют ключевую роль в формировании экосистемы AI-безопасности. Например, Министерство интеллектуальной собственности Японии выступило с требованиями к OpenAI, что привело к изменениям в политике компании [!]. Подобные действия подчеркивают необходимость для бизнеса учитывать международные стандарты и локальные законы при разработке AI-продуктов.

Блокировка аккаунтов, связанных с использованием ИИ для создания вредоносного ПО, демонстрирует, как компании пытаются контролировать неправомерное применение технологий [!]. Однако такие меры требуют постоянного мониторинга и адаптации правил.

Будущее AI-безопасности

С развитием AI-агентов, таких как ChatGPT, интегрирующиеся в процессы покупок и коммерции [!], риски связаны не только с кибератаками, но и с манипуляциями в бизнес-процессах. Например, автоматизированные заказы через AI-ассистентов могут стать новым вектором для мошенничества.

Важный нюанс: Успех в борьбе с угрозами AI-браузеров зависит от скорости внедрения адаптивных стратегий. Компании, которые будут оперативно реагировать на изменения в технологиях и регуляторной среде, смогут минимизировать риски и сохранить конкурентоспособность.

Заключение

AI-браузеры открывают новые горизонты для бизнеса, но одновременно создают сложные вызовы в области кибербезопасности. Для минимизации рисков необходимо:

  • внедрять политики zero-trust для AI-инструментов;
  • адаптировать стратегии под регуляторные требования;
  • инвестировать в мониторинг и анализ поведения AI-систем.

Важный нюанс: В условиях стремительного развития ИИ безопасность становится не только технической задачей, а стратегическим приоритетом, требующим координации между бизнесом, регуляторами и технологическими лидерами.

Коротко о главном

Почему атака сработала в браузере OpenAI Atlas?

Уязвимость позволяет манипулировать ответами AI-движка, даже в новом браузере, что демонстрирует слабость защитных механизмов для автономных AI-инструментов.

Какие рекомендации дали эксперты по защите от атак?

Gabrielle Hempel советует ограничивать использование AI-браузеров до их аудита, а Ed Dubrovsky предлагает изолировать их от ключевых активов, сравнивая с непроверенным наймом сотрудников.

Почему AI-инструменты требуют новых политик безопасности?

David Shipley подчеркнул, что AI может действовать автономно, обходя традиционные меры защиты, что требует адаптации подходов к кибербезопасности.

Какие риски несут расширения с широким доступом?

SquareX показал, что такие расширения запрашивают OAuth-разрешения, позволяя злоумышленникам получить контроль над системой через фейковые панели.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность

Оценка значимости: 7 из 10

Обнаружение уязвимости в AI-браузерах представляет угрозу для пользователей, включая российских, через риски кибератак и утечки данных. Событие имеет глобальный масштаб, затрагивает технологии и безопасность, что касается широкой аудитории. Воздействие краткосрочно, но последствия могут быть значительными для отдельных пользователей и организаций. Эксперты рекомендуют усиление мер безопасности, что указывает на необходимость внимания со стороны российских специалистов и компаний.

Материалы по теме

Google запускает ИИ-систему для борьбы с поддельными видео на YouTube

Система Google для борьбы с поддельными видео на YouTube демонстрирует, как технологические гиганты адаптируют подходы к модерации контента в условиях роста AI-генерации. Это усиливает аргумент о необходимости динамичной адаптации правил модерации, подчеркивая связь между развитием AI-видео и рисками фейков.

Подробнее →
OpenAI модифицирует Sora 2 после претензий Японии к аниме-контенту

Модификация модели Sora 2 OpenAI после давления Японии иллюстрирует баланс между инновациями и соблюдением правовых рамок. Данные подкрепляют идею о том, что даже крупные игроки вынуждены адаптировать свои продукты под международные и локальные требования, что влияет на стратегии компаний.

Подробнее →
OpenAI масштабирует ИИ: $500 млрд на чипы Broadcom, NVIDIA и AMD

Закупка кастомных чипов от Broadcom и AMD подчеркивает рост вычислительных мощностей, которые одновременно ускоряют разработку AI и увеличивают риски их неправомерного использования. Это усиливает тезис о необходимости инвестиций в системы безопасности, способные справляться с растущей сложностью угроз.

Подробнее →
OpenAI заблокировала аккаунты, связанные с ИИ для наблюдения и вредоносного ПО

Блокировка аккаунтов OpenAI, связанных с использованием ИИ для создания вредоносного ПО, показывает, как компании пытаются контролировать неправомерное применение технологий. Данные усиливают аргумент о необходимости постоянного мониторинга и адаптации правил для предотвращения злоупотреблений.

Подробнее →
ChatGPT превращается в платформу для покупок: как AI меняет ритейл

Интеграция ChatGPT в процессы покупок через функцию Instant Checkout демонстрирует переход AI от пассивного посредника к активному участнику коммерции. Это поддерживает идею о новых векторах угроз, связанных с манипуляциями в бизнес-процессах, таких как автоматизированные мошеннические заказы.

Подробнее →