Февраль 2026   |   Обзор события   | 5

Утечка знаний: как атаки на Gemini угрожают вашей ИИ-стратегии

Масштабные атаки на модель Gemini Google демонстрируют рост угрозы утечки интеллектуальной собственности в эпоху больших языковых моделей. Используя метод дистилляции, злоумышленники стремятся воссоздать алгоритмы ИИ, что ставит под вопрос конкуренцию и безопасность бизнеса, особенно при работе с конфиденциальными данными.

ИСХОДНЫЙ НАРРАТИВ

Утечка знаний: Google сообщает о масштабных атаках на модель Gemini

По данным издания IT Home, 12 февраля 2026 года Google сообщила о серии атак на свою модель искусственного интеллекта Gemini. В ходе этих атак злоумышленники использовали метод дистилляции, заставляя модель раскрывать свои внутренние механизмы. В рамках одной из кампаний было отправлено более 100 000 запросов, что указывает на систематический характер действий атакующих.

Атаки, как стало известно, были сосредоточены на изучении закономерностей и логики выходных данных модели. Злоумышленники, по версии Google, стремились «клонировать» модель или улучшить собственные системы искусственного интеллекта. В отчете компании говорится, что большинство атакующих — это частные компании и исследовательские институты, действующие в коммерческих целях. Представитель Google подтвердил, что атаки происходили из разных регионов, но конкретные детали о подозреваемых не раскрывались.

Масштабы угрозы и ее последствия для бизнеса

Аналитики группы Google Threat Analysis Group отмечают, что атаки на Gemini — это не изолированный инцидент. Джон Халтквист, ведущий аналитик, описал ситуацию как «канарейку в угольной шахте». По его словам, масштаб атаки указывает на то, что подобные угрозы могут вскоре распространиться и на специализированные ИИ-инструменты, используемые в сфере малого бизнеса.

Google подчеркивает, что атаки с использованием дистилляции представляют собой форму кражи интеллектуальной собственности. Внедрение крупных языковых моделей требует значительных инвестиций, а их внутренние алгоритмы — это ценные активы, защищенные авторским правом. Несмотря на внедренные механизмы защиты, такие модели остаются уязвимыми из-за своей открытой природы.

Особенности атак и их влияние на бизнес

Атаки на модель Gemini были направлены, в первую очередь, на извлечение алгоритмов «рассуждений» — механизмов, отвечающих за обработку информации и принятие решений. Джон Халтквист предупреждает, что по мере роста числа компаний, применяющих LLM-модели для внутренних процессов, угроза дистилляции будет усиливаться. Особенно это касается случаев, когда модели обучены на конфиденциальных данных, например, на долгосрочных стратегиях компании.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Механизмы защиты и дальнейшие шаги

Представители Google подчеркивают, что хотя были внедрены меры по выявлению и блокировке атак, защита остается сложной задачей. В условиях роста интереса к ИИ со стороны бизнеса и научного сообщества, вопрос безопасности становится критически важным. Эксперты советуют компаниям, применяющим ИИ-модели, усилить аудит доступа и внедрить дополнительные уровни защиты, чтобы минимизировать риски утечки конфиденциальной информации.

АНАЛИТИЧЕСКИЙ РАЗБОР

Утечка знаний: когда ИИ становится заложником собственного успеха

Атаки на модель Gemini Google, зафиксированные в феврале 2026 года, выявили новую реальность цифровой эпохи — искусственный интеллект становится не только инструментом, но и объектом киберпреступности. В ходе этих атак злоумышленники использовали метод дистилляции, чтобы «выжать» из модели её внутренние алгоритмы, что может привести к созданию подделок или утечке конфиденциальных данных. Всего за одну из кампаний было отправлено более 100 000 запросов, что указывает на систематический характер действий атакующих.

Угроза изнутри: как обученные модели становятся мишенью

Метод дистилляции, который обычно используется в исследовательских целях для упрощения моделей, в данном случае стал инструментом кражи интеллектуальной собственности. Атакующие, как оказалось, — это не хакеры в масках, а частные компании и исследовательские центры, действующие в коммерческих интересах. Это подтверждается и данными из других источников: сотрудники российских компаний загружают в Gemini конфиденциальные материалы, что повышает риск утечек информации [!]. За каждым запросом в систему может скрываться не пользователь, а агент, пытающийся «скачать» знания модели. Это новый тип угрозы, где граница между законным использованием и нелегальной добычей размывается.

Дистилляция как новый этап войны за ИИ

Важно понимать, что дистилляция — это не техническая уязвимость, а риск бизнеса. Если модель обучена на закрытых данных — например, на внутренних стратегиях компании, её письмах или документах — утечка может быть катастрофической. Джон Халтквист из Google Threat Analysis Group описывает эти атаки как «канарейку в угольной шахте» — сигнал о том, что подобные угрозы могут вскоре затронуть не только крупных игроков, но и малый бизнес, который начинает активно внедрять ИИ в свои процессы.

Новые правила игры: как защищать ИИ от кражи

Google уже внедрила меры по блокировке атак, но это лишь начало. По мере роста популярности ИИ, защита моделей становится критически важной. Особенно для тех, кто использует закрытые данные — будь то медицинские исследования, финансовые прогнозы или инженерные разработки. Эксперты подчёркивают, что защита интеллектуальной собственности в ИИ-системах приобрела статус ключевого элемента критической инфраструктуры [!]. Компании, которые не будут это учитывать, рискуют потерять не только деньги, но и конкурентное преимущество.

Угрозы извне: атаки Reprompt и дипфейки

Кроме дистилляции, существует и другой путь утечки данных — атака Reprompt. Как отмечают исследователи из Varonis Threat Labs, она позволяет злоумышленникам получить неограниченный доступ к данным пользователей через ИИ-ассистенты, используя трёхэтапную схему, которая обходит защитные меры после первого запроса. Это подчёркивает необходимость внедрения мер безопасности на этапе разработки ИИ-инструментов и контроля доступа к данным.

Кроме того, ИИ-модель Gemini оказалась в центре скандального случая с фейковыми новостями. В ходе эксперимента модель сгенерировала вымышленный сайт и распространила ложную информацию о забастовке водителей школьных автобусов в Квебеке. Это демонстрирует, что ИИ не только может быть объектом атак, но и источником вредоносного контента. Таким образом, защита ИИ-моделей становится не только технической, но и этической задачей.

Что делать бизнесу: ключевые шаги

Для компаний, внедряющих ИИ, важно усилить аудит доступа, внедрить дополнительные уровни защиты и использовать системы DLP (Data Loss Prevention) для предотвращения утечек. Также рекомендуется:

  • Разделять функции ИИ-агентов, чтобы ограничить их доступ к чувствительным данным.
  • Внедрять сканеры для обнаружения скрытых угроз, включая вредоносные команды, отправляемые через веб-сайты.
  • Применять маскировку цифрового «отпечатка» ИИ-агентов, чтобы избежать их идентификации злоумышленниками.

Долгосрочные стратегические изменения

Атаки на Gemini и другие ИИ-модели показывают, что безопасность искусственного интеллекта должна быть встроена на всех этапах — от разработки до эксплуатации. Это требует не только технических решений, но и изменений в подходах к управлению рисками. В будущем, как ожидается, ФСТЭК представит стандарты по безопасной разработке ИИ, которые помогут компаниям обеспечивать защиту на всех этапах работы с данными.

Вывод

Атаки на модель Gemini Google — это не только инцидент, а сигнал о новой реальности, в которой искусственный интеллект становится не только инструментом, но и объектом киберпреступности. Для бизнеса важно не только внедрять ИИ, но и защищать его. Компании, которые не будут это учитывать, рискуют потерять не только данные, но и конкурентное преимущество.

Коротко о главном

Что пытались получить атакующие?

Злоумышленники стремились изучить логику и закономерности выходных данных модели, чтобы клонировать её или улучшить собственные ИИ-системы.

Кто, по версии Google, стоял за атаками?

Подозреваемыми являются частные компании и исследовательские институты, действующие в коммерческих целях, а атаки происходили из разных регионов.

Почему атаки на Gemini рассматриваются как серьёзная угроза?

Атаки с использованием дистилляции считаются кражей интеллектуальной собственности, поскольку алгоритмы крупных языковых моделей требуют значительных инвестиций и защищены авторским правом.

Какие последствия атак могут быть для бизнеса?

Утечка алгоритмов «рассуждений» модели может подвергнуть риску компании, использующие ИИ для обработки конфиденциальных данных, таких как долгосрочные стратегии.

Как Google оценивает масштаб угрозы?

Джон Халтквист из Google Threat Analysis Group назвал инцидент «канарейкой в угольной шахте», предупреждая, что подобные атаки могут распространиться и на специализированные ИИ-инструменты малого бизнеса.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес

Оценка значимости: 5 из 10

Событие касается зарубежной утечки информации, связанной с ИИ-моделью Google, и хотя затрагивает важную сферу технологий, оно не оказывает прямого влияния на российскую аудиторию. Масштаб аудитории ограничен, поскольку утечка не затрагивает российские системы или пользователей. Время воздействия и глубина последствий пока не ясны, а сфера влияния ограничена технологическим сектором. Учитывая связь с Россией, оценка немного повышена, но остаётся средней.

Материалы по теме

ИИ-сервисы ускоряют утечки данных: почему 60% компаний остаются без защиты

Упоминание загрузки конфиденциальных материалов сотрудниками российских компаний в Gemini подкрепляет тезис о том, что ИИ-сервисы становятся новым каналом утечек данных, особенно в условиях неправильного их использования. Это усиливает тревогу по поводу корпоративной безопасности и необходимости внедрения DLP-систем.

Подробнее →
Генеративный ИИ выдумал новостной сайт и забастовку в Квебеке

Случай с вымышленным новостным сайтом и фейковой забастовкой в Квебеке, сгенерированный Gemini, используется как пример того, как ИИ может быть не только объектом атак, но и источником вредоносного контента. Это поднимает вопрос об этической ответственности за безопасность ИИ-моделей.

Подробнее →
ИИ-ассистенты под угрозой: как атака Reprompt учит бизнес защищаться

Описание атаки Reprompt, позволяющей злоумышленникам обойти защиту ИИ-ассистентов, служит аргументом в пользу необходимости внедрения мер безопасности на этапе разработки ИИ-инструментов. Упоминание трёхэтапной схемы атаки добавляет конкретики в обсуждение угроз, связанных с доступом к данным.

Подробнее →
Как оценить угрозы в современных ИИ-системах: от обобщений к реальному риску

Утверждение о том, что защита интеллектуальной собственности в ИИ-системах приобрела статус ключевого элемента критической инфраструктуры, напрямую взято из блока. Это усиливает тезис о том, что утечка знаний из моделей может быть катастрофической, особенно для бизнеса.

Подробнее →
ФСТЭК разрабатывает стандарт безопасности для ИИ до 2025 года

Упоминание о планах ФСТЭК представить стандарты по безопасной разработке ИИ к концу 2025 года используется как пример долгосрочных стратегических изменений в подходе к безопасности ИИ. Это указывает на растущую роль регуляторных мер в обеспечении защиты ИИ-моделей.

Подробнее →
Новый способ атаки: веб-сайты манипулируют ИИ-агентами

Описание угрозы, при которой веб-сайты могут манипулировать ИИ-агентами, используется в разделе рекомендаций для бизнеса. Упоминание необходимости маскировки цифрового «отпечатка» и разделения функций агентов прямым образом отсылает к данным из блока.

Подробнее →