Утечка знаний: как атаки на Gemini угрожают вашей ИИ-стратегии
Масштабные атаки на модель Gemini Google демонстрируют рост угрозы утечки интеллектуальной собственности в эпоху больших языковых моделей. Используя метод дистилляции, злоумышленники стремятся воссоздать алгоритмы ИИ, что ставит под вопрос конкуренцию и безопасность бизнеса, особенно при работе с конфиденциальными данными.
Утечка знаний: Google сообщает о масштабных атаках на модель Gemini
По данным издания IT Home, 12 февраля 2026 года Google сообщила о серии атак на свою модель искусственного интеллекта Gemini. В ходе этих атак злоумышленники использовали метод дистилляции, заставляя модель раскрывать свои внутренние механизмы. В рамках одной из кампаний было отправлено более 100 000 запросов, что указывает на систематический характер действий атакующих.
Атаки, как стало известно, были сосредоточены на изучении закономерностей и логики выходных данных модели. Злоумышленники, по версии Google, стремились «клонировать» модель или улучшить собственные системы искусственного интеллекта. В отчете компании говорится, что большинство атакующих — это частные компании и исследовательские институты, действующие в коммерческих целях. Представитель Google подтвердил, что атаки происходили из разных регионов, но конкретные детали о подозреваемых не раскрывались.
Масштабы угрозы и ее последствия для бизнеса
Аналитики группы Google Threat Analysis Group отмечают, что атаки на Gemini — это не изолированный инцидент. Джон Халтквист, ведущий аналитик, описал ситуацию как «канарейку в угольной шахте». По его словам, масштаб атаки указывает на то, что подобные угрозы могут вскоре распространиться и на специализированные ИИ-инструменты, используемые в сфере малого бизнеса.
Google подчеркивает, что атаки с использованием дистилляции представляют собой форму кражи интеллектуальной собственности. Внедрение крупных языковых моделей требует значительных инвестиций, а их внутренние алгоритмы — это ценные активы, защищенные авторским правом. Несмотря на внедренные механизмы защиты, такие модели остаются уязвимыми из-за своей открытой природы.
Особенности атак и их влияние на бизнес
Атаки на модель Gemini были направлены, в первую очередь, на извлечение алгоритмов «рассуждений» — механизмов, отвечающих за обработку информации и принятие решений. Джон Халтквист предупреждает, что по мере роста числа компаний, применяющих LLM-модели для внутренних процессов, угроза дистилляции будет усиливаться. Особенно это касается случаев, когда модели обучены на конфиденциальных данных, например, на долгосрочных стратегиях компании.

Механизмы защиты и дальнейшие шаги
Представители Google подчеркивают, что хотя были внедрены меры по выявлению и блокировке атак, защита остается сложной задачей. В условиях роста интереса к ИИ со стороны бизнеса и научного сообщества, вопрос безопасности становится критически важным. Эксперты советуют компаниям, применяющим ИИ-модели, усилить аудит доступа и внедрить дополнительные уровни защиты, чтобы минимизировать риски утечки конфиденциальной информации.
Утечка знаний: когда ИИ становится заложником собственного успеха
Атаки на модель Gemini Google, зафиксированные в феврале 2026 года, выявили новую реальность цифровой эпохи — искусственный интеллект становится не только инструментом, но и объектом киберпреступности. В ходе этих атак злоумышленники использовали метод дистилляции, чтобы «выжать» из модели её внутренние алгоритмы, что может привести к созданию подделок или утечке конфиденциальных данных. Всего за одну из кампаний было отправлено более 100 000 запросов, что указывает на систематический характер действий атакующих.
Угроза изнутри: как обученные модели становятся мишенью
Метод дистилляции, который обычно используется в исследовательских целях для упрощения моделей, в данном случае стал инструментом кражи интеллектуальной собственности. Атакующие, как оказалось, — это не хакеры в масках, а частные компании и исследовательские центры, действующие в коммерческих интересах. Это подтверждается и данными из других источников: сотрудники российских компаний загружают в Gemini конфиденциальные материалы, что повышает риск утечек информации [!]. За каждым запросом в систему может скрываться не пользователь, а агент, пытающийся «скачать» знания модели. Это новый тип угрозы, где граница между законным использованием и нелегальной добычей размывается.
Дистилляция как новый этап войны за ИИ
Важно понимать, что дистилляция — это не техническая уязвимость, а риск бизнеса. Если модель обучена на закрытых данных — например, на внутренних стратегиях компании, её письмах или документах — утечка может быть катастрофической. Джон Халтквист из Google Threat Analysis Group описывает эти атаки как «канарейку в угольной шахте» — сигнал о том, что подобные угрозы могут вскоре затронуть не только крупных игроков, но и малый бизнес, который начинает активно внедрять ИИ в свои процессы.
Новые правила игры: как защищать ИИ от кражи
Google уже внедрила меры по блокировке атак, но это лишь начало. По мере роста популярности ИИ, защита моделей становится критически важной. Особенно для тех, кто использует закрытые данные — будь то медицинские исследования, финансовые прогнозы или инженерные разработки. Эксперты подчёркивают, что защита интеллектуальной собственности в ИИ-системах приобрела статус ключевого элемента критической инфраструктуры [!]. Компании, которые не будут это учитывать, рискуют потерять не только деньги, но и конкурентное преимущество.
Угрозы извне: атаки Reprompt и дипфейки
Кроме дистилляции, существует и другой путь утечки данных — атака Reprompt. Как отмечают исследователи из Varonis Threat Labs, она позволяет злоумышленникам получить неограниченный доступ к данным пользователей через ИИ-ассистенты, используя трёхэтапную схему, которая обходит защитные меры после первого запроса. Это подчёркивает необходимость внедрения мер безопасности на этапе разработки ИИ-инструментов и контроля доступа к данным.
Кроме того, ИИ-модель Gemini оказалась в центре скандального случая с фейковыми новостями. В ходе эксперимента модель сгенерировала вымышленный сайт и распространила ложную информацию о забастовке водителей школьных автобусов в Квебеке. Это демонстрирует, что ИИ не только может быть объектом атак, но и источником вредоносного контента. Таким образом, защита ИИ-моделей становится не только технической, но и этической задачей.
Что делать бизнесу: ключевые шаги
Для компаний, внедряющих ИИ, важно усилить аудит доступа, внедрить дополнительные уровни защиты и использовать системы DLP (Data Loss Prevention) для предотвращения утечек. Также рекомендуется:
- Разделять функции ИИ-агентов, чтобы ограничить их доступ к чувствительным данным.
- Внедрять сканеры для обнаружения скрытых угроз, включая вредоносные команды, отправляемые через веб-сайты.
- Применять маскировку цифрового «отпечатка» ИИ-агентов, чтобы избежать их идентификации злоумышленниками.
Долгосрочные стратегические изменения
Атаки на Gemini и другие ИИ-модели показывают, что безопасность искусственного интеллекта должна быть встроена на всех этапах — от разработки до эксплуатации. Это требует не только технических решений, но и изменений в подходах к управлению рисками. В будущем, как ожидается, ФСТЭК представит стандарты по безопасной разработке ИИ, которые помогут компаниям обеспечивать защиту на всех этапах работы с данными.
Вывод
Атаки на модель Gemini Google — это не только инцидент, а сигнал о новой реальности, в которой искусственный интеллект становится не только инструментом, но и объектом киберпреступности. Для бизнеса важно не только внедрять ИИ, но и защищать его. Компании, которые не будут это учитывать, рискуют потерять не только данные, но и конкурентное преимущество.
Источник: IT Home