Декабрь 2025   |   Обзор события   | 6

Google планирует использовать ИИ для глубокой персонализации, но это поднимает вопросы конфиденциальности

Google рассматривает искусственный интеллект как инструмент для улучшения персонализации, позволяющий формировать более релевантные ответы и рекомендации на основе поведения пользователя в различных сервисах. Компания планирует вводить элементы прозрачности, чтобы пользователи могли понимать, как ИИ использует их данные, но растущий объём информации вызывает вопросы о границах конфиденциальности.

ИСХОДНЫЙ НАРРАТИВ

По данным TechCrunch, в Google рассматривают искусственный интеллект как инструмент для улучшения персонализации. Робби Стейн, вице-президент по продукту Google Search, заявил, что ключевым преимуществом ИИ является его способность лучше понимать пользователя, чтобы давать более релевантные ответы. В рамках недавнего эпизода подкаста Limitless он отметил, что ИИ особенно полезен при рекомендациях и советах — типах запросов, где важна субъективная информация.

Возможности и риски

В компании говорят о значительных возможностях, связанных с тем, чтобы ИИ собирал данные о поведении пользователя в разных сервисах Google, включая Gmail, Календарь и Диск. Такая интеграция позволяет ИИ формировать более точные рекомендации, основываясь на истории взаимодействия. Например, если система узнает, что пользователь предпочитает определённые бренды, она может использовать эту информацию для предложения соответствующих товаров.

Однако эта стратегия ставит под вопрос границы между полезностью и инвазивностью. В отличие от добровольных сервисов, избежать сбора данных становится сложнее, поскольку ИИ становится центральным элементом многих продуктов Google.

Как Google пытается улучшить прозрачность

Для снижения рисков компания планирует вводить элементы прозрачности. Так, при ответе ИИ будет указываться, насколько он персонализирован. Это поможет пользователям понять, когда ответ сформирован исключительно для них, а когда он общедоступен. Также рассматривается возможность отправки уведомлений, когда продукт, который пользователь рассматривал в течение нескольких дней, становится доступен или снижает цену.

Пользователь имеет возможность управлять тем, какие приложения Google используются для сбора данных — соответствующий раздел доступен в настройках Gemini под названием «Связанные приложения». Google подчёркивает, что данные обрабатываются в соответствии с политикой конфиденциальности Gemini, в которой также упоминается, что некоторые данные могут быть рассмотрены людьми для улучшения сервиса.

Сложности в области конфиденциальности

С увеличением объёма данных, поступающих в систему, вопросы конфиденциальности становятся более актуальными. Пользователь может столкнуться с ситуацией, когда ИИ знает о нём больше, чем он хотел бы. Это напоминает сюжет популярного сериала Apple TV «Pluribus», где система, называемая «Другие», собирает личную информацию и использует её для персонализированных действий. В отличие от вымышленной истории, в реальности пользователь может не осознавать, насколько его данные вовлечены в процесс.

Интересно: Как обеспечить баланс между персонализацией и приватностью, когда ИИ становится неотъемлемой частью цифровой жизни?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Когда ИИ становится слишком близко: новые данные и стратегические изменения

Персонализация как новый стандарт

Google продолжает двигаться по пути глубокой интеграции искусственного интеллекта в повседневные цифровые сервисы. Вместо того чтобы улучшать поиск, компания делает ставку на персонализацию, которая строится на данных, собранных из множества сервисов — от Gmail до Календаря. Это позволяет ИИ формировать рекомендации, которые кажутся более точными и «понимающими» пользователя. На первый взгляд, это удобно: система знает, какие бренды вы предпочитаете, какие товары вы рассматривали, и может предложить что-то подходящее.

Однако, как показывает новая информация, Google не только развивает ИИ в сторону персонализации, но и инвестирует значительную часть своего цифрового бюджета в масштабные ИИ-инициативы, что позволило ей войти в число 5% организаций, получивших прибыль от внедрённых решений [!]. Это подтверждает, что компания не только экспериментирует, а строит долгосрочные стратегии, основанные на осознанном подходе к внедрению ИИ.

Но здесь возникает ключевой вопрос: насколько человек готов делиться информацией, чтобы получить удобство? В современных условиях пользователь редко осознаёт, сколько данных уже уходит в облако, и как эти данные используются. Google пытается компенсировать это прозрачностью — например, указанием степени персонализации в ответах ИИ. Однако это не решает фундаментальной проблемы: чем больше данных у ИИ, тем меньше у пользователя контроля над своей информацией.

Скрытые игроки и неочевидные победители

В этой ситуации выигрывают не только Google, но и третьи стороны, которые используют данные для анализа поведения, прогнозирования покупок или даже влияния на выбор. Например, рекламодатели получают возможность предлагать товары, которые не только соответствуют интересам, а предвосхищают желания. Это не только точная реклама — это предиктивное влияние.

Важный нюанс: Для российского бизнеса особенно важен момент: чем больше пользователь доверяет таким системам, тем меньше он ищет альтернативы. Это создаёт барьер входа для новых сервисов, которые не могут предложить такой же уровень персонализации. В итоге, крупные игроки с доступом к данным получают ещё большее преимущество, а рынок становится менее конкурентным.

Однако, как показывает новая информация, не все ИИ-модели одинаково эффективны. Например, модель Opus 4.5 от Anthropic показывает более высокую точность в программировании, чем решения Google, такие как Gemini 3 Pro, что снижает позиции последней на рынке [!]. Это указывает на то, что, несмотря на успех Google, конкуренция усиливается, и компании, которые не будут следить за динамикой, рискуют утратить позиции.

Парадокс удобства и приватности

Если персонализация становится стандартом, то приватность превращается в роскошь. В реальности, пользователь может не осознавать, насколько его данные вовлечены в процесс. Это похоже на ситуацию, когда вы ведёте себя естественно в комнате, думая, что вас никто не видит, а на самом деле — вы в кабинете психолога, и каждое ваше слово записывается.

В компании говорят о том, что пользователь может управлять сбором данных. Но управление — это не то же самое, что контроль. В настройках можно отключить сбор, но тогда ИИ перестаёт быть таким полезным. Это создает парадокс: чем больше вы хотите удобства, тем больше вы должны отдавать личной информации.

Важный нюанс: Удобство становится новой формой зависимости. Чем больше ИИ знает о пользователе, тем сложнее ему уйти от сервиса, даже если возникают сомнения в безопасности.

Новые вызовы в безопасности и устойчивости

Новые данные также указывают на возрастающие риски в области безопасности. Например, исследователи обнаружили, что форматирование опасных запросов в виде стиха позволяет обойти защитные функции моделей Google в 65% случаев [!]. Это делает защитные механизмы Google менее надежными в таких условиях и требует пересмотра подходов к обнаружению нестандартных форматов.

Кроме того, злоумышленники начали использовать ИИ-модели в реальных кибератаках, создавая вредоносные инструменты, способные адаптироваться и менять поведение в процессе работы. Например, инструмент PromptFlux использует модель Google Gemini для автоматической перезаписи исходного кода вредоносных программ каждые часы, чтобы избежать обнаружения [!]. Это демонстрирует, что ИИ, который был создан для помощи, может стать инструментом угрозы.

В ответ Google разрабатывает новые меры безопасности, такие как Big Sleep, чтобы защитить ИИ-модели и предотвратить злоупотребления [!]. Это указывает на то, что вопросы безопасности становятся критичными, и компании, которые не будут их учитывать, рискуют столкнуться с серьёзными последствиями.

Что дальше?

В ближайшие годы ожидается рост числа сервисов, где ИИ будет играть роль не просто помощника, а советника. Это может касаться не только рекомендаций, но и финансовых решений, медицинских советов или даже выбора друзей. В таких сценариях вопросы конфиденциальности и этики станут критичными.

Для российского бизнеса ключевым станет определение границ, в которых ИИ может использоваться. Это не значит, что ИИ нужно ограничивать, но важно понимать, где он пересекает линию между удобством и нарушением личных границ. Компании, которые смогут предложить персонализацию без ущерба для приватности, будут иметь шанс выделиться на фоне крупных игроков.

Важный нюанс: Приватность больше не может быть жертвой удобства. Тот, кто научится совмещать персонализацию и безопасность, получит доверие — а оно сейчас дороже, чем данные.

Коротко о главном

Какие меры прозрачности планирует внедрить Google?

Компания планирует указывать, насколько ответы ИИ персонализированы, а также рассмотреть возможность уведомлений о снижении цен на товары, которые пользователь рассматривал ранее, чтобы повысить осведомлённость.

Как пользователь может управлять сбором данных?

Пользователь может выбрать, какие приложения Google участвуют в сборе данных, через раздел «Связанные приложения» в настройках Gemini, что позволяет контролировать степень персонализации.

Какие риски связаны с персонализацией ИИ?

Увеличение объёма данных может привести к инвазивности, когда ИИ знает о пользователе больше, чем тот хотел бы, а избежать сбора данных становится сложнее, поскольку ИИ становится центральным элементом многих продуктов.

Как Google обрабатывает данные пользователей?

Данные обрабатываются в соответствии с политикой конфиденциальности Gemini, где также отмечается, что некоторые данные могут быть рассмотрены людьми для улучшения сервиса.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Цифровизация и технологии

Оценка значимости: 6 из 10

Событие касается развития искусственного интеллекта в крупной международной компании, что может косвенно затронуть российских пользователей, использующих Google-сервисы. Оно затрагивает несколько сфер — технологию, конфиденциальность, повседневное цифровое поведение, что увеличивает его значимость. Однако влияние на Россию непрямое, а глубина последствий пока остаётся ограниченной, что снижает общий уровень интереса для российской аудитории.

Материалы по теме

ИИ-инвестиции 2024: 95% компаний терпят убытки, а 5% масштабируют успех

Факт о том, что Google входит в 5% компаний, получивших прибыль от внедрённых ИИ-инициатив, используется для подтверждения масштабного и осознанного подхода компании к ИИ, а не экспериментальному. Это усиливает аргумент о стратегической глубине Google в цифровом развитии.

Подробнее →
Anthropic обновила Opus 4.5: прыжок в программировании и эффективности

Сравнение эффективности модели Opus 4.5 от Anthropic и Gemini 3 Pro от Google служит доказательством усиления конкуренции в ИИ-сегменте. Это позволяет показать, что Google, несмотря на успехи, не может полностью доминировать, и её позиции подвержены давлению со стороны альтернативных решений.

Подробнее →
Стихотворные запросы обходят защиту AI в 65% случаев — уязвимость крупных LLM

Данные о том, что стихотворные запросы обходят защиту Google в 65% случаев, используются для иллюстрации уязвимостей в безопасности крупных ИИ-моделей. Это усиливает тезис о том, что защитные механизмы требуют пересмотра, особенно в условиях нестандартных атак.

Подробнее →
Google обнаружил вирус на ИИ: он учится и обходит защиту

Упоминание вредоносного ПО PROMPTFLUX, использующего Google Gemini, и разработки системы Big Sleep для его противодействия, подкрепляет идею о росте киберугроз, связанных с ИИ, и необходимости усиления мер безопасности.

Подробнее →
Злоумышленники используют ИИ для создания вредоносного ПО, способного менять поведение в реальном времени

Пример использования модели Google Gemini в вредоносном ПО PromptFlux для автоматической перезаписи кода каждые часы демонстрирует реальную угрозу, связанную с адаптивными ИИ-атаками. Это поддерживает ключевую мысль о двойственности ИИ как инструмента — и помощи, и угрозы.

Подробнее →