Октябрь 2025   |   Обзор события   | 3

Google Home Advanced: ИИ Gemini «видит» угрозы, которых нет

Пользователи сервиса Google Home Advanced сообщают о неточностях в функции Home Brief, где ИИ Gemini for Home ошибочно интерпретирует данные с камер Nest и других устройств, описывая костюмы, животных и события неправильно. Компания внедрила функцию Familiar Faces для фильтрации домочадцев, но ИИ продолжает генерировать ложные уведомления.

ИСХОДНЫЙ НАРРАТИВ

По данным Android Authority, пользователи сервиса Google Home Advanced столкнулись с неточностями в функции Home Brief, которая генерирует отчеты на основе данных с камер Nest и других умных устройств. Примеры ложных интерпретаций включают:

  • Описание костюмов на Хэллоуин как «человек в черных плащах»;
  • Идентификацию кошек как бурундуков и наоборот;
  • Упоминание человека у детской площадки, не подтвержденное видеоархивом.

Google Home Advanced (тариф $20/мес) предлагает ежедневные отчеты, но пользователи отметили, что ИИ Gemini for Home порой «вымышляет» события. Например, один из владельцев Nest камер сообщил, что система сообщила о «человеке с черной сумкой и молотком», хотя на деле это были декорации.

Google подчеркивает, что для повышения точности используется функция Familiar Faces, позволяющая фильтровать движения домочадцев. Однако специфика работы ИИ, склонного к «галлюцинациям», сохраняет риски ложных тревог.

Интересно: Как обеспечить баланс между удобством ИИ-аналитики и минимизацией ошибок, когда система может «видеть» угрозы, которых нет?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Как ИИ в умных домах сталкивается с реальностью: баланс между автоматизацией и ошибками

Когда алгоритмы «видят» то, чего нет

Функция Home Brief в Google Home Advanced демонстрирует парадокс современных ИИ-систем: чем больше данных они анализируют, тем больше риск интерпретировать случайные совпадения как значимые события. Пример с декорацией, ошибочно распознанной как человек с молотком, показывает, как алгоритмы могут создавать «цифровые фантомы». Это не только технический сбой — это следствие архитектуры ИИ, которая оптимизирована на скорость обработки, а не на контекст. Например, при распознавании кошки как бурундука система опирается на статистические закономерности в данных, игнорируя логику пространственных отношений (размер, поведение, окружающую среду).

Важный нюанс: Ошибки ИИ в умных домах подчеркивают разрыв между ожиданиями пользователей и реальными возможностями технологий. Пользователи привыкли к идеализированному представлению о «умных» системах, но алгоритмы пока не способны заменить человеческое восприятие в сложных сценариях.

Скрытые риски для бизнеса и доверия

Для российских компаний, внедряющих ИИ-решения в сферу безопасности и умных домов, проблема «галлюцинаций» ИИ может стать критичной. В странах с высоким уровнем киберугроз и зависимостью от видеонаблюдения (например, в банковском или промышленном секторе) ложные тревоги могут привести к:

  • Увеличению затрат на проверку инцидентов, которые не требуют реагирования.
  • Потере доверия к системам мониторинга, особенно если ошибки повторяются.
  • Юридическим рискам, если ИИ будет использоваться для автоматического принятия решений (например, блокировки доступа).

Кроме того, ошибки в распознавании лиц и объектов создают уязвимости для злоумышленников. Например, если система не различает реального человека и его костюм, это может быть использовано для обмана систем контроля доступа.

Важный нюанс: В смежных секторах уже возникают аналогичные проблемы. Например, камеры Ring от Amazon, оснащенные функцией Familiar Faces («Известные лица»), также сталкиваются с вызовами точности распознавания. Хотя эти системы опираются на ИИ, их эффективность зависит от качества данных и контекста. Это подчеркивает, что проблема Google — часть более широкой тенденции в отрасли [!].

Новый подход к обучению ИИ: от статистики к контексту

Текущие ИИ-модели, такие как Gemini for Home, опираются на большие объемы данных, но не умеют учитывать логические связи между событиями. Например, если ИИ видит «человека у детской площадки», он не анализирует, возможно ли, что это родитель с ребенком, или это случайное совпадение. Для улучшения точности необходимы:

  1. Контекстуальные слои в обучении: добавление данных о времени суток, погоде, типичных действиях в конкретном доме.
  2. Механизмы обратной связи от пользователей, которые позволят системе корректировать ошибки в реальном времени.
  3. Гибридные подходы, сочетающие ИИ с традиционной логикой (например, проверка наличия движения в зоне детской площадки перед генерацией уведомления).

Важный нюанс: Доверие к ИИ в критически важных системах невозможно выстроить без прозрачности в работе алгоритмов. Пользователи должны понимать, как принимаются решения, чтобы не доверять «черному ящику» без контроля.

Что дальше: триггеры для изменений

Ключевой триггер для улучшения — массовые жалобы пользователей, которые могут спровоцировать:

  • Ужесточение требований к тестированию ИИ-систем перед запуском.
  • Рост интереса к отечественным решениям, где можно адаптировать модели под локальные сценарии.
  • Развитие стандартов для оценки точности ИИ в условиях «реального мира», где данные не идеальны.

Важный нюанс: В российских компаниях доверие к ИИ пока остается низким. Исследование показывает, что лишь 12% технических директоров готовы использовать ИИ для стратегического планирования. Основные причины — опасения по поводу точности и безопасности данных. Это подчеркивает необходимость не только технических улучшений, но и работы над восстановлением доверия среди пользователей и руководителей [!].

Для российских компаний важно начать работу над контекстуализацией ИИ-алгоритмов, учитывая специфику локальных рынков. Это может стать конкурентным преимуществом в условиях глобальных технологических ограничений.

Коротко о главном

Какие примеры «галлюцинаций» ИИ были зафиксированы?

Система сообщала о человеке с молотком и черной сумкой, тогда как на видео оказались декорации, а также упоминала человека у детской площадки, которого в архиве не было.

Каковы особенности функции Familiar Faces?

Google использует её для фильтрации движений домочадцев, но это не исключает риски ошибок ИИ, так как алгоритм всё равно выдает ложные события.

Какова стоимость сервиса Google Home Advanced?

Подписка на $20 в месяц включает ежедневные отчеты, однако пользователи отмечают, что ИИ порой «вымышляет» происшествия, снижая полезность сервиса.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Устройства и гаджеты; Умный дом

Оценка значимости: 3 из 10

Событие касается зарубежного сервиса с ограниченной популярностью в России, где ошибка ИИ в генерации отчетов затрагивает техническую сферу и вызывает краткосрочные неудобства для пользователей. Поскольку сервис не имеет широкого распространения в стране, а последствия ограничены локальными техническими сбоями без системного влияния, оно не вызывает значительного интереса у российской аудитории.

Материалы по теме

Amazon запустил ИИ-революцию: новые Echo, Ring и Kindle с Alexa+

Упоминание функции Familiar Faces в камерах Ring Amazon служит доказательством того, что проблема неточной работы ИИ в умных домах не уникальна для Google, а является системной для отрасли. Это усиливает аргумент о необходимости пересмотра подходов к обучению ИИ и подчеркивает, что ошибки связаны с архитектурными ограничениями, а не с изолированными сбоями.

Подробнее →
Руководители сомневаются в ИИ: лишь 12% доверяют ему для стратегии

Данные о низком уровне доверия российских технических директоров (12%) к ИИ для стратегического планирования становятся ключевым примером, иллюстрирующим последствия ошибок ИИ — снижение доверия со стороны пользователей и руководства. Это подкрепляет тезис о том, что технические улучшения недостаточны без работы над восстановлением репутации технологий.

Подробнее →