Октябрь 2025   |   Обзор события   | 6

Голосовой ИИ: автоматизация и борьба с ошибками и мошенничеством

Представители Twilio и Zoom отметили прогресс в голосовых ИИ-системах, включая снижение задержек и улучшение взаимодействия в сфере здравоохранения. Однако сети ресторанов отказались от этой технологии из-за ошибок в интерпретации заказов, а специалисты подчеркнули необходимость внедрения систем безопасности для предотвращения мошенничества.

ИСХОДНЫЙ НАРРАТИВ

По данным конференции Goldman Sachs Communacopia + Technology, представители компаний Twilio и Zoom отметили значительный прогресс в развитии голосовых ИИ-систем. Руководитель Twilio Кхохема Шипчандлер подчеркнула, что клиенты предпочитают взаимодействовать с виртуальными агентами, особенно в сфере здравоохранения, где снижается риск несоответствия знаний между участниками диалога. «Недостатки вроде пауз при взаимодействии с человеком исчезают при использовании ИИ», — отметила она.

Прогресс и оставшиеся сложности

Одной из ключевых задач оставалось устранение задержек в реакции голосовых систем. По словам Шипчандлера, этот показатель приближается к оптимальному уровню. Однако реальные эксперименты показали противоречивые результаты: сети ресторанов, такие как Taco Bell и McDonald’s, отказались от использования голосового ИИ в драйв-турах из-за ошибок в интерпретации заказов.

Аналитик Джек Голд из J. Gold Associates указал на сложность внедрения технологии: «Даже в одном языке, например английском, существует огромное количество вариаций акцентов и значений слов». При этом он признал преимущества голосового взаимодействия, особенно для категорий пользователей, испытывающих трудности с текстовым вводом. В сфере доставки еды 35% заказов всё ещё поступают по телефону, где ИИ может повысить эффективность.

Безопасность и будущее

Руководитель Zoom Эрик Юань отметил рост интереса к голосовому ИИ, отмечая, что пользователи всё чаще используют голосовые команды вместо текстовых запросов. Однако Шипчандлер предупредила о рисках голосового спуфинга. «Необходимо внедрять системы идентификации голоса и верификации на этапе взаимодействия, чтобы исключить мошенничество», — сказала она.

Zoom, в свою очередь, сотрудничает с главными специалистами по информационной безопасности и публикует исследования по внедрению ИИ. По оценке Голда, развитие технологии продолжится: «С улучшением входных данных модели ошибки будут сокращаться, что ускорит внедрение решений».

Интересно: Как сочетание прогресса в голосовых системах и рисков безопасности повлияет на выбор пользователей между текстовым и голосовым взаимодействием в ближайшие годы?

АНАЛИТИЧЕСКИЙ РАЗБОР

Голосовой ИИ: между автоматизацией и человеческим фактором

Автоматизация и человеческий фактор

Внедрение голосовых ИИ-систем в сферы здравоохранения и доставки еды демонстрирует стремление компаний к снижению затрат и улучшению пользовательского опыта. Однако ключевая проблема — несовершенство алгоритмов в реальных условиях. Примеры отказа ресторанов, таких как Taco Bell и McDonald’s, от голосового ИИ из-за ошибок интерпретации заказов показывают, что технические достижения не всегда синхронизируются с практической применимостью.

Основная цель компаний — масштабировать автоматизацию, но их ограничения связаны с разнообразием акцентов, диалектов и контекстуальных нюансов. Например, в английском языке, по данным Джека Голда, существует десятки вариаций произношения, что требует адаптации моделей под конкретные регионы. Это делает внедрение ИИ в многогородских сетях особенно сложным.

Безопасность как новый барьер

Рост популярности голосовых команд, как отмечает Zoom, сопровождается ростом рисков мошенничества. Голосовой спуфинг — технология, позволяющая подделать голос пользователя, — становится уязвимостью, которую нельзя игнорировать. Шипчандлер подчеркивает необходимость внедрения систем биометрической верификации уже на этапе взаимодействия.

Решение этой проблемы требует инвестиций в разработку специализированных алгоритмов и интеграции с существующими системами. Для компаний, которые уже внедрили голосовые ИИ, это создает дополнительные издержки, но игнорирование рисков может привести к утрате доверия клиентов.

Новые угрозы и защитные меры

Недавние исследования выявили дополнительные векторы атак на ИИ-системы. Например, веб-сайты могут манипулировать автономными ИИ-агентами, отправляя им скрытые команды, недоступные для обычных пользователей. Это позволяет злоумышленникам извлекать конфиденциальную информацию или устанавливать вредоносное ПО [!].

Для противодействия таким угрозам эксперты рекомендуют:

  • Маскировку цифрового «отпечатка» ИИ-агентов.
  • Разделение функций агентов на безопасные и критически важные.
  • Внедрение сканеров для обнаружения скрытых угроз.

Российские особенности внедрения

В России внедрение голосовых ИИ-систем столкнется с уникальными вызовами. Многогородность, разнообразие языков (включая диалекты и региональные особенности) и высокая доля пользователей, предпочитающих текстовый ввод, требуют адаптации технологий. Например, в сфере доставки еды, где 35% заказов по-прежнему оформляются по телефону, переход на голосовые системы может быть ограничен в регионах с низкой цифровой грамотностью.

Для российских компаний ключевым триггером станет баланс между инвестициями в ИИ и возвратом от автоматизации. Особенно это актуально для отраслей, где ошибки в интерпретации заказов или диагнозов могут привести к юридическим последствиям.

Стандарты безопасности как инструмент

ФСТЭК планирует к концу 2025 года представить проект стандарта по безопасной разработке систем искусственного интеллекта. Документ будет учитывать уязвимости, специфичные для ИИ, и станет дополнением к общим стандартам безопасности ПО. Стандарт поможет компаниям обеспечивать безопасность на всех этапах работы с данными — от сбора до хранения и разметки [!].

Внедрение таких стандартов особенно важно в свете недавних инцидентов, таких как уязвимость чат-бота Lenovo, которая позволила злоумышленникам красть данные сотрудников [!]. Это подчеркивает необходимость комплексного подхода к защите ИИ-систем, включая как технические, так и организационные меры.

Ключевая парадоксальность: Снижение задержек в реакции ИИ и повышение точности алгоритмов не гарантируют автоматического роста доверия пользователей. Наоборот, ожидания, созданные рекламой, могут привести к разочарованию, если система не справится с «непрограммируемыми» случаями, например, с эмоциональными запросами в здравоохранении.

Коротко о главном

Почему сети ресторанов отказались от голосового ИИ в драйв-турах?

Taco Bell и McDonald’s прекратили использование технологии из-за ошибок в интерпретации заказов, несмотря на улучшения в скорости реакции систем.

Почему 35% заказов в доставке еды всё ещё поступают по телефону?

По данным Джека Голда, это связано с оставшимися сложностями в адаптации ИИ к разнообразию акцентов и значений слов, что снижает точность голосовых систем.

Почему Шипчандлер предупредила о рисках голосового спуфинга?

Она отметила необходимость внедрения систем идентификации голоса на этапе взаимодействия, чтобы предотвратить мошенничество при переходе пользователей к голосовым командам.

Почему Zoom сотрудничает с экспертами по информационной безопасности?

Компания публикует исследования по внедрению ИИ, чтобы укрепить безопасность голосовых систем и снизить риски, связанные с подделкой голоса.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность

Оценка значимости: 6 из 10

Событие связано с развитием голосовых ИИ-систем, затрагивающих сферы здравоохранения, доставки еды и информационной безопасности. Хотя технология зарубежная, её прогресс и вызовы (например, улучшение реакции систем или защита от мошенничества) могут косвенно влиять на российские компании, внедряющие подобные решения. Воздействие среднесрочное, но не системное, что ограничивает глубину последствий.

Материалы по теме

Новый способ атаки: веб-сайты манипулируют ИИ-агентами

Метод атаки веб-сайтов на ИИ-агентов через скрытые команды стал ключевым примером уязвимости, подчеркивающим необходимость маскировки цифрового «отпечатка» и разделения функций агентов. Эти данные усиливают аргумент о росте киберугроз и необходимость инвестиций в защиту, поскольку демонстрируют конкретный вектор атаки, уже реализованный на практике.

Подробнее →
ФСТЭК разрабатывает стандарт безопасности для ИИ до 2025 года

Проект стандарта ФСТЭК по безопасной разработке ИИ до 2025 года служит примером системного подхода к снижению рисков, упомянутого в тексте. Он конкретизирует идею о необходимости регулятивных мер, подчеркивая, что безопасность должна охватывать все этапы работы с данными — от сбора до хранения.

Подробнее →
Уязвимость чат-бота Lenovo: как хакеры украли данные сотрудников

Инцидент с уязвимостью чат-бота Lenovo, позволивший кражу данных сотрудников, становится реальным кейсом для аргументации важности комплексной защиты ИИ-систем. Этот пример иллюстрирует последствия недостаточной безопасности и усиливает тезис о том, что игнорирование рисков может привести к утрате доверия клиентов.

Подробнее →