Google запускает ИИ для борьбы с мошенниками
Google внедряет систему на основе искусственного интеллекта для выявления мошеннических сообщений и голосовых звонков в приложении Messages, которая анализирует текст и речь локально на устройстве и предупреждает пользователей о подозрительных контактах. В рамках этой функции данные о спаме отправляются в базы Google и операторов, а алгоритмы разрабатываются при участии банковских организаций.
Компания Google представила новую систему, которая использует искусственный интеллект для выявления попыток мошенничества в переписке и голосовых звонках. Нововведение направлено на защиту пользователей устройств на платформе Android от фишинга и психологических манипуляций, часто применяемых злоумышленниками.
Как работает система
Google Messages получит функцию, которая анализирует текстовые сообщения и голосовые диалоги на наличие признаков мошенничества. Обработка информации происходит локально — непосредственно на устройстве пользователя, что обеспечивает конфиденциальность данных. Если система обнаруживает подозрительные элементы, она отправляет пользователю предупреждение.
В случае, если пользователь помечает сообщение как спам, данные отправителя и последняя часть переписки отправляются в базы Google и телекоммуникационных операторов. Это позволяет улучшать алгоритмы распознавания и повышать уровень защиты для других пользователей.
Сотрудничество с финансовыми учреждениями
Разработка алгоритмов для выявления мошенничества проводилась при участии федеральных банковских и финансовых организаций, чьи эксперты обладают глубокими знаниями о тактиках злоумышленников. На основе этой информации были обучены модели ИИ, способные распознавать характерные фразы и поведение, часто встречающиеся в мошеннических сценариях.
Распознавание голосового мошенничества
Помимо текстовых сообщений, новая система будет также анализировать голосовые звонки. Анализ происходит в режиме реального времени, без записи аудио. Если искусственный интеллект обнаруживает признаки манипуляций, устройство начинает сигнализировать об этом с помощью визуальных и звуковых оповещений.
Тестирование и масштабирование
Бета-версия функции голосового распознавания была запущена в конце 2024 года для ограниченной группы пользователей смартфонов Google Pixel. Для устройств Pixel 9 применялась модель Gemini Nano, а для более ранних версий — сжатая версия той же модели. В ближайшее время функционал будет распространён на все версии смартфонов Pixel, начиная с Pixel 9.
Влияние на пользователей
По оценкам Google, в 2024 году злоумышленники, используя генеративный ИИ и другие продвинутые методы, похитили у пользователей мобильных устройств свыше одного триллиона долларов. Большая часть атак была связана с текстовой и голосовой коммуникацией.
Анастасия Мельникова (Anastasia Melnikova), директор по информационной безопасности компании SEQ, отметила, что идея внедрения ИИ для выявления мошенничества является актуальной. Эксперт подчеркнула важность своевременного оповещения, которое может помочь пользователям избежать психологического давления со стороны злоумышленников.
Важным остаётся вопрос эффективности локальных моделей ИИ — их способности распознавать сложные уловки, характерные для современных мошенников.
География внедрения
На начальном этапе новая система будет доступна для жителей США, Великобритании и Канады. В дальнейшем, как заявила компания, её планируется расширить на другие регионы.
Сравнение масштаба ущерба
| Год | Объем ущерба от мошенничества (в долларах) |
|---|---|
| 2024 | 1 триллион+ |
Таблица наглядно демонстрирует масштаб проблемы, которая, по мнению экспертов, требует масштабного ответа со стороны технологических компаний.
Когда ИИ становится защитником: как алгоритмы борются с цифровыми мошенниками
В условиях роста цифровой активности и увеличения угроз в сфере кибербезопасности, Google запустила инновационную систему распознавания мошенничества. Работающий локально, искусственный интеллект анализирует текстовые и голосовые диалоги, чтобы предупредить пользователей о возможной угрозе. Это не просто шаг в сторону улучшения пользовательского опыта, а попытка сформировать новую систему защиты, где данные остаются у пользователя, а угрозы — вне доступа злоумышленников. Особенно важно, что технология уже проходит тестирование и в ближайшее время будет масштабирована на более широкую аудиторию.
Скрытые мотивы и системные последствия: за кем стоит ИИ?
Технологии, которые выступают защитниками, на самом деле формируют новую экосистему контроля и ответственности. Google сотрудничает с финансовыми организациями, чтобы обучить алгоритмы распознавать тактику мошенников — это не просто защита, а попытка создать единый стандарт безопасности, где данные, отмеченные как спам, становятся частью общей базы. Такой подход позволяет улучшать алгоритмы, но при этом формирует централизованную систему, где пользователь теряет контроль над тем, что считается подозрительным.
В России, где киберпреступность также становится одной из главных угроз, подобные технологии могут стать частью национальной стратегии безопасности. Однако важно понимать, что локальная обработка данных — это не только защита приватности, но и сложный баланс между эффективностью и риском утечек. Если система будет внедрена в российских приложениях, то её успех во многом зависит от того, насколько она сможет адаптироваться к местной специфике и сохранить самостоятельность пользователя.
Парадоксы и неочевидные последствия: когда защита становится угрозой
Одним из парадоксов новой системы является то, что она может как спасти, так и ввести пользователей в ложное чувство безопасности. Если ИИ ошибается, он может пропустить реальную угрозу или, наоборот, помечать корректные сообщения как спам. Это создаёт риск дезориентации, особенно среди менее цифровой грамотной аудитории. В России, где цифровизация идёт быстрыми темпами, но уровень доверия к цифровым технологиям не всегда высок, такие ошибки могут сыграть роковую роль.
Кроме того, если функционал станет частью обязательной системы, он может быть использован и в других целях — например, для мониторинга коммуникаций. Это не значит, что так будет, но технологическая сила всегда двойственна. Важно, чтобы её применение было прозрачным и строго регулируемым.
Уроки для будущего: как защитить себя в эпоху ИИ
Нововведение Google демонстрирует, что борьба с киберпреступностью требует не только технологических решений, но и повышения цифровой грамотности. Пользователь, который понимает, как работает ИИ и какие у него ограничения, гораздо лучше защищён, чем тот, кто слепо доверяет предупреждениям.
В долгосрочной перспективе, если подобные системы будут развиваться, они могут стать частью национального цифрового иммунитета. Но для этого необходимо:
- Контролировать источники данных, на которых обучаются алгоритмы;
- Гарантировать прозрачность в работе ИИ;
- Поддерживать самостоятельность пользователей в принятии решений.
Таким образом, защита от мошенничества — это не только техническая задача, но и вопрос доверия, управления и ответственности.
Источник: CNews