Скрытый ИИ в компаниях: риски и как их обнаружить
Более 89% использования искусственного интеллекта в организациях остаётся вне контроля ИТ- и безопасностных команд, поскольку сотрудники применяют личные аккаунты или несанкционированные сервисы, что создаёт риски для конфиденциальности и соблюдения норм. Компания Lanai разработала платформу, которая позволяет в реальном времени отслеживать ИИ-активность на уровне устройства, помогая организациям оценить риски и управлять использованием технологий без полного запрета.
Более 89% использования искусственного интеллекта (ИИ) в организациях остаётся вне поля зрения ИТ- и безопасностных команд. Эксперты из компании Lanai отмечают, что это создаёт риски в области конфиденциальности данных, соблюдения норм и управления. С увеличением встроенных возможностей ИИ в повседневные бизнес-инструменты, такие как Salesforce, Microsoft Office и Google Workspace, становится сложнее отслеживать, как сотрудники применяют эти технологии. Часто они используют личные аккаунты ИИ или несанкционированные сервисы, что затрудняет мониторинг.
Примеры скрытого применения ИИ
В сфере здравоохранения ИИ применяется для суммирования информации о пациентах, что вызывает опасения по поводу соблюдения норм HIPAA. В финансовой отрасли, при подготовке к проведению IPO, конфиденциальные данные могли случайно переноситься в личные аккаунты, такие как ChatGPT. Компании по страхованию используют встроенные ИИ-функции для сегментирования клиентов, что может нарушать антидискриминационные правила.
Одним из неожиданных случаев стало использование встроенных ИИ-инструментов в утверждённых приложениях. Например, команда по продажам обнаружила, что загрузка данных о почтовых индексах в Salesforce Einstein повышает конверсию. Однако это решение противоречит правилам о запрете дискриминационного ценообразования.
Как работает платформа Lanai
Для решения проблемы Lanai запустила платформу, основанную на наблюдении за ИИ на уровне устройства. Программное обеспечение устанавливается непосредственно на устройства сотрудников и позволяет в реальном времени обнаруживать ИИ-активность без отправки данных в центральные серверы. Это решение требует решения сложных технических задач: модель ИИ должна быть достаточно лёгкой, чтобы не влиять на производительность, но при этом способной распознавать взаимодействия с ИИ, а не только имена приложений.
Платформа Lanai способна развертываться менее чем за 24 часа через стандартные системы управления мобильными устройствами. После внедрения она помогает организациям оценить их ИИ-нагрузку и разработать политики для управления использованием.
Управление рисками вместо блокировки
Компания подчеркивает, что её цель — не запретить использование ИИ, а предоставить руководству информацию для принятия обоснованных решений. Организации могут оценить риски и определить, какие инструменты утверждать или ограничивать. В регулируемых отраслях, таких как здравоохранение, необходимо учитывать не только используемые приложения, но и рабочие процессы.
Например, в крупной больничной сети врачи использовали встроенную ИИ-функцию для автоматического составления резюме визитов пациентов. Хотя это было сделано в рамках утверждённого программного обеспечения, процесс включал передачу конфиденциальной информации в модель ИИ, которая не входила в соглашение HIPAA. Lanai может определить такие риски, анализируя конкретные паттерны запросов и данных.
Эффективность внедрения
Организации, внедрившие платформу Lanai, отмечают значительное снижение инцидентов, связанных с ИИ. В одной из больничных систем число случаев утечки данных снизилось на 80% в течение двух месяцев. Это произошло не из-за прекращения использования ИИ, а благодаря получению видимости и возможности перенаправления небезопасных процессов.
Аналогичные результаты наблюдаются в финансовой сфере, где использование несанкционированных ИИ-инструментов для анализа конфиденциальных данных снизилось на 70% за квартал. В некоторых случаях такие инструменты закрываются, в других — их функционал интегрируется в безопасную среду.
## Когда ИИ работает в тени: скрытые риски и новые правила игры
Современный бизнес всё чаще сталкивается с парадоксом: искусственный интеллект становится повседневным инструментом, но его использование остаётся вне контроля даже у самых продвинутых ИТ-отделов. Это не просто техническая проблема — это сдвиг в логике управления цифровыми рисками. Когда более 89% всех ИИ-действий остаются скрытыми, это создаёт новое поколение угроз для конфиденциальности данных, соблюдения норм и внутренней политики. Особенно остро эти вопросы стоят для регулируемых отраслей, где нарушение правил может обернуться финансовыми санкциями или потерей доверия.
## Скрытые мотивы: эффективность против безопасности
Сотрудники, использующие личные ИИ-сервисы, чаще всего стремятся повысить производительность. Например, врачи автоматизируют запись визитов, страховые компании — сегментируют клиентов. Но эти действия происходят вне видимости ИТ-департаментов, потому что встроенные ИИ-функции в популярных инструмах вроде Google Workspace или Salesforce не оставляют следов. Это создаёт системный риск: даже утверждённые приложения могут использоваться для небезопасных задач, не нарушая формальных правил, но нарушая дух их соблюдения.
Платформы вроде Lanai пытаются решить эту проблему, предлагая новый подход: мониторинг ИИ-активности на уровне устройства. В отличие от традиционных систем, которые фокусируются на приложениях, Lanai отслеживает, как именно пользователь взаимодействует с ИИ. Это позволяет выявлять не только нарушения, но и непреднамеренные риски, такие как передача медицинских данных в модель ИИ, которая не соответствует стандартам HIPAA.
## Неочевидные последствия: когда безопасность становится стратегией
Внедрение таких решений не просто снижает число инцидентов — оно меняет логику управления цифровыми рисками. Вместо того чтобы блокировать инструменты, компании начинают понимать, как безопасно использовать ИИ, и как интегрировать его в существующие процессы. Например, в одной из больничных систем число утечек данных сократилось на 80% за два месяца, не потому что ИИ был запрещён, а потому что стало возможным перенаправлять небезопасные процессы в контролируемую среду.
Это демонстрирует важную тенденцию: цифровая безопасность становится не барьером, а стратегическим ресурсом. Организации, которые умело управляют ИИ-использованием, получают не только защиту данных, но и гибкость в применении технологий, что особенно важно в условиях высокой конкуренции и регулирования.
## Вывод: ИИ как новый элемент корпоративной культуры
Текущая ситуация демонстрирует, что ИИ не только техническая инновация, но и вызов для корпоративной культуры. Чтобы использовать его эффективно, компаниям необходимо перейти от пассивного наблюдения к активному управлению. Это требует не только новых технологий, но и новых подходов к обучению сотрудников, политике и коммуникации.
Для России, где рост цифровых технологий в бизнесе и государстве ускоряется, этот опыт особенно значим. Он показывает, что управление ИИ-использованием — это не вопрос ограничений, а вопрос видимости и адаптации. Чем раньше компании начнут формировать свои ИИ-политики, тем больше шансов, что они не только избежат рисков, но и захватят новые возможности, которые ИИ открывает.