Ноябрь 2025   |   Обзор события   | 7

ИИ в бизнесе: доверие под угрозой из-за неточностей в финансах и праве

Более половины пользователей уже применяют ИИ для поиска информации в интернете, но разница в точности между инструментами достигает 16%, что создаёт риски для корпоративных решений, особенно в финансовой и юридической сферах. Тестирование показало, что даже популярные платформы, такие как ChatGPT и Meta⋆ AI, часто не выявляют ошибки в запросах или предоставляют неточные ссылки, что требует дополнительной проверки информации квалифицированными специалистами.

ИСХОДНЫЙ НАРРАТИВ

По данным Artificialintelligence-News, более половины пользователей уже используют ИИ для поиска информации в интернете. Однако нестабильная точность этих инструментов создаёт новые риски для бизнеса, особенно в сфере юридической ответственности, финансового планирования и корпоративного соблюдения норм.

Риск доверия к ИИ в корпоративной среде

Исследование, проведённое Which, выявило, что треть пользователей в Великобритании считает ИИ более значимым, чем традиционный поиск в интернете. Это может привести к тому, что сотрудники используют такие инструменты для деловых задач, не осознавая их ограничений. По результатам опроса 4189 взрослых жителей страны доверяют получаемой информации. При этом анализ показывает, что это доверие часто неоправданно.

В ходе тестирования шести популярных инструментов — ChatGPT, Google Gemini (включая «AI Overviews»), Microsoft Copilot, Meta⋆ AI, Perplexity были проверены 40 вопросов в области финансов, права и прав потребителей. Perplexity показал лучшие результаты с общим показателем точности 71%, Google Gemini AI Overviews — 70%. Meta⋆ AI оказался на последнем месте с 55%, а ChatGPT — на предпоследнем с 64%. Эти цифры подчёркивают разрыв между популярностью инструментов и их надёжностью.

Специфические риски для финансового и правового блоков

Исследование выявило, что все тестированные инструменты часто дают неточную или неполную информацию. Это особенно критично для финансовых и юридических отделов. Например, при запросе о том, как инвестировать 25 000 фунтов стерлингов в годовой пенсионный счёт, ChatGPT и Copilot не заметили ошибку в запросе, связанную с законодательным лимитом, и дали совет, который может нарушить правила HMRC.

В то же время Google Gemini, Meta⋆ AI и Perplexity смогли обнаружить ошибку. Однако разногласия между платформами показывают, что для любого бизнес-процесса, связанного с ИИ, необходима строгая система проверки с участием человека.

Ещё одна проблема — это обобщение региональных норм. Инструменты часто не различают юридические различия между регионами Великобритании, например, между Шотландией и Англией с Уэльсом. Это может привести к неправильной интерпретации норм и увеличению рисков для компании.

Проблема прозрачности источников

Важной проблемой остаётся отсутствие прозрачности источников информации. Многие инструменты ИИ не указывают точные ссылки или предоставляют ссылки на устаревшие или ненадёжные ресурсы. Например, при запросе о налоговых кодексах ChatGPT и Perplexity направили пользователей на платные компании по возврату налогов, вместо того чтобы рекомендовать бесплатный официальный инструмент HMRC. Это может привести к лишним расходам или сотрудничеству с поставщиками, не соответствующими корпоративным стандартам.

Рекомендации для корпоративного управления

Для минимизации рисков ключевым становится внедрение строгих правил использования ИИ. Специалисты рекомендуют:

  • Формулировать чёткие и конкретные запросы, указывая юрисдикцию и другие важные детали.
  • Требовать проверку источников информации. В сложных случаях рекомендуется использовать несколько инструментов ИИ или вручную проверять данные.
  • Вводить процедуру «второго мнения»: решения, основанные на ИИ, должны быть подтверждены квалифицированными специалистами, особенно в финансовой и юридической сфере.

Поставщики технологий признают ограничения своих инструментов. Microsoft подчеркнула, что Copilot — это синтез информации, а не авторитетный источник. OpenAI заявила, что улучшение точности — это общая задача индустрии, и что GPT-5, её последняя версия, является наиболее точной на данный момент.

Интересно: Какие меры контроля позволят бизнесу использовать ИИ эффективно, не подвергая себя юридическим и финансовым рискам?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Когда ИИ кажется экспертом, но на самом деле — лишь помощником

Искусственный интеллект всё чаще становится частью повседневной работы в компаниях. Он помогает искать информацию, составлять отчёты, анализировать данные. Однако если сотрудники начинают воспринимать ИИ как источник правды, а не как инструмент, это создаёт риск для бизнеса. Особенно в таких ответственных сферах, как финансы и право.

Почему доверие к ИИ может быть обманчивым

Современные ИИ-модели действительно способны давать полезные ответы. Однако они не обладают юридической или финансовой экспертизой. Они не знают, как учитывать местные законы, налоговые нормы или специфику отрасли. Они анализируют данные, на которых были обучены, и пытаются найти соответствующие шаблоны.

Это особенно заметно, когда речь идёт о законодательстве. Например, в Великобритании законодательные нормы в Шотландии отличаются от тех, что действуют в Англии и Уэльсе. Если ИИ не учитывает этот факт, он может дать рекомендацию, которая в одной части страны законна, а в другой — нет. Это может привести к юридическим проблемам, которые сложно предсказать и ещё сложнее исправить.

Важный нюанс: ИИ не заменяет юриста или финансиста — он может стать частью процесса, но не его основой.

Скрытые победители и проигравшие в новой ИИ-реальности

Те, кто внедряет ИИ без должной проверки, рискуют столкнуться с ошибками, которые дорого обойдутся. Особенно в юридической сфере, где неправильная информация может привести к судебным разбирательствам. В то же время компании, которые устанавливают строгие правила использования ИИ, получают преимущество. Они могут быстрее обрабатывать данные, но при этом минимизировать риски.

Среди ИИ-платформ также проявляются различия. Например, Perplexity и Google Gemini показывают более высокую точность в сложных запросах. Это может сделать их более популярными в профессиональной среде. В то же время Meta⋆ AI и ChatGPT пока не могут конкурировать с ними по надёжности. Это создаёт неявное давление на производителей: те, кто не улучшит качество, рискуют потерять рынок.

Важный нюанс: Успех в ИИ-рынке зависит не только от технологий, но и от способности встроиться в рабочие процессы, сохраняя точность и прозрачность.

Угрозы безопасности и утечки данных

Современный браузер стал ключевым элементом рабочих процессов, но при этом остаётся вне контроля корпоративных систем безопасности, становясь основной точкой утечки данных [!]. Более 45% сотрудников используют генеративные ИИ-инструменты, такие как ChatGPT, для обработки информации, включая конфиденциальные данные. Такие инструменты встроены в браузеры и могут автоматически захватывать сессионные данные и куки. Вставка конфиденциальной информации в запросы к ИИ через личные аккаунты или неуправляемые браузеры лишает корпоративные команды безопасности и возможности отслеживать передачу данных.

Уязвимости и атаки на ИИ-модели

Исследователи безопасности из HiddenLayer обнаружили метод, позволяющий обходить защитные механизмы больших языковых моделей, добавляя специальные последовательности символов, которые меняют оценку ввода с вредоносного на безопасный [!]. Например, добавление строки вроде «=coffee» к вредоносному запросу может привести к тому, что модель не сработает должным образом. Это открывает возможность для prompt injection — атаки, при которой ввод пользователя изменяет логику работы модели. GPT-4o, как и другие модели, подвержена таким уязвимостям, если защитные ограничители не обновляются.

Рост интереса к ИИ в России

В России рост интереса к ИИ в бизнесе тоже наблюдается. Однако, как и в других странах, важно не только внедрять ИИ, а понимать его ограничения. Особенно это касается сфер, где требуется соблюдение норм и законов. Например, в сфере налогового планирования или регулирования рынка. Если ИИ-инструменты будут использоваться без контроля, это может привести к нарушениям, которые сложно будет обосновать или оправдать.

Для минимизации рисков ключевым становится внедрение строгих правил использования ИИ. Это включает в себя:

  • чёткую формулировку запросов;
  • обязательную проверку источников;
  • введение процедуры «второго мнения» от квалифицированных сотрудников.

Такой подход позволяет использовать преимущества ИИ, не подвергая бизнес излишним рискам.

Коротко о главном

Каковы результаты тестирования популярных ИИ-инструментов?

В ходе тестирования шести платформ, включая ChatGPT и Google Gemini, Perplexity показал лучший результат с 71% точности, а Meta⋆ AI — худший с 55%, что указывает на разницу в надёжности.

Почему ИИ может быть ненадёжным в финансовых консультациях?

При запросе о вложении 25 000 фунтов в пенсионный счёт ChatGPT и Microsoft Copilot не учли законодательные ограничения, что могло привести к нарушению правил HMRC.

Почему ИИ сталкивается с проблемой региональных норм?

Тесты показали, что инструменты не различают юридические различия между регионами Великобритании, например, между Англией и Шотландией, что может привести к неправильной интерпретации норм.

Почему отсутствие прозрачности источников опасно для бизнеса?

Некоторые ИИ-инструменты, включая ChatGPT, направляют пользователей на платные или ненадёжные источники, вместо официальных, что может вызвать дополнительные расходы или нарушение корпоративных стандартов.

Какие меры предложены для снижения рисков при использовании ИИ?

Рекомендуется формулировать чёткие запросы, проверять источники, использовать несколько ИИ-инструментов и подтверждать решения квалифицированными специалистами, особенно в юридической и финансовой сфере.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Право и регулирование; Цифровизация и технологии; Финансы

Оценка значимости: 7 из 10

Событие имеет национальный масштаб, так как затрагивает ключевые аспекты цифровой трансформации и доверия к ИИ, что особенно важно для России, активно внедряющей искусственный интеллект в экономику и государственные структуры. Воздействие среднесрочное, поскольку речь идёт о формировании норм использования ИИ в бизнесе и регулировании рисков. Сферы влияния — 3–4 (экономика, право, технологии, корпоративное управление), а глубина последствий значительна, поскольку неверная информация может привести к юридическим и финансовым последствиям. Усиливает значимость прямая связь с Россией, где аналогичные риски уже обсуждаются в контексте цифровой безопасности и регулирования ИИ.

Материалы по теме

Браузер стал главной точкой утечки данных в корпорациях

Упоминание утечки данных через браузерные ИИ-инструменты, такие как ChatGPT, используется для иллюстрации рисков кибербезопасности, связанных с внедрением ИИ в корпоративные процессы. Данные подчеркивают, что сотрудники вводят конфиденциальную информацию в ИИ-инструменты, что делает браузеры уязвимыми и угрожает корпоративной безопасности.

Подробнее →
Как обманывают защиту ИИ: уязвимости в ограничителях больших языковых моделей

Уязвимость GPT-4o, обнаруженная исследователями HiddenLayer, используется для демонстрации ограниченности защитных механизмов ИИ-моделей. Пример с добавлением строки «=coffee» показывает, как легко можно обойти ограничения, что усиливает аргумент о необходимости строгого контроля и обновления ИИ-систем.

Подробнее →
Mozilla внедряет AI-поиск в Firefox: конфиденциальность без компромиссов

Интеграция Perplexity в Firefox используется как пример того, как ИИ меняет традиционные способы взаимодействия с информацией. Это подкрепляет идею о том, что ИИ становится частью повседневной работы, но также подчеркивает важность сохранения конфиденциальности и независимости от крупных поставщиков.

Подробнее →
AWS растёт на 20%: ИИ тянет рынок облачных вычислений вверх

Сотрудничество AWS с Perplexity используется для подтверждения растущей популярности и надежности платформы в профессиональной среде. Это служит аргументом в сравнении различных ИИ-платформ и показывает, как технологии встраиваются в корпоративные процессы.

Подробнее →
AI-стартапы выросли в $1 триллион — идут ли они в пузырь?

Резкий рост капитализации Perplexity используется как доказательство её значимости и растущего влияния в ИИ-рынке. Это усиливает утверждение о том, что успех в этой сфере зависит не только от технологий, но и от интеграции в рабочие процессы.

Подробнее →
Галлюцинации ИИ — неизбежная реальность: что делать бизнесу

Галлюцинации Meta⋆ AI, вызванные фундаментальными математическими ограничениями, используются для подкрепления аргумента о том, что ИИ не может заменить профессиональную экспертизу. Это подчеркивает необходимость человеческого контроля и проверки выводов ИИ-моделей.

Подробнее →
ИИ-агенты: как революционные помощники меняют обработку данных в бизнесе и госуправлении

Применение ИИ-агентов в автоматизации корпоративных процессов используется для иллюстрации их потенциала в бизнесе. Это поддерживает идею о том, что ИИ может быть эффективным инструментом, если правильно внедрён и контролируется.

Подробнее →
ИИ стал оружием кибератак: как платформы вредоносных атак влияют на безопасность

Использование Claude в кибератаках демонстрирует, как даже надёжные ИИ-платформы могут быть злоупотреблены. Это усиливает аргумент о необходимости строгого регулирования и контроля за применением ИИ, особенно в критически важных секторах.

Подробнее →
Microsoft завершила поддержку Windows 10: 400 млн пользователей получают AI-ассистента Copilot

Интеграция Copilot в Windows 11 используется для показа, как ИИ встраивается в повседневные рабочие процессы. Это поддерживает утверждение о трансформации AI-продуктов в повседневные инструменты, но также подчеркивает разрыв между пользователями, переходящими на новые системы, и теми, кто остаётся на устаревших.

Подробнее →
Российские инвесторы доверяют ИИ, но не готовы ему полностью передать контроль

Опрос российских инвесторов о доверии к ИИ подтверждает ключевую идею текста: ИИ — помощник, но не эксперт. Это усиливает рекомендацию о необходимости человеческого контроля и второго мнения, особенно в ответственных сферах, таких как финансы.

Подробнее →
⋆ Данная организация или продукт включены в список экстремистских в соответствии с решением суда, вступившим в законную силу. Деятельность запрещена на территории Российской Федерации на основании Федерального закона от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».