ИИ в бизнесе: доверие под угрозой из-за неточностей в финансах и праве
Более половины пользователей уже применяют ИИ для поиска информации в интернете, но разница в точности между инструментами достигает 16%, что создаёт риски для корпоративных решений, особенно в финансовой и юридической сферах. Тестирование показало, что даже популярные платформы, такие как ChatGPT и Meta⋆ AI, часто не выявляют ошибки в запросах или предоставляют неточные ссылки, что требует дополнительной проверки информации квалифицированными специалистами.
По данным Artificialintelligence-News, более половины пользователей уже используют ИИ для поиска информации в интернете. Однако нестабильная точность этих инструментов создаёт новые риски для бизнеса, особенно в сфере юридической ответственности, финансового планирования и корпоративного соблюдения норм.
Риск доверия к ИИ в корпоративной среде
Исследование, проведённое Which, выявило, что треть пользователей в Великобритании считает ИИ более значимым, чем традиционный поиск в интернете. Это может привести к тому, что сотрудники используют такие инструменты для деловых задач, не осознавая их ограничений. По результатам опроса 4189 взрослых жителей страны доверяют получаемой информации. При этом анализ показывает, что это доверие часто неоправданно.
В ходе тестирования шести популярных инструментов — ChatGPT, Google Gemini (включая «AI Overviews»), Microsoft Copilot, Meta⋆ AI, Perplexity были проверены 40 вопросов в области финансов, права и прав потребителей. Perplexity показал лучшие результаты с общим показателем точности 71%, Google Gemini AI Overviews — 70%. Meta⋆ AI оказался на последнем месте с 55%, а ChatGPT — на предпоследнем с 64%. Эти цифры подчёркивают разрыв между популярностью инструментов и их надёжностью.
Специфические риски для финансового и правового блоков
Исследование выявило, что все тестированные инструменты часто дают неточную или неполную информацию. Это особенно критично для финансовых и юридических отделов. Например, при запросе о том, как инвестировать 25 000 фунтов стерлингов в годовой пенсионный счёт, ChatGPT и Copilot не заметили ошибку в запросе, связанную с законодательным лимитом, и дали совет, который может нарушить правила HMRC.
В то же время Google Gemini, Meta⋆ AI и Perplexity смогли обнаружить ошибку. Однако разногласия между платформами показывают, что для любого бизнес-процесса, связанного с ИИ, необходима строгая система проверки с участием человека.
Ещё одна проблема — это обобщение региональных норм. Инструменты часто не различают юридические различия между регионами Великобритании, например, между Шотландией и Англией с Уэльсом. Это может привести к неправильной интерпретации норм и увеличению рисков для компании.
Проблема прозрачности источников
Важной проблемой остаётся отсутствие прозрачности источников информации. Многие инструменты ИИ не указывают точные ссылки или предоставляют ссылки на устаревшие или ненадёжные ресурсы. Например, при запросе о налоговых кодексах ChatGPT и Perplexity направили пользователей на платные компании по возврату налогов, вместо того чтобы рекомендовать бесплатный официальный инструмент HMRC. Это может привести к лишним расходам или сотрудничеству с поставщиками, не соответствующими корпоративным стандартам.
Рекомендации для корпоративного управления
Для минимизации рисков ключевым становится внедрение строгих правил использования ИИ. Специалисты рекомендуют:
- Формулировать чёткие и конкретные запросы, указывая юрисдикцию и другие важные детали.
- Требовать проверку источников информации. В сложных случаях рекомендуется использовать несколько инструментов ИИ или вручную проверять данные.
- Вводить процедуру «второго мнения»: решения, основанные на ИИ, должны быть подтверждены квалифицированными специалистами, особенно в финансовой и юридической сфере.
Поставщики технологий признают ограничения своих инструментов. Microsoft подчеркнула, что Copilot — это синтез информации, а не авторитетный источник. OpenAI заявила, что улучшение точности — это общая задача индустрии, и что GPT-5, её последняя версия, является наиболее точной на данный момент.
Интересно: Какие меры контроля позволят бизнесу использовать ИИ эффективно, не подвергая себя юридическим и финансовым рискам?

Когда ИИ кажется экспертом, но на самом деле — лишь помощником
Искусственный интеллект всё чаще становится частью повседневной работы в компаниях. Он помогает искать информацию, составлять отчёты, анализировать данные. Однако если сотрудники начинают воспринимать ИИ как источник правды, а не как инструмент, это создаёт риск для бизнеса. Особенно в таких ответственных сферах, как финансы и право.
Почему доверие к ИИ может быть обманчивым
Современные ИИ-модели действительно способны давать полезные ответы. Однако они не обладают юридической или финансовой экспертизой. Они не знают, как учитывать местные законы, налоговые нормы или специфику отрасли. Они анализируют данные, на которых были обучены, и пытаются найти соответствующие шаблоны.
Это особенно заметно, когда речь идёт о законодательстве. Например, в Великобритании законодательные нормы в Шотландии отличаются от тех, что действуют в Англии и Уэльсе. Если ИИ не учитывает этот факт, он может дать рекомендацию, которая в одной части страны законна, а в другой — нет. Это может привести к юридическим проблемам, которые сложно предсказать и ещё сложнее исправить.
Важный нюанс: ИИ не заменяет юриста или финансиста — он может стать частью процесса, но не его основой.
Скрытые победители и проигравшие в новой ИИ-реальности
Те, кто внедряет ИИ без должной проверки, рискуют столкнуться с ошибками, которые дорого обойдутся. Особенно в юридической сфере, где неправильная информация может привести к судебным разбирательствам. В то же время компании, которые устанавливают строгие правила использования ИИ, получают преимущество. Они могут быстрее обрабатывать данные, но при этом минимизировать риски.
Среди ИИ-платформ также проявляются различия. Например, Perplexity и Google Gemini показывают более высокую точность в сложных запросах. Это может сделать их более популярными в профессиональной среде. В то же время Meta⋆ AI и ChatGPT пока не могут конкурировать с ними по надёжности. Это создаёт неявное давление на производителей: те, кто не улучшит качество, рискуют потерять рынок.
Важный нюанс: Успех в ИИ-рынке зависит не только от технологий, но и от способности встроиться в рабочие процессы, сохраняя точность и прозрачность.
Угрозы безопасности и утечки данных
Современный браузер стал ключевым элементом рабочих процессов, но при этом остаётся вне контроля корпоративных систем безопасности, становясь основной точкой утечки данных [!]. Более 45% сотрудников используют генеративные ИИ-инструменты, такие как ChatGPT, для обработки информации, включая конфиденциальные данные. Такие инструменты встроены в браузеры и могут автоматически захватывать сессионные данные и куки. Вставка конфиденциальной информации в запросы к ИИ через личные аккаунты или неуправляемые браузеры лишает корпоративные команды безопасности и возможности отслеживать передачу данных.
Уязвимости и атаки на ИИ-модели
Исследователи безопасности из HiddenLayer обнаружили метод, позволяющий обходить защитные механизмы больших языковых моделей, добавляя специальные последовательности символов, которые меняют оценку ввода с вредоносного на безопасный [!]. Например, добавление строки вроде «=coffee» к вредоносному запросу может привести к тому, что модель не сработает должным образом. Это открывает возможность для prompt injection — атаки, при которой ввод пользователя изменяет логику работы модели. GPT-4o, как и другие модели, подвержена таким уязвимостям, если защитные ограничители не обновляются.
Рост интереса к ИИ в России
В России рост интереса к ИИ в бизнесе тоже наблюдается. Однако, как и в других странах, важно не только внедрять ИИ, а понимать его ограничения. Особенно это касается сфер, где требуется соблюдение норм и законов. Например, в сфере налогового планирования или регулирования рынка. Если ИИ-инструменты будут использоваться без контроля, это может привести к нарушениям, которые сложно будет обосновать или оправдать.
Для минимизации рисков ключевым становится внедрение строгих правил использования ИИ. Это включает в себя:
- чёткую формулировку запросов;
- обязательную проверку источников;
- введение процедуры «второго мнения» от квалифицированных сотрудников.
Такой подход позволяет использовать преимущества ИИ, не подвергая бизнес излишним рискам.
Источник: AINews