Январь 2026   |   Обзор события   | 7

Доверие к ИИ рушится: почему автоматизация не приносит прибыли

Растущее количество компаний сталкивается с проблемой недоверия к ИИ-системам, несмотря на их техническое совершенство, что снижает эффективность внедрения. Пилотные проекты часто не приносят ожидаемой пользы из-за несоответствия задачам бизнеса и отсутствия понимания, кто несёт ответственность за решения, принимаемые искусственным интеллектом.

ИСХОДНЫЙ НАРРАТИВ

По данным Artificialintelligence-News, растущее количество компаний сталкивается с проблемой недостаточной доверенности к системам искусственного интеллекта, несмотря на их техническую компетентность. Это явление наблюдается в различных отраслях и вынуждает пересмотреть подходы к внедрению ИИ.

Снижение эффективности пилотных проектов

Согласно отчёту MLQ State of AI in Business 2025, 95% ранних пилотных проектов с искусственным интеллектом не приносят измеримой прибыли. Причина не в слабости технологии, а в её несоответствии реальным задачам бизнеса. В ряде случаев руководители сталкиваются с неуверенностью в правильности решений, принимаемых ИИ, а сотрудники — с непониманием, насколько можно доверять данным, отображаемым на панелях. Потребители, в свою очередь, терпят неудобства, когда взаимодействие кажется автоматизированным, а не поддерживаемым.

Это создаёт риск потери доверия как внутри, так и вне организации. Особенно ярко это проявляется, когда автоматизированная система блокирует доступ к банковскому аккаунту, несмотря на правильные ответы пользователя. В таких ситуациях уверенность в технологии быстро исчезает.

Примеры масштабной автоматизации

Одним из наиболее известных примеров внедрения автоматизации является Klarna. С 2022 года компания сократила штат почти наполовину, заявив, что внутренние ИИ-системы заменяют работу 853 сотрудников. Рост выручки составил 108%, а средняя зарплата сотрудников выросла на 60%. Однако, несмотря на эти цифры, компания всё ещё несет убытки, и её руководитель предупреждает о возможных дальнейших сокращениях. Это подчеркивает, что автоматизация сама по себе не гарантирует стабильности. Без чёткой системы ответственности и контроля, даже успешные проекты могут потерпеть сбой.

Проблема ответственности и доверия

Пример из Великобритании демонстрирует, как автоматизация может вызвать серьёзные последствия. Алгоритм, используемый Департаментом социального обеспечения Великобритании, ошибочно помечал около 200 000 заявлений на жилищные льготы как подозрительные, хотя большинство из них были законными. Проблема не в алгоритме, а в отсутствии чётко определённого ответственного лица за его решения. Когда автоматизированная система блокирует неправильный аккаунт или отклоняет ложный запрос, вопрос заключается не в том, почему модель ошиблась, а в том, кто несёт за это ответ.

Подход к внедрению ИИ: готовность и гибкость

Джейсон Роос (Jason Roos), генеральный директор Cirrus, подчеркивает, что ключ к успешной автоматизации — это готовность. Если процесс, данные и рамки не определены заранее, автономность не ускоряет выполнение задач, а усиливает слабые места. Он советует начинать с желаемого результата, анализировать, где теряется время, проверять готовность системы и команды, и только после этого внедрять ИИ. Пропуск этих шагов приводит к тому, что ответственность исчезает так же быстро, как и выигрыш в эффективности.

Роль прозрачности и управления

Одной из причин снижения доверия к ИИ является недостаток прозрачности. По данным Edelman Trust Barometer, уровень общественного доверия к ИИ падает. В совместном исследовании KPMG и Университета Мельбурна было установлено, что почти половина рабочих процессов требует большего участия человека. Это подтверждает, что доверие строится не на скорости, а на понимании процессов и наличии чёткой системы управления.

На стороне клиентов ситуация аналогична. Исследования PwC показывают, что большинство руководителей уверены в доверии клиентов, но сами клиенты не разделяют эту уверенность. Прозрачность помогает сократить этот разрыв. Большинство потребителей хотят знать, когда ИИ участвует в их взаимодействии. Без этого они не чувствуют себя уверенно, а доверие начинает разрушаться.

Ошибочное восприятие «агентного» ИИ

Многие воспринимают «агентный ИИ» как что-то непредсказуемое или автономное, но на самом деле это — автоматизация рабочих процессов с элементами логики и памяти. Это структурированный способ, с помощью которого системы могут принимать решения в рамках, заданных людьми. Успешные внедрения следуют одному и тому же порядку: сначала определяется цель, затем анализируются точки, где теряется эффективность, проверяется готовность, и только после этого выбирается подходящая технология.

Социальные аспекты автоматизации

Внедрение ИИ становится не только технической, но и социальной задачей. Как и в случае с Amazon, где доверие к операционной надёжности обеспечило успех, так и в случае с ИИ, доверие становится критическим фактором. Если клиент чувствует, что его обманывают или игнорируют, доверие исчезает. Внутри компании аналогичная динамика: если сотрудники не понимают, как принимаются решения или кто за них отвечает, внедрение ИИ остаётся на бумаге.

Эмоциональный аспект ИИ-взаимодействия

С развитием ИИ, способного к разговорам, становится важным эмоциональный аспект взаимодействия. Ранние отзывы показывают, что пользователи оценивают не только то,оказывали ли они помощь, но и то, было ли общение внимательным и уважительным. Чувство пренебрежения со стороны ИИ может быстро привести к потере лояльности. Эмоциональный тон ИИ становится реальным операционным фактором, и системы, не способные соответствовать этим ожиданиям, рискуют стать проблемой для бизнеса.

Заключение: доверие как основа успеха

Технологии продолжают развиваться быстрее, чем люди к ним привыкают. Доверие всегда отстаёт от инноваций. Это не повод останавливаться, но повод быть более зрелым в подходе. Каждый лидер ИИ должен задавать себе вопросы: доверял бы он системе своим данными? Может ли он объяснить её последнее решение простым языком? Кто берёт на себя ответственность, если что-то пойдёт не так?

Интересно: Сможет ли бизнес удержать доверие, если ИИ будет принимать решения, но не будет ясно, кто за них отвечает?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Доверие как уязвимая точка ИИ

Когда технология опережает понимание

Технологии искусственного интеллекта развиваются с поразительной скоростью. Однако, как показывает практика, доверие к ним не следует так же быстро. В бизнесе и повседневной жизни всё чаще возникает ситуация, когда ИИ технически компетентен, но эмоционально и социально не воспринимается как надёжный партнёр. Это не только вопрос пользовательского опыта — это глубокий кризис доверия, который может подорвать даже самые продвинутые решения [!].

Ключевой проблемой становится не техническая реализация, а её восприятие. Когда система блокирует банковский аккаунт, несмотря на правильные ответы, или ошибочно помечает законное заявление как подозрительное, это вызывает не только недовольство, а утраченную уверенность в том, что система вообще предназначена для помощи.

Важный нюанс: Доверие к ИИ строится не на его способностях, а на прозрачности и ответственности за его решения. Без этих двух компонентов даже самая умная модель становится источником риска.

Цепочки последствий: кто выигрывает, кто теряет

Внедрение ИИ приводит к масштабным сокращениям, как в случае с Klarna, где автоматизация заменила почти 900 сотрудников. Однако, несмотря на рост выручки, компания всё ещё остаётся в убытке. Это показывает, что автоматизация не гарантирует финансовой стабильности. Она может ускорить процессы, но не заменяет стратегическое управление и человеческое суждение.

С другой стороны, ИИ создаёт новые ниши. Компании, которые умеют объяснить, как работает их система, и кто несёт за неё ответственность, получают преимущество. Это не только повышает доверие клиентов, но и укрепляет позиции внутри организации. Сотрудники, понимающие, как принимаются решения, легче адаптируются к изменениям.

Однако, если ИИ внедряется без чёткой системы управления и прозрачности, он становится не инструментом, а источником хаоса. Особенно это критично в сферах, где ошибки могут привести к юридическим или социальным последствиям, например, в социальном обеспечении или финансах.

Важный нюанс: Внедрение ИИ без чёткой системы ответственности приводит к тому, что даже успешные проекты терпят сбой. Ответственность — это не формальность, а жизненно важный элемент доверия.

Эмоциональный аспект: доверие начинается с общения

С развитием ИИ, способного к разговорам, становится важным не только логический, но и эмоциональный аспект взаимодействия. Пользователи не только хотят получить помощь — они хотят чувствовать, что их слушают и уважают. Системы, которые не учитывают этот фактор, рискуют потерять лояльность клиентов.

Это особенно актуально для российского бизнеса, где личные отношения и доверие играют ключевую роль. Если ИИ кажется холодным или бездушным, он может быть воспринят как угроза, а не как помощник. В таких условиях внедрение ИИ требует не только технической реализации, но и глубокого понимания социальных и эмоциональных ожиданий.

Важный нюанс: Сможет ли бизнес удержать доверие, если ИИ будет принимать решения, но не будет ясно, кто за них отвечает?

Рост нагрузки на работников

Важно понимать, что внедрение ИИ не снижает, а увеличивает нагрузку на работников. Автоматизация рутинных задач смещает фокус на управление ИИ-системами, их контроль и коррекцию. Работники становятся менеджерами ИИ, что требует новых компетенций в области проблемного решения и эмоциональной устойчивости. При этом рост ответственности часто сопровождается снижением оплаты, что повышает риск стресса и выгорания. Особенно это проявляется, когда ИИ-системы становятся автономными и их ошибки трудно выявить [!].

Риски безопасности и предвзятости

С ростом внедрения ИИ растёт и количество рисков. Утечки конфиденциальной информации, использование дипфейков и алгоритмические предвзятости становятся реальными угрозами для бизнеса. Эксперты зафиксировали случаи несанкционированного доступа к корпоративной информации через открытые фреймворки и подделку видеоматериалов, направленных на нарушение общественного порядка. Дополнительно выявлены алгоритмические предубеждения, которые могут приводить к неоднозначным и предвзятым ответам в зависимости от языка запроса [!].

Доверие как основа финансовой эффективности

Доверие к ИИ становится не только этической, но и финансовой задачей для бизнеса. Компании, инвестирующие в ответственный ИИ, получают в два раза больший возврат инвестиций. Отсутствие доверия, наоборот, приводит к снижению эффективности проектов. Таким образом, доверие к ИИ — это не только вопрос восприятия, а фактор, напрямую влияющий на рентабельность и устойчивость бизнеса [!].

Заключение: доверие как стратегический ресурс

Технологии продолжают развиваться быстрее, чем люди к ним привыкают. Доверие всегда отстаёт от инноваций. Это не повод останавливаться, но повод быть более зрелым в подходе. Каждый лидер ИИ должен задавать себе вопросы: доверял бы он системе своим данными? Может ли он объяснить её последнее решение простым языком? Кто берёт на себя ответственность, если что-то пойдёт не так?

Важный вывод: Сможет ли бизнес удержать доверие, если ИИ будет принимать решения, но не будет ясно, кто за них отвечает?

Коротко о главном

Почему Klarna сократила штат на 40% с 2022 года?

Компания заявила, что 853 рабочих места были заменены ИИ-системами, что позволило увеличить выручку на 108% и среднюю зарплату на 60%, однако автоматизация не помогла избежать убытков и возможных дальнейших сокращений.

Почему 200 000 заявлений на жилищные льготы в Великобритании были ошибочно помечены как подозрительные?

Алгоритм Департамента социального обеспечения ошибся, но проблема не в технологии, а в отсутствии чётко определённого ответственного лица за его действия, что привело к массовым неправильным решениям.

Почему Джейсон Роос советует начинать внедрение ИИ с определения цели?

По его мнению, без чёткого понимания задачи, анализа узких мест и проверки готовности системы и команды, автоматизация усиливает слабые места и приводит к потере ответственности.

Почему уровень доверия к ИИ падает по данным Edelman Trust Barometer?

Недостаток прозрачности и отсутствие понимания, как принимаются решения, снижает доверие как у потребителей, так и у сотрудников, особенно когда ИИ участвует в критически важных взаимодействиях.

Почему эмоциональный тон ИИ становится важным фактором?

Пользователи не только оценивают полезность ИИ, но и чувствуют, было ли общение внимательным и уважительным. Пренебрежительный тон может привести к потере лояльности и стать операционной проблемой для бизнеса.

Почему доверие к ИИ становится социальной задачей?

Как показывает опыт Amazon, доверие к надёжности и прозрачности решений ИИ влияет на его успех. Если сотрудники или клиенты не понимают, кто отвечает за решения, внедрение остаётся формальным.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Маркетинг и продажи; Персонал и развитие; Управление и стратегия

Оценка значимости: 7 из 10

Событие затрагивает широкую аудиторию в России, так как вопросы доверия к ИИ и автоматизации актуальны в бизнесе и повседневной жизни. Оно касается нескольких сфер — экономики, технологий, социума и управления, что усиливает его значимость. Проблема не является краткосрочной, а выступает как системный вызов, требующий долгосрочных решений. Поскольку тема касается цифровизации и доверия к технологиям, она имеет прямое отношение к развитию ИИ в России, что дополнительно влияет на её оценку.

Материалы по теме

Искусственный интеллект увеличивает нагрузку на работников, а не снижает

Утверждение о росте нагрузки на работников при внедрении ИИ и рисках стресса и выгорания напрямую подкреплено данными из блока. Информация используется для демонстрации того, как ИИ не снижает, а перераспределяет рабочую нагрузку, что требует новых компетенций и создаёт профессиональные риски.

Подробнее →
Риски ИИ: дипфейки, утечки данных и алгоритмическая предвзятость

Факты о росте угроз безопасности, включая утечки данных, дипфейки и алгоритмическую предвзятость, взяты из этого блока. Они служат доказательством рисков, связанных с внедрением ИИ, и усиливают аргумент о важности прозрачности и ответственности.

Подробнее →
Почему 95% компаний не получают прибыли от ИИ-инвестиций

Ссылка на то, что 95% компаний не получают прибыли от ИИ-инвестиций, взята из этого блока. Данные используются для подчёркивания кризиса доверия: даже при высоких инвестициях отсутствие интеграции и масштабируемости приводит к неудачам.

Подробнее →
Генеративный ИИ набирает доверие, но рискует потерять контроль

Утверждение о том, что компании, инвестирующие в ответственный ИИ, получают в два раза больший возврат инвестиций, взято из этого блока. Данные усиливают аргумент о доверии как финансовом ресурсе и показывают прямую связь между этическим подходом и рентабельностью.

Подробнее →