AI в работе: рост использования, но падение доверия к его превосходству
Опрос Wiley показал, что 84% из 2430 исследователей применяют AI-инструменты, что на 27% больше, чем в 2024 году, но уверенность в их превосходстве снизилась до менее чем трети. Участники отметили рост опасений по поводу точности и безопасности ИИ на 13 и 11 процентных пунктов, при этом 85% указали на повышение эффективности, но только 48% считают технологии полезными для развития критического мышления.
По данным глобального опроса компании Wiley, 84% исследователей из 2430 участников активно применяют AI-инструменты в своей работе, что на 27 процентов превышает уровень 2024 года. Однако уверенность в том, что искусственный интеллект способен превзойти человека в ключевых задачах, снизилась с 53% до менее чем трети. Эксперты отмечают, что «рост популярности технологий заставляет пересматривать ожидания»: ранние пользователи всё ещё уверены в превосходстве AI в 59% случаев.
Растущие опасения
Среди участников опроса растёт беспокойство по поводу точности и безопасности. 64% опасаются ошибок и «галлюцинаций» AI, а 58% — недостаточной конфиденциальности и защиты данных. Эти показатели выросли на 13 и 11 процентных пунктов соответственно по сравнению с 2024 годом. Дополнительно 50% и выше участников указали на рост проблем с этичностью и прозрачностью. По словам представителя Wiley, хотя часть барьеров (например, нехватка времени на изучение инструментов) снизилась, основные риски остаются актуальными.
Перспективы и ожидания
Несмотря на сомнения, большинство исследователей отмечают положительный эффект от AI: 85% говорят о повышении эффективности, 77% — об увеличении объёма работ, 73% — о росте качества. Однако только 48% считают, что технологии помогают в критическом мышлении, что согласуется с недавними исследованиями об уменьшении активности мозга при использовании AI.
Основные сценарии применения — помощь в написании текстов, подготовке документов и анализе большого объёма исследований. По оценкам Wiley, к 2027 году AI станет повсеместным инструментом для 83% участников. Однако 57% указывают на отсутствие инструкций и обучения, что тормозит внедрение. При этом 57% готовы использовать автономные инструменты, если их производительность значительно улучшится.
Интересно: Каким образом исследователи смогут совместить рост доверия к AI с необходимостью минимизировать риски? Анализ показывает, что ключевой задачей станет баланс между инновациями и регулированием.
Рост доверия к AI и рост рисков: как балансировать инновации и контроль
Растущий диссонанс между ожиданиями и реальностью
Резкий скачок в использовании ИИ исследователями (на 27% за год) стал следствием системного сдвига в подходах к работе. Однако снижение уверенности в превосходстве ИИ над человеком (с 53% до 30%) указывает на проблему: технологии не справляются с ожиданиями, созданными в ранний период. В 2025 году статистика подтверждает этот разрыв: 46% разработчиков сомневаются в точности ИИ-инструментов, несмотря на то, что 90% специалистов используют ИИ в своей работе. Ранние пользователи (59% с высоким доверием) формируют «оптимистичный пузырь», тогда как масса экспертов сталкивается с реальными ограничениями. Это противоречие осложняется ростом нестабильности программных продуктов — скорость разработки увеличилась, но качество снизилось.
Тренд: Рост доверия к ИИ у первых пользователей и сомнений у массы экспертов требует пересмотра подходов к обучению и внедрению технологий. Без адаптации к реальным сценариям, а не идеализированным, ИИ останется инструментом для узкого круга.
Скрытые войны за безопасность и этику
Повышение беспокойства по поводу точности (на 13 п.п.) и конфиденциальности данных (на 11 п.п.) не случайно. Это отражает глобальный сдвиг в приоритетах: когда ИИ становится массовым инструментом, он перестает быть «экспериментом» и превращается в риск для репутации и безопасности. В российском контексте, где регулирование данных строгое, это может стать тормозом для внедрения. Однако здесь появляется неочевидный победитель — компании, предлагающие решения для аудита ИИ-моделей и шифрования данных. Рост интереса к этичности (50% участников указали на проблему) также открывает возможности для разработчиков, создающих «прозрачные» алгоритмы с документированными правилами принятия решений.
Дополнительный контекст:
- 40% организаций инвестируют в «надежный ИИ» с контролем и ограничениями.
- Компании, вкладывающие меньше в этический контроль, оценивают генеративный ИИ как в два раза более надежный, чем традиционный ИИ.
- Инвестиции в ответственный ИИ увеличивают возврат инвестиций на 100%.
Обратите внимание: Рост опасений по поводу безопасности ИИ создает рынок для специализированных сервисов. В России это особенно актуально, где требования к защите данных уже сейчас формируют барьеры для «импортных» решений.
Эффективность vs. Когнитивная инфляция
Статистика о повышении эффективности (85%) и объема работ (77%) кажется парадоксальной, когда только 48% считают ИИ полезным для критического мышления. Это указывает на когнитивную инфляцию — когда технологии повышают количественные показатели, но снижают качество анализа. В научном сообществе это может привести к «самообману»: когда исследователи заменяют глубину анализа скоростью генерации текста. Для российского бизнеса это сигнал: внедрение ИИ в исследования требует сопровождения ручными проверками и интеграции с экспертами, а не слепого доверия к алгоритмам.
Парадокс: Технологии, обещающие «освободить время» для творчества, на деле могут создать иллюзию прогресса, пока реальные инновации теряются в потоке автоматизированных отчетов.