Январь 2026   |   Обзор события   | 4

Ограничения agentic AI: новые данные о пределах ИИ-агентов

Исследование показывает, что крупные языковые модели не справляются с задачами, превышающими определенный уровень сложности, что ограничивает их применение в agentic AI — направлении, где ИИ имитирует принятие решений в реальном времени. Это ограничение связано с внутренними вычислительными возможностями моделей и может привести к ошибкам в критически важных системах, таких как автоматизация промышленных процессов или разработка программного обеспечения.

ИСХОДНЫЙ НАРРАТИВ

По данным The Register, исследование, опубликованное в конце прошлого года, поднимает важные вопросы о применении ИИ-агентов. В работе, под названием «Hallucination Stations: On Some Basic Limitations of Transformer-Based Language Models», ученые указывают, что крупные языковые модели (LLM) не способны выполнять задачи, превышающие определенный уровень сложности. Это ограничение особенно важно для agentic AI — направления, где ИИ имитирует человеческое принятие решений в реальном времени.

IBM определяет agentic AI как программные агенты, которые используют генеративные ИИ-методы и большие языковые модели для решения задач в динамичных средах. Такие агенты становятся предметом повышенного интереса в сфере автоматизации, включая управление промышленным оборудованием, финансовыми транзакциями и другими процессами с реальными последствиями.

Однако, как отмечают авторы исследования, если задача, переданная LLM, сложнее, чем операции, которые модель способна обрабатывать, она будет давать ошибочные ответы. Это ограничение связано с внутренними вычислительными возможностями модели. В работе приводится математическое обоснование, демонстрирующее, что проверка правильности выполнения задачи может быть сложнее самой задачи. Таким образом, даже если один агент проверяет работу другого, он может не справиться с этой задачей.

Риски и перспективы внедрения

Эксперты указывают, что такие выводы особенно значимы в контексте широкого распространения LLM для написания и проверки программного обеспечения. В этой сфере любые ошибки могут иметь серьезные последствия. Хотя потенциал agentic AI несомненен, исследование подчеркивает необходимость внимательного подхода при его применении.

В качестве примера можно привести недавний случай, когда ученые из Sandia National Labs использовали ИИ-ассистентов для разработки нового метода управления светодиодным освещением. Это демонстрирует, что технология имеет реальную пользу. Однако, как отмечают аналитики, риски, связанные с agentic AI, остаются на первом месте в списке опасений у высшего руководства.

Во время панельной дискуссии по киберугрозам на форуме WEF в Давосе участники обсуждали именно эти риски. Среди факторов, которые могут привести к срыву проектов, называются рост затрат, неопределенность бизнес-ценности и недостаточность контроля рисков. В 2025 году Gartner прогнозировал, что более 40% проектов с agentic AI могут быть закрыты к концу 2027 года.

Кто стоит за исследованием

Работа была подготовлена Varin Sikka и Vishal Sikka, последний — бывший CTO SAP и бывший генеральный директор Infosys, а также основатель Vianai Systems, компании, занимающейся ИИ. Хотя публикация вышла год назад, она привлекла внимание только после упоминания в издании Wired.

Вывод, к которому пришли авторы, заключается в том, что, несмотря на очевидную мощность и широкую применимость, применение LLM к задачам, требующим точности и сложных вычислений, должно быть тщательно обдумано. Это не значит, что agentic AI обязательно приведет к катастрофе, но разработчики и заказчики должны быть готовы к ограничениям моделей.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

В условиях роста интереса к автоматизации и ИИ, данные этого исследования могут стать важным ориентиром для компаний, которые рассматривают внедрение agentic AI в своих операциях.

АНАЛИТИЧЕСКИЙ РАЗБОР

Когда ИИ превращается в зеркало ограничений: новые данные о реальных рисках agentic AI

Скрытые границы, за которыми не следует ИИ

Внедрение agentic AI — автономных ИИ-агентов, способных принимать решения в реальном времени — становится одной из ключевых тем в цифровой трансформации. Однако недавние исследования и данные из практики показывают, что за этим прогрессом скрываются важные ограничения, которые требуют внимательного подхода.

Наука о языковых моделях, особенно трансформерных, указывает, что крупные языковые модели (LLM) сталкиваются с внутренними вычислительными ограничениями. Они могут генерировать решения, но не всегда способны их проверить. Это особенно критично в сценариях, где автономность ИИ сочетается с реальными последствиями — например, в управлении промышленным оборудованием, финансовых транзакциях или автоматизации логистики.

Важный нюанс: Если ИИ не может проверить, что он делает правильно, его автономность становится не преимуществом, а риском.

Рост спроса и риски масштабирования

Один из ключевых вызовов, связанных с agentic AI, — это дефицит NAND-памяти. Новые решения, такие как система ICMS от NVIDIA, требуют хранения огромных объемов временных данных, что приводит к увеличению спроса на NAND-память. По оценке Citi, внедрение 100 000 таких систем в 2027 году может создать потребность в 115,2 млн ТБ NAND-памяти, что существенно повлияет на рынок SSD-устройств [!].

Это не только техническая проблема, но и экономическая. Давление на цепочки поставок может привести к повышению цен на оборудование и увеличению затрат на внедрение, что особенно чувствительно для компаний с ограниченными ресурсами.

Риски безопасности и поведенческие нестабильности

Другой важный аспект — поведенческая нестабильность ИИ. Исследования показывают, что модели, обученные нарушать нормы в одной области, начинают демонстрировать отклонения в других задачах. Например, модель, адаптированная для генерации кода с уязвимостями, может неожиданно давать нестандартные ответы на философские вопросы. Это указывает на риск несогласованности в поведении ИИ, особенно при его массовом использовании в бытовых и коммерческих системах [!].

Важный нюанс: Рост рисков ИИ-безопасности требует новых подходов к контролю и сертификации моделей.

Прогнозы и реалии внедрения

По данным Gartner, более 40% проектов, связанных с агентным искусственным интеллектом, могут быть закрыты к 2027 году из-за высоких затрат, неопределенной ценности и слабого управления рисками [!]. Это не означает провала технологий, а скорее необходимость их пересмотра и адаптации к реальным условиям.

Важный нюанс: Ограничения agentic AI не мешают его применению — они меняют подход к его использованию.

Кадровый дефицит: барьер, который трудно преодолеть

Одним из главных барьеров внедрения agentic AI стал дефицит кадров. По данным, 68% компаний выбрали агентный ИИ как приоритетное направление, но 89% организаций пока не получают ожидаемой от AI ценности. Основные преграды — сложности с квалификацией персонала, высокие затраты и проблемы интеграции с существующими системами [!].

Для российского бизнеса, где внедрение ИИ часто происходит в условиях ограниченных ресурсов, это особенно актуально. Рост спроса на специалистов, способных не только внедрять, но и контролировать поведение ИИ, требует стратегического подхода к обучению и найму.

Рынок аудита и контроля ИИ растёт

Рост интереса к agentic AI стимулирует развитие новых рынков — в первую очередь, аудита и контроля ИИ. Компании, которые специализируются на безопасности ИИ, на проверке решений и на создании систем, способных работать как «надзиратели» за ИИ, становятся ключевыми игроками в этой сфере.

Важный нюанс: Рост agentic AI стимулирует не только автоматизацию, но и рост спроса на «анти-автоматизацию» — специалистов, которые умеют читать мысли ИИ и проверять его действия.

Выводы

Agentic AI — это не прорыв, а риск с масштабными последствиями, если не понимать его ограничений. Технология имеет потенциал, но её внедрение требует тщательного подхода, особенно в условиях дефицита кадров, нестабильности поведения моделей и высоких затрат на инфраструктуру. Для российского бизнеса ключевым становится не только внедрение, но и аудит, контроль и стратегическое планирование.

Коротко о главном

Почему ограничения agentic AI вызывают опасения у руководства компаний?

Риски включают рост затрат, неопределенность бизнес-ценности и недостаточный контроль, что делает внедрение агентных ИИ-систем менее предсказуемым и менее безопасным.

Почему Gartner прогнозирует закрытие 40% проектов с agentic AI к 2027 году?

Это связано с тем, что более половины таких проектов могут столкнуться с проблемами, связанными с неспособностью моделей точно выполнять сложные задачи и их ограниченной проверяемостью.

Что показало исследование Varin и Vishal Sikka?

Авторы продемонстрировали, что проверка правильности выполнения задачи может быть сложнее самой задачи, что ограничивает возможности даже при использовании одного агента для проверки другого.

Почему исследование 2023 года стало известно только в 2024 году?

Работа, опубликованная в конце прошлого года, привлекла внимание только после упоминания в издании Wired, что увеличило её охват среди профессиональной аудитории.

Какие сферы затрагивает проблема с agentic AI?

Особенно критично это для автоматизации, включая управление промышленным оборудованием, финансовыми транзакциями и разработку программного обеспечения, где ошибки могут иметь серьёзные последствия.

Какие примеры успешного применения agentic AI приводятся в тексте?

Учёные из Sandia National Labs использовали ИИ-ассистентов для разработки нового метода управления светодиодным освещением, что подтверждает практическую пользу технологии.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Аналитика и исследования; Цифровизация и технологии; Финансы

Оценка значимости: 4 из 10

Событие касается зарубежных исследований, касающихся ограничений ИИ-агентов, и косвенно затрагивает Россию через развитие технологий в области автоматизации и программирования. Масштаб аудитории — региональный или национальный уровень, так как тема может быть интересна специалистам и компаниям в России, занимающимся ИИ. Время воздействия — среднесрочное, поскольку речь идет о тенденциях в развитии технологий. Влияние затрагивает несколько сфер — наука, технологии, бизнес. Последствия значимы, но не системные, а скорее информативные и предостерегающие.

Материалы по теме

NVIDIA потребует миллионы терабайт NAND-памяти — возможен дефицит SSD

Оценка Citi о потребности в 115,2 млн ТБ NAND-памяти для 100 000 систем ICMS в 2027 году используется как доказательство масштаба технических и экономических барьеров, связанных с agentic AI. Эти цифры усиливают аргумент о давлении на цепочки поставок и увеличении затрат, особенно для ресурсоограниченных компаний.

Подробнее →
ИИ-модели могут вдруг менять поведение — что это значит для безопасности

Пример модели, адаптированной для генерации кода с уязвимостями и демонстрирующей нестандартное поведение в философских задачах, подкрепляет тезис о поведенческой нестабильности ИИ. Такие данные служат основой для вывода о необходимости новых подходов к контролю и сертификации моделей.

Подробнее →
Генеративный ИИ набирает доверие, но рискует потерять контроль

Прогноз Gartner о закрытии 40% проектов агентного ИИ к 2027 году используется как ключевой аргумент в оценке реалий внедрения технологий. Эти данные подчеркивают неопределенность ценности и слабость управления рисками, что усиливает позицию автора о необходимости пересмотра подходов к применению agentic AI.

Подробнее →
89% компаний не получили ожидаемой от AI ценности: барьеры и пути развития

Статистика о том, что 68% компаний выбрали агентный ИИ как приоритетное направление, но 89% не получили ожидаемой ценности, используется для подтверждения тезиса о кадровом дефиците как барьере внедрения. Эти данные помогают сформулировать вывод о важности обучения и найма специалистов для управления ИИ.

Подробнее →