Азиатские компании борются за эффективность ИИ из-за слабой инфраструктуры
Растущие инвестиции в искусственный интеллект в Азиатско-Тихоокеанском регионе не приводят к ожидаемой рентабельности из-за сложностей с масштабированием и инфраструктурными ограничениями. Компании, такие как Akamai и NVIDIA, разрабатывают определенные решения для вывода ИИ-моделей, чтобы снизить затраты, минимизировать задержки и повысить эффективность в отраслях, где критичны быстрота и точность обработки данных.
По данным Artificialintelligence-News, расходы на искусственный интеллект в Азиатско-Тихоокеанском регионе продолжают расти. Однако множество компаний сталкиваются с трудностями в получении реальной ценности от своих ИИ-проектов. Основная причина — недостаточно продуманная инфраструктура, которая не справляется с требованиями к масштабу и скорости вывода.
Проблема масштабирования ИИ-проектов
Исследования показывают, что даже при значительных инвестициях в генеративные ИИ-инструменты многие проекты не достигают ожидаемой рентабельности. Основная причина — несоответствие между экспериментальной фазой и полноценной эксплуатацией. Как отмечает Джей Джинкс (Jay Jenkins), CTO по облачным технологиям Akamai, многие компании недооценивают разрыв между тестированием и внедрением. Высокие затраты на инфраструктуру, задержки и сложность масштабирования моделей становятся серьёзными барьерами.
Компании часто полагаются на централизованные облака и крупные кластеры GPU. Однако с ростом объёмов использования такие решения становятся слишком затратными, особенно в удалённых регионах. Задержки передачи данных между центрами обработки и пользователями ухудшают пользовательский опыт и снижают бизнес-ценность.
Почему вывод становится центральной задачей
С увеличением внедрения ИИ в реальные приложения, такие как обработка естественного языка, визуальные модели и мультимодальные системы, спрос на быструю и надёжную обработку данных резко возрастает. Akamai и NVIDIA совместно разработали Inference Cloud, которая опирается на GPU Blackwell. Основная идея — ближе к пользователю, а не в удалённых дата-центрах.
Такой подход снижает затраты, минимизирует задержки и повышает производительность, особенно для систем, где решения принимаются в миллисекундах, таких как роботы, автономные устройства и интеллектуальные инфраструктуры. По данным Akamai, компании в Индии и Вьетнаме зафиксировали значительное снижение затрат на генерацию изображений при переходе на распределённую обработку.
Рост интереса к инфраструктуре на краю сети
Наибольший спрос на распределённую обработку наблюдается в отраслях, где даже небольшие задержки влияют на выручку, безопасность или вовлечённость пользователей. Ритейл и электронная коммерция уже активно внедряют локальную обработку, чтобы ускорить персонализированные рекомендации и мультимодальные инструменты.
Финансовый сектор также демонстрирует высокую заинтересованность. Решения по выявлению мошенничества, одобрению платежей и оценке транзакций требуют мгновенных ИИ-вычислений. Работа ближе к источнику данных позволяет сократить время реакции и соблюдать локальные нормативные требования.
Роль партнёрств между облачными и ИИ-компаниями
Рост объёмов ИИ-работ требует инфраструктуры, способной справляться с нагрузкой. Это стимулирует более тесное сотрудничество между поставщиками облаков и производителями GPU. Akamai и NVIDIA создают сеть вывода, которая распределяет ИИ-процессы по множеству локаций. Такой подход не только улучшает производительность, но и помогает соблюдать разнообразные нормативные требования.
Безопасность также становится частью архитектуры. Контроли по модели Zero Trust, маршрутизация данных и защита от ботов и фишинга встраиваются в стек технологий. Это особенно важно для отраслей, где конфиденциальность и надёжность имеют критическое значение.
Интересно: Каким образом традиционные подходы к управлению ИИ-инфраструктурой могут адаптироваться к новым требованиям, связанным с ростом спроса на распределённые вычисления и локальную обработку?
Как ИИ переходит с облака на край сети и что это значит для бизнеса
Растущие инвестиции в искусственный интеллект в Азиатско-Тихоокеанском регионе не всегда приводят к ожидаемому бизнес-эффекту. Основная причина — несоответствие между масштабом проектов и возможностями инфраструктуры. Компании, которые внедряют ИИ, сталкиваются с проблемами масштабирования, задержек и высокой стоимости. Это заставляет искать новые подходы — и ключевая тенденция заключается в смещении ИИ-вычислений ближе к пользователю.
От централизованного облака к краю сети
Традиционно ИИ-модели обрабатывались в централизованных дата-центрах, где обеспечивается мощная вычислительная база. Однако с ростом объёмов данных и увеличением требований к скорости вывода (inference) такие подходы становятся неэффективными. Особенно это ощущается в регионах с недостаточно развитой инфраструктурой, где задержки передачи данных могут серьёзно снизить пользовательский опыт.
Решение — распределённая обработка данных, когда ИИ-вычисления происходят не в центре, а на краю сети (edge computing). Это позволяет сократить время отклика, снизить нагрузку на каналы связи и сэкономить на транспортировке данных. Например, Akamai и NVIDIA разработали совместное решение Inference Cloud, опирающееся на GPU Blackwell. Оно позволяет выполнять ИИ-задачи ближе к конечному пользователю, что особенно важно для таких сценариев, как автономные устройства, роботы и мультимодальные приложения.
NVIDIA, в свою очередь, активно расширяет экосистему, включая модели, такие как Apollo, которая моделирует физические процессы и используется в прогнозировании погоды, динамике жидкости и моделировании термоядерного синтеза [!]. Такие разработки усиливают позиции компании в научных вычислениях и укрепляют её роль в обеспечении ИИ-инфраструктурой.
Кто выигрывает и кто проигрывает
Переход к краевой обработке данных выгоден для отраслей, где скорость решения — ключевой фактор. В ритейле, например, это позволяет ускорить персонализированные рекомендации и улучшить взаимодействие с клиентами. В финансовой сфере, где необходимо мгновенное принятие решений по платежам и обнаружению мошенничества, задержки в миллисекундах могут привести к реальным потерям.
Однако не все компании готовы к такой трансформации. Старые ИИ-проекты, построенные на централизованных облаках, требуют перепроектирования архитектуры. Это влечёт за собой дополнительные инвестиции в оборудование, обучение персонала и адаптацию процессов. Для компаний, не готовых к таким изменениям, риски увеличения операционных издержек и снижения конкурентоспособности становятся реальными.
Важный нюанс: Перемещение ИИ-процессов на край сети меняет баланс между централизацией и децентрализацией, но не решает всех проблем. Компании, которые не перестроят внутренние процессы, рискуют не только не выйти на новый уровень, но и потерять преимущества, которые раньше давала централизованная обработка.

Партнёрства как двигатель инноваций
Рост спроса на распределённые ИИ-вычисления стимулирует более тесное сотрудничество между поставщиками облаков и производителями оборудования. Это позволяет создавать более гибкие и устойчивые системы. Например, Akamai и NVIDIA создают сеть вывода, которая распределяет ИИ-процессы по множеству локаций. Такой подход не только улучшает производительность, но и позволяет соблюдать локальные нормативные требования, что особенно важно для компаний, работающих в регулируемых отраслях.
NVIDIA также активно развивает партнёрства, включая инвестиции в стартапы, такие как Poolside, где создаётся центр искусственного интеллекта мощностью 2 гигаватта, способный разместить более 40 000 GPU [!]. Это подчёркивает масштабирование ИИ-инфраструктуры как ключевой стратегический шаг для будущих возможностей.
Влияние на рынок и инфраструктуру
Рост спроса на ИИ-мощности приводит к значительным изменениям в цепочках поставок. Например, резкое обесценивание графических процессоров (GPU) в сфере искусственного интеллекта создаёт риски для компаний, вложивших миллиарды в центры обработки данных. Ускоренное обновление оборудования, инициированное инновациями NVIDIA, увеличивает давление на бизнес, требуя постоянной модернизации инфраструктуры [!].
Кроме того, рост спроса на ИИ создаёт дефицит серверной памяти, что может привести к её удвоению в стоимости к 2026 году. NVIDIA, смещая фокус на более энергоэффективную память LPDDR, ставит под давление производителей, вынуждая перераспределять мощности и усугубляя нехватку традиционных типов памяти [!].
Что это значит для российского бизнеса
Для российских компаний переход к краевой обработке данных может стать как возможностью, так и вызовом. С одной стороны, это снижает зависимость от иностранных облаков и позволяет лучше контролировать данные. С другой — требует значительных инвестиций в локальную инфраструктуру и адаптацию ИИ-моделей к новым условиям.
Особенно это актуально для отраслей, где требуется высокая скорость обработки и низкие задержки, таких как финансы, ритейл и телекоммуникации. Однако для компаний, которые ещё не начали цифровую трансформацию, такой переход может стать серьёзным барьером. Без стратегического подхода и долгосрочного планирования риски увеличения издержек и снижения эффективности ИИ-проектов остаются высокими.
Ключевой вывод: Перемещение ИИ-вычислений на край сети — это не просто техническая оптимизация. Это глубокая трансформация бизнес-процессов, требующая пересмотра подходов к архитектуре, безопасности и управлению данными. Компании, которые начнут действовать сейчас, получат преимущество в будущем.
Источник: AINews