Ноябрь 2025   |   Обзор события   | 7

Азиатские компании борются за эффективность ИИ из-за слабой инфраструктуры

Растущие инвестиции в искусственный интеллект в Азиатско-Тихоокеанском регионе не приводят к ожидаемой рентабельности из-за сложностей с масштабированием и инфраструктурными ограничениями. Компании, такие как Akamai и NVIDIA, разрабатывают определенные решения для вывода ИИ-моделей, чтобы снизить затраты, минимизировать задержки и повысить эффективность в отраслях, где критичны быстрота и точность обработки данных.

ИСХОДНЫЙ НАРРАТИВ

По данным Artificialintelligence-News, расходы на искусственный интеллект в Азиатско-Тихоокеанском регионе продолжают расти. Однако множество компаний сталкиваются с трудностями в получении реальной ценности от своих ИИ-проектов. Основная причина — недостаточно продуманная инфраструктура, которая не справляется с требованиями к масштабу и скорости вывода.

Проблема масштабирования ИИ-проектов

Исследования показывают, что даже при значительных инвестициях в генеративные ИИ-инструменты многие проекты не достигают ожидаемой рентабельности. Основная причина — несоответствие между экспериментальной фазой и полноценной эксплуатацией. Как отмечает Джей Джинкс (Jay Jenkins), CTO по облачным технологиям Akamai, многие компании недооценивают разрыв между тестированием и внедрением. Высокие затраты на инфраструктуру, задержки и сложность масштабирования моделей становятся серьёзными барьерами.

Компании часто полагаются на централизованные облака и крупные кластеры GPU. Однако с ростом объёмов использования такие решения становятся слишком затратными, особенно в удалённых регионах. Задержки передачи данных между центрами обработки и пользователями ухудшают пользовательский опыт и снижают бизнес-ценность.

Почему вывод становится центральной задачей

С увеличением внедрения ИИ в реальные приложения, такие как обработка естественного языка, визуальные модели и мультимодальные системы, спрос на быструю и надёжную обработку данных резко возрастает. Akamai и NVIDIA совместно разработали Inference Cloud, которая опирается на GPU Blackwell. Основная идея — ближе к пользователю, а не в удалённых дата-центрах.

Такой подход снижает затраты, минимизирует задержки и повышает производительность, особенно для систем, где решения принимаются в миллисекундах, таких как роботы, автономные устройства и интеллектуальные инфраструктуры. По данным Akamai, компании в Индии и Вьетнаме зафиксировали значительное снижение затрат на генерацию изображений при переходе на распределённую обработку.

Рост интереса к инфраструктуре на краю сети

Наибольший спрос на распределённую обработку наблюдается в отраслях, где даже небольшие задержки влияют на выручку, безопасность или вовлечённость пользователей. Ритейл и электронная коммерция уже активно внедряют локальную обработку, чтобы ускорить персонализированные рекомендации и мультимодальные инструменты.

Финансовый сектор также демонстрирует высокую заинтересованность. Решения по выявлению мошенничества, одобрению платежей и оценке транзакций требуют мгновенных ИИ-вычислений. Работа ближе к источнику данных позволяет сократить время реакции и соблюдать локальные нормативные требования.

Роль партнёрств между облачными и ИИ-компаниями

Рост объёмов ИИ-работ требует инфраструктуры, способной справляться с нагрузкой. Это стимулирует более тесное сотрудничество между поставщиками облаков и производителями GPU. Akamai и NVIDIA создают сеть вывода, которая распределяет ИИ-процессы по множеству локаций. Такой подход не только улучшает производительность, но и помогает соблюдать разнообразные нормативные требования.

Безопасность также становится частью архитектуры. Контроли по модели Zero Trust, маршрутизация данных и защита от ботов и фишинга встраиваются в стек технологий. Это особенно важно для отраслей, где конфиденциальность и надёжность имеют критическое значение.

Интересно: Каким образом традиционные подходы к управлению ИИ-инфраструктурой могут адаптироваться к новым требованиям, связанным с ростом спроса на распределённые вычисления и локальную обработку?

АНАЛИТИЧЕСКИЙ РАЗБОР

Как ИИ переходит с облака на край сети и что это значит для бизнеса

Растущие инвестиции в искусственный интеллект в Азиатско-Тихоокеанском регионе не всегда приводят к ожидаемому бизнес-эффекту. Основная причина — несоответствие между масштабом проектов и возможностями инфраструктуры. Компании, которые внедряют ИИ, сталкиваются с проблемами масштабирования, задержек и высокой стоимости. Это заставляет искать новые подходы — и ключевая тенденция заключается в смещении ИИ-вычислений ближе к пользователю.

От централизованного облака к краю сети

Традиционно ИИ-модели обрабатывались в централизованных дата-центрах, где обеспечивается мощная вычислительная база. Однако с ростом объёмов данных и увеличением требований к скорости вывода (inference) такие подходы становятся неэффективными. Особенно это ощущается в регионах с недостаточно развитой инфраструктурой, где задержки передачи данных могут серьёзно снизить пользовательский опыт.

Решение — распределённая обработка данных, когда ИИ-вычисления происходят не в центре, а на краю сети (edge computing). Это позволяет сократить время отклика, снизить нагрузку на каналы связи и сэкономить на транспортировке данных. Например, Akamai и NVIDIA разработали совместное решение Inference Cloud, опирающееся на GPU Blackwell. Оно позволяет выполнять ИИ-задачи ближе к конечному пользователю, что особенно важно для таких сценариев, как автономные устройства, роботы и мультимодальные приложения.

NVIDIA, в свою очередь, активно расширяет экосистему, включая модели, такие как Apollo, которая моделирует физические процессы и используется в прогнозировании погоды, динамике жидкости и моделировании термоядерного синтеза [!]. Такие разработки усиливают позиции компании в научных вычислениях и укрепляют её роль в обеспечении ИИ-инфраструктурой.

Кто выигрывает и кто проигрывает

Переход к краевой обработке данных выгоден для отраслей, где скорость решения — ключевой фактор. В ритейле, например, это позволяет ускорить персонализированные рекомендации и улучшить взаимодействие с клиентами. В финансовой сфере, где необходимо мгновенное принятие решений по платежам и обнаружению мошенничества, задержки в миллисекундах могут привести к реальным потерям.

Однако не все компании готовы к такой трансформации. Старые ИИ-проекты, построенные на централизованных облаках, требуют перепроектирования архитектуры. Это влечёт за собой дополнительные инвестиции в оборудование, обучение персонала и адаптацию процессов. Для компаний, не готовых к таким изменениям, риски увеличения операционных издержек и снижения конкурентоспособности становятся реальными.

Важный нюанс: Перемещение ИИ-процессов на край сети меняет баланс между централизацией и децентрализацией, но не решает всех проблем. Компании, которые не перестроят внутренние процессы, рискуют не только не выйти на новый уровень, но и потерять преимущества, которые раньше давала централизованная обработка.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Партнёрства как двигатель инноваций

Рост спроса на распределённые ИИ-вычисления стимулирует более тесное сотрудничество между поставщиками облаков и производителями оборудования. Это позволяет создавать более гибкие и устойчивые системы. Например, Akamai и NVIDIA создают сеть вывода, которая распределяет ИИ-процессы по множеству локаций. Такой подход не только улучшает производительность, но и позволяет соблюдать локальные нормативные требования, что особенно важно для компаний, работающих в регулируемых отраслях.

NVIDIA также активно развивает партнёрства, включая инвестиции в стартапы, такие как Poolside, где создаётся центр искусственного интеллекта мощностью 2 гигаватта, способный разместить более 40 000 GPU [!]. Это подчёркивает масштабирование ИИ-инфраструктуры как ключевой стратегический шаг для будущих возможностей.

Влияние на рынок и инфраструктуру

Рост спроса на ИИ-мощности приводит к значительным изменениям в цепочках поставок. Например, резкое обесценивание графических процессоров (GPU) в сфере искусственного интеллекта создаёт риски для компаний, вложивших миллиарды в центры обработки данных. Ускоренное обновление оборудования, инициированное инновациями NVIDIA, увеличивает давление на бизнес, требуя постоянной модернизации инфраструктуры [!].

Кроме того, рост спроса на ИИ создаёт дефицит серверной памяти, что может привести к её удвоению в стоимости к 2026 году. NVIDIA, смещая фокус на более энергоэффективную память LPDDR, ставит под давление производителей, вынуждая перераспределять мощности и усугубляя нехватку традиционных типов памяти [!].

Что это значит для российского бизнеса

Для российских компаний переход к краевой обработке данных может стать как возможностью, так и вызовом. С одной стороны, это снижает зависимость от иностранных облаков и позволяет лучше контролировать данные. С другой — требует значительных инвестиций в локальную инфраструктуру и адаптацию ИИ-моделей к новым условиям.

Особенно это актуально для отраслей, где требуется высокая скорость обработки и низкие задержки, таких как финансы, ритейл и телекоммуникации. Однако для компаний, которые ещё не начали цифровую трансформацию, такой переход может стать серьёзным барьером. Без стратегического подхода и долгосрочного планирования риски увеличения издержек и снижения эффективности ИИ-проектов остаются высокими.

Ключевой вывод: Перемещение ИИ-вычислений на край сети — это не просто техническая оптимизация. Это глубокая трансформация бизнес-процессов, требующая пересмотра подходов к архитектуре, безопасности и управлению данными. Компании, которые начнут действовать сейчас, получат преимущество в будущем.

Коротко о главном

Почему централизованные облака и кластеры GPU становятся проблемой для компаний в удалённых регионах?

Такие решения становятся слишком затратными, а задержки передачи данных между центрами обработки и пользователями снижают бизнес-ценность и ухудшают пользовательский опыт.

Что такое Inference Cloud и как она решает проблему с выводом ИИ?

Inference Cloud — совместный проект Akamai и NVIDIA, использующий GPU Blackwell, который позволяет обрабатывать данные ближе к пользователю, снижая затраты, задержки и повышая производительность.

Какие отрасли наиболее заинтересованы в распределённой обработке ИИ?

Ритейл и электронная коммерция, а также финансовый сектор, где даже небольшие задержки влияют на выручку, безопасность и вовлечённость пользователей, активно внедряют локальную обработку данных.

Почему партнёрство между облачными и ИИ-компаниями становится критически важным?

Рост объёмов ИИ-работ требует инфраструктуры, способной справляться с нагрузкой, что стимулирует совместные разработки, такие как распределённая сеть вывода от Akamai и NVIDIA.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Цифровизация и технологии; Торговля; Розничная торговля; Финансы

Оценка значимости: 7 из 10

Рост инвестиций в ИИ в Азиатско-Тихоокеанском регионе и проблемы масштабирования затрагивают ключевые сферы — технологии, экономику и бизнес. Событие имеет региональный масштаб, но касается глобальных трендов, что усиливает его значимость. В России растёт интерес к ИИ-инфраструктуре, особенно в условиях развития цифровой экономики и зависимости от импортных решений. Проблемы с выводом и инфраструктурой могут повлиять на эффективность внедрения ИИ в отечественных компаниях, что делает тему актуальной для обсуждения.

Материалы по теме

Nvidia расширяет ИИ-экосистему: новая модель Apollo и суперкомпьютеры в Японии и США

Модель Apollo, разработанная NVIDIA, используется для моделирования физических процессов, таких как прогнозирование погоды, динамика жидкости и термоядерный синтез. Это подчёркивает стратегическое расширение NVIDIA в научных вычислениях и усиливает её позиции в обеспечении ИИ-инфраструктурой, что делает компанию ключевым игроком в высокопроизводительных вычислениях.

Подробнее →
Nvidia вкладывает миллиарды в Poolside: стартап может оцениться в 12 млрд

Инвестиции NVIDIA в стартап Poolside и создание центра искусственного интеллекта мощностью 2 гигаватта, способного разместить более 40 000 GPU, демонстрируют масштабирование ИИ-инфраструктуры как стратегический шаг. Это подчёркивает стремление NVIDIA к созданию мощной и масштабируемой экосистемы для будущих ИИ-проектов.

Подробнее →
Бизнес на ИИ рискует из-за стремительного обесценивания GPU

Ускоренное обновление оборудования NVIDIA, включая переход на новые поколения GPU, такие как Blackwell, создаёт риски для компаний, вложивших миллиарды в центры обработки данных. Это вынуждает бизнес либо модернизировать инфраструктуру, либо терять конкурентное преимущество, что подчёркивает давление, оказываемое инновациями NVIDIA на рынок ИИ-оборудования.

Подробнее →
NVIDIA толкает цены на память вверх из-за бума искусственного интеллекта

Стратегия NVIDIA, связанная с переходом на более энергоэффективную память LPDDR, создаёт дефицит традиционных типов памяти, таких как DRAM и DDR5, и может привести к её удвоению в цене к 2026 году. Это усиливает давление на производителей памяти и подчёркивает влияние NVIDIA на цепочки поставок в сфере ИИ.

Подробнее →
Nvidia выручка от ИИ выросла на 56%

Выручка NVIDIA от ИИ выросла на 56% за квартал, в основном благодаря спросу на чипы Blackwell. Это подчёркивает центральную роль NVIDIA в росте ИИ-рынка и её способность формировать тенденции в этой сфере.

Подробнее →