Март 2026   |   Обзор события   | 7

Наборы данных становятся новым оружием в геополитической борьбе

Контроль над обучающими данными превращается в главный актив, определяющий глобальное влияние, и становится ценнее самих алгоритмов. Страны и компании, обладающие уникальными массивами информации, формируют новые правила игры, в то время как остальные рискуют остаться зависимыми от чужих стандартов и нарративов.

ИСХОДНЫЙ НАРРАТИВ

По данным издания Interesting Engineering от 25 марта 2026 года, контроль над обучающими данными искусственного интеллекта становится фактором, определяющим новый мировой баланс сил. В отличие от XX века, когда геополитическое влияние строилось на нефтяных трубопроводах и морских путях, современная инфраструктура власти формируется из цифровых массивов. Алгоритмическая дипломатия — термин, описывающий этот процесс, — предполагает, что решения о том, какую информацию генерируют, ранжируют и фильтруют ИИ-системы, напрямую влияют на глобальную повестку.

Никос Панагиоту, исследователь и профессор Аристотелева университета в Салониках, указывает на фундаментальный сдвиг: владение технологиями больше не сводится к созданию совершенных моделей. Ключевым вопросом становится то, на чем именно обучаются эти системы. Алгоритмы поддаются копированию и оптимизации, тогда как высококачественные, масштабные и культурно насыщенные данные воспроизвести крайне сложно. Это превращает наборы данных в стратегические активы, сопоставимые по значимости с цепочками поставок полупроводников или запасами редкоземельных металлов.

Формирование конкурирующих блоков данных

Глобальный ландшафт ИИ фрагментируется на отдельные экосистемы, формируемые политическими системами, регуляторными рамками и культурными приоритетами. Эксперты выделяют три столпа влияния в этой новой реальности: вычислительную мощность, квалифицированные кадры и инвестиционный капитал. Соединенные Штаты лидируют в инновациях частного сектора и привлечении капитала. Китай опирается на масштаб данных, получаемых от населения, и координацию со стороны государства. Европа находится в сложной позиции, пытаясь сбалансировать инновационный потенциал и строгое регулирование.

Доступ к этим ресурсам распределен неравномерно. Страны, не входящие в число основных центров силы, рискуют остаться лишь наблюдателями, не имея возможности определять параметры развития технологий. Отсутствие необходимых ресурсов и навыков создает структурное неравенство, где одни государства формируют реальность, а другие вынуждены адаптироваться под чужие стандарты.

В этом контексте регуляторные дилеммы становятся фактором конкурентной борьбы. Панагиоту отмечает, что Европейский Союз сталкивается с выбором: наложение ограничений может создать стратегическую уязвимость, предоставив преимущество странам, где такие ограничения отсутствуют. США и Китай продолжают быстро продвигаться, часто сталкиваясь с меньшими барьерами в использовании данных и развертывании моделей.

Корпоративный сектор также играет центральную роль. Примером служит соглашение между Palantir и Великобританией, предусматривающее доступ компании к данным системы здравоохранения. Это означает, что часть персональных данных фактически переходит под контроль коммерческого субъекта. Одновременно с этим судебные разбирательства между крупными медиаорганизациями и разработчиками ИИ подчеркивают оспариваемый характер самих обучающих данных. Контент малых медиакомпаний все чаще используется для обучения моделей, что создает правовые и экономические риски для правообладателей.

Политика формирования мировоззрения

Эксперт по этике и управлению ИИ Кейт О’Нил (Kate O’Neill) определяет алгоритмическую дипломатию как переход от традиционных форм цифрового взаимодействия. В отличие от информационной войны, ориентированной на манипуляцию, алгоритмическая дипломатия использует логику и стимулы, заложенные в системах, для формирования трансграничных нарративов. Этот процесс может происходить без прямого участия человека на каждом этапе, создавая иллюзию автономности.

Однако на практике влияние часто представляет собой человеческий замысел, преломленный через системы, и зависимость людей от результатов работы алгоритмов. Все больше пользователей обращаются к ИИ как к первому источнику для образования, перевода и исследований. То, что они получают от систем, определяет их последующие действия, замыкая цикл обратной связи.

В центре этого процесса лежит кураторство наборов данных — технически сложная, но политически значимая процедура отбора, фильтрации и структурирования информации. Как только набор данных определяет, кто представлен, а кто исключен, какие истории становятся центральными, а какие языки считаются нормой, речь идет уже не о качестве модели, а о формировании картины мира. Это влияние масштабируется на миллионы и миллиарды взаимодействий.

Эдвард Тиан (Edward Tian), основатель компании GPTZero, подчеркивает, что стратегическая важность данных проявляется еще до того, как информация превращается в код. Влияние закладывается на этапе определения того, что система считает истиной. Эмпирические данные показывают, что простая смена источника данных или изменение фильтров может радикально изменить выходные результаты.

С точки зрения стратегии, это делает наборы данных более ценными, чем сами модели. Модели можно воспроизвести или дообучить, но создание высококачественных, тщательно отобранных и проприетарных наборов данных представляет собой значительно более сложную задачу. Следующий этап конкуренции в сфере ИИ будет выигран теми, кто контролирует базовые данные.

Инфраструктурные вызовы и потребность в соглашениях

За дискуссиями о данных и алгоритмах скрывается физическая реальность: ИИ требует мощной инфраструктуры, включая огромные дата-центры, энергоресурсы и логистические цепочки. Панагиоту указывает на возрождение дискуссии о ядерной энергетике как ответе на растущие потребности в энергии для работы дата-центров.

Построение необходимой инфраструктуры сталкивается с социальным сопротивлением. Общественность выражает обеспокоенность по поводу воздействия на окружающую среду и потребления ресурсов. Возникает сложный компромисс между технологической конкурентоспособностью и общественным принятием. Без инвестиций в новые дата-центры общества теряют критическую инфраструктуру, но их развитие может встретить противодействие.

Несмотря на растущие риски, международное сотрудничество для их минимизации остается труднодостижимым. Ситуация напоминает дипломатию времен Холодной войны: стороны не готовы к кооперации, опасаясь, что это сразу же даст преимущество противнику. Панагиоту предлагает необходимость нового типа соглашения, аналогичного договору SALT, для установления пределов в развитии ИИ.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Такое соглашение должно учитывать фундаментальное отличие: в отличие от ядерного оружия, системы ИИ являются инструментами производства знаний, способными формировать то, как общество воспринимает реальность. Конкуренция ведется не за оружие, а за инструменты, которые могут стать автономными и выйти из-под контроля.

Текущая асимметрия в потоках данных между странами создает дополнительные сложности. Различия в подходах Китая, Европы и США уже приводят к формированию разных моделей поведения и результатов работы ИИ. В отсутствие общих норм данные становятся одновременно ресурсом и уязвимостью.

РегионКлючевые преимуществаОсновные вызовы
СШАИнновации частного сектора, капиталКорпоративное влияние на данные, правовые споры
КитайМасштаб данных, государственная координацияКонтроль данных, изоляция экосистемы
ЕвропаРегуляторные рамки, этикаБаланс между инновациями и ограничениями, риск отставания

В условиях, когда данные определяют поведение моделей, внедряют предвзятость и формируют мировоззрение в глобальном масштабе, необходимость в детальном анализе текущих тенденций становится критической. Ситуация требует постоянного мониторинга, так как границы между техническими решениями и геополитическими последствиями продолжают стираться.

АНАЛИТИЧЕСКИЙ РАЗБОР

Данные как новая геополитика: от кода к когнитивному суверенитету

В 2026 году центр тяжести в глобальной конкуренции сместился с вычислительных мощностей и архитектур алгоритмов на контроль над обучающими данными. Если ранее технологическое лидерство измерялось количеством транзисторов на чипе, то теперь решающим фактором становится качество, объем и происхождение информационных массивов. Алгоритмы поддаются копированию и оптимизации, тогда как создание уникальных, культурно насыщенных и проприетарных наборов данных требует времени и ресурсов, которые невозможно быстро воспроизвести. Это превращает данные в стратегический актив, сопоставимый по значимости с запасами редкоземельных металлов.

Ключевым механизмом влияния становится алгоритмическая дипломатия. Этот термин описывает процесс, при котором решения о том, какую информацию генерируют, ранжируют и фильтруют ИИ-системы, формируют глобальную повестку. В отличие от традиционной информационной войны, ориентированной на прямую манипуляцию, этот инструмент действует через логику и стимулы, заложенные в систему. Исследования Йельского университета подтверждают эффективность этого подхода: краткие сводки, сгенерированные искусственным интеллектом, усваиваются человеком значительно эффективнее текстов, написанных людьми [!]. Высокая убедительность алгоритмических выводов создает риск скрытого влияния на убеждения и принятия решений на основе искаженных фактов, что требует от бизнеса и государств внедрения новых протоколов верификации.

Гибридные экосистемы и размывание границ

Представление о четком разделении технологических сфер на «западные» и «восточные» устарело. Реальность 2026 года демонстрирует формирование гибридных экосистем, где границы между национальными данными размываются. Ярким примером служит ситуация с компанией Cursor, построившей флагманскую модель Composer 2 на базе открытого кода китайского разработчика Moonshot AI [!]. Несмотря на то, что 75% вычислительных ресурсов ушло на собственное дообучение, использование китайской архитектуры Kimi 2.5 стало возможным благодаря легальным лицензионным соглашениям.

Этот кейс иллюстрирует новый вектор конкуренции: западные компании, стремясь к эффективности и скорости выхода на рынок, неосознанно интегрируют китайские данные и логику в свои продукты. Стратегия Китая в области открытых моделей создает саморазвивающееся конкурентное преимущество, которое существующие экспортные ограничения не способны нейтрализовать [!]. Низкая стоимость и высокая доступность этих решений вынуждают компании пересматривать стратегии закупок, одновременно создавая риски безопасности из-за сложности контроля юрисдикции данных.

Возникает парадокс: борьба за технологический суверенитет ведется не через закрытие границ, а через контроль над происхождением данных внутри глобальной экосистемы. «Невидимое проникновение» моделей в бизнес-среду делает традиционные методы защиты неэффективными. Компании сталкиваются с необходимостью балансировать между скоростью разработки и прозрачностью технологического стека, так как сокрытие происхождения модели может нанести ущерб репутации, а открытость — создать уязвимости.

Важный нюанс: Победа в новой гонке достанется не тем, кто создаст самую сложную модель, а тем, кто контролирует процесс интеграции данных и их восприятие. Границы между «нашими» и «чужими» данными стираются, превращая суверенитет в вопрос управления гибридными потоками информации.

Автономные агенты и потеря контроля над потоками

Угроза утечки данных эволюционирует вместе с технологиями. Фокус защиты смещается с блокировки промптов на контроль потоков данных, так как автономные ИИ-агенты способны перемещать конфиденциальную информацию между системами без участия человека [!]. Традиционные средства безопасности не видят многошаговых цепочек вызовов, что приводит к потере видимости над перемещением контента между инструментами и серверами.

В корпоративном секторе автономные агенты создают новую угрозу системного разглашения данных. Они объединяют и передают чувствительную информацию в распределенных средах, делая невозможным контроль на уровне отдельного действия пользователя. Стратегия безопасности теперь требует аудита каждого шага работы агента, превращая каждый промежуточный этап в точку контроля. Внедрение механизмов проверки в реальном времени становится критическим для предотвращения инцидентов непосредственно в момент их возникновения.

Этот сдвиг усугубляется экономическим неравенством в доступе к технологиям. Развитие искусственного интеллекта заставляет крупных вендоров переориентироваться на производство серверов для дата-центров, оставляя меньше ресурсов для рынка потребительских ПК [!]. Дефицит памяти и процессоров приводит к росту цен на технику, закрепляя за технологическими гигантами приоритет в цепочке поставок. Бюджетные модели рискуют исчезнуть, что ограничивает доступ к передовым инструментам для малого бизнеса и частных пользователей, усиливая концентрацию данных в руках крупных игроков.

Регуляторные дилеммы и корпоративный суверенитет

Конфликт между этическими нормами и государственными интересами становится полем для сложных переговоров. Ситуация с компанией Anthropic и Пентагоном демонстрирует, как этические ограничения на использование ИИ для слежки и автономного оружия сталкиваются с требованиями национального суверенитета [!]. Пентагон требует снятия запретов, угрожая потерей доступа к миллиардным контрактам и засекреченным данным.

В этой динамике ключевую роль играют посредники. Платформа Palantir выступает инфраструктурным звеном, через которое военные ведомства получают доступ к уникальным моделям, обходя прямые этические барьеры разработчиков [!]. Сотрудничество с государственными структурами позволяет компаниям внедрять технологии в системы с высоким уровнем секретности, но это создает риски для репутации и зависимости от политических решений.

Британский опыт показывает, что зависимость от иностранных технологических гигантов в критически важных системах создает уязвимости для национальных интересов [!]. Доверие к таким поставщикам может быть расторгнуто в любой момент, особенно в условиях геополитической напряженности. Это вынуждает страны пересматривать стратегии цифровой инфраструктуры, пытаясь снизить зависимость и повысить устойчивость.

Регуляторные дилеммы здесь становятся фактором конкурентной борьбы. Наложение ограничений может создать стратегическую уязвимость, предоставив преимущество странам, где такие барьеры отсутствуют. Если Европа выберет путь жесткого контроля, она рискует отстать в гонке за создание качественных наборов данных, оставшись наблюдателем, вынужденным адаптироваться под чужие стандарты.

Важный нюанс: Суверенитет над данными в 2026 году — это не только право хранить информацию, но и способность диктовать условия её использования. Конфликт между этическими кодексами корпораций и требованиями государств решается через сложные инфраструктурные посредники, размывая прямую ответственность за конечные действия алгоритмов.

В условиях, когда данные определяют поведение моделей и формируют мировоззрение в глобальном масштабе, необходимость в детальном анализе текущих тенденций становится критической. Ситуация требует постоянного мониторинга, так как границы между техническими решениями и геополитическими последствиями продолжают стираться. Следующий этап развития ИИ будет определяться не столько мощностью вычислений, сколько способностью контролировать потоки данных в условиях гибридных экосистем и автономных агентов.

Коротко о главном

Как формируются три основных геополитических блока в сфере ИИ?

США лидируют за счет частного капитала и инноваций, Китай опирается на государственный контроль и масштаб данных населения, а Европа пытается балансировать между строгим регулированием и инновациями. Такое разделение создает фрагментированный ландшафт, где страны без доступа к ресурсам рискуют остаться лишь наблюдателями.

Почему соглашения между корпорациями и государствами, как Palantir и Великобритания, вызывают опасения?

Передача доступа к персональным данным системы здравоохранения коммерческому субъекту означает фактический переход контроля над информацией в частные руки. Это усугубляется судебными спорами с медиакомпаниями, чей контент используется для обучения моделей без должной правовой защиты.

В чем заключается суть «алгоритмической дипломатии» по мнению Кейт О’Нил?

Этот процесс использует заложенную в системах логику и стимулы для формирования трансграничных нарративов без прямого участия человека на каждом этапе. В результате пользователи, полагаясь на ИИ как на основной источник знаний, неосознанно адаптируются к навязанной картине мира.

Почему кураторство данных важнее, чем создание самих моделей?

Отбор и фильтрация информации определяют, какие истории и языки становятся нормой, что радикально меняет выходные результаты даже при простой смене источника. Поскольку модели можно скопировать, а уникальные проприетарные наборы данных — нет, именно они станут главным фактором победы в следующей стадии конкуренции.

Какую роль играет ядерная энергетика в развитии инфраструктуры ИИ?

Растущие потребности дата-центров в энергии возрождают дискуссии о возобновлении использования атомной генерации как единственного ответа на масштабный спрос. Однако реализация этих планов сталкивается с социальным сопротивлением из-за экологических рисков и вопросов потребления ресурсов.

Почему эксперты предлагают создать аналог договора SALT для ИИ?

В условиях, когда международное сотрудничество затруднено страхом перед преимуществом противника, необходимо установить пределы развития технологий, чтобы избежать неконтролируемой гонки. В отличие от ядерного оружия, ИИ формирует само восприятие реальности, что делает его конкуренцию еще более опасной.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Бизнес; Право и регулирование; Управление и стратегия; Государственное управление и общественная сфера; Энергетика

Оценка значимости: 7 из 10

Текст описывает фундаментальный сдвиг в глобальной геополитике, где контроль над данными становится ключевым фактором власти, что напрямую затрагивает технологический суверенитет и информационную безопасность России. Глобальный масштаб события, затрагивающий экономику, политику, образование и социум, в сочетании с долгосрочными и необратимыми последствиями формирования новых мировых блоков, определяет высокую значимость для российской аудитории, особенно в контексте необходимости адаптации к новым правилам «алгоритмической дипломатии» и защиты национальных цифровых активов.

Материалы по теме

ИИ-сводки убедительнее человеческих: риск принятия решений на основе искаженных фактов

Данные о том, что ИИ-сводки усваиваются эффективнее человеческих текстов, стали эмпирическим обоснованием концепции «алгоритмической дипломатии», демонстрируя, как высокая убедительность машинной генерации создает риск скрытого формирования глобальной повестки и требует новых протоколов верификации.

Подробнее →
Скандал Cursor: молчание о китайской базе угрожает репутации компании

Кейс с моделью Composer 2, построенной на базе китайского кода Moonshot AI, служит конкретным доказательством формирования гибридных экосистем, где легальное использование открытой архитектуры размывает границы между национальными технологическими лагерями и вынуждает компании балансировать между скоростью выхода на рынок и прозрачностью стека.

Подробнее →
Китайские открытые модели ИИ: скрытая угроза безопасности и удешевление корпоративных решений

Утверждение о том, что стратегия открытых моделей создает саморазвивающееся преимущество, неуязвимое для экспортных ограничений, подкрепляет тезис о «невидимом проникновении» китайских решений в западный бизнес, показывая, как низкая стоимость и доступность превращаются в инструмент обхода санкций и создания новых рисков безопасности.

Подробнее →
Автономные агенты ИИ: традиционные системы защиты не видят утечек данных

Факт о неспособности традиционных систем защиты отслеживать многошаговые цепочки вызовов автономных агентов иллюстрирует сдвиг угроз от блокировки промптов к потере контроля над потоками данных, обосновывая необходимость перехода к аудиту каждого промежуточного этапа работы ИИ в реальном времени.

Подробнее →
Дефицит памяти и сдвиг в ИИ: рост цен на ПК на 30%

Информация о переориентации вендоров на серверный сегмент и дефиците компонентов для потребительских ПК усиливает аргумент о нарастающем экономическом неравенстве, показывая, как концентрация ресурсов у технологических гигантов ограничивает доступ к передовым инструментам для малого бизнеса и закрепляет монополию на данные.

Подробнее →
Запрет ИИ от Anthropic в Пентагоне: потеря 200 миллионов долларов контракта из-за этических ограничений

Ситуация с конфликтом Anthropic и Пентагона, где этические запреты сталкиваются с требованиями суверенитета, раскрывает роль инфраструктуры Palantir как ключевого посредника, позволяющего обходить моральные барьеры разработчиков и внедрять модели в засекреченные системы, размывая прямую ответственность за их применение.

Подробнее →
Британия пересматривает зависимость от американских технологий

Пример зависимости Великобритании от американских поставщиков в критических системах служит иллюстрацией геополитических уязвимостей, демонстрируя, как доверие к иностранным гигантам может быть мгновенно расторгнуто, что вынуждает страны пересматривать стратегии цифровой инфраструктуры для обеспечения национальной устойчивости.

Подробнее →