Март 2026   |   Обзор события   | 4

Рост использования ИИ: рынок труда ожидает массовых сокращений

Американцы массово внедряют искусственный интеллект в работу, но доверяют ему лишь каждый пятый. Рост использования технологий сталкивается с серьезными рисками: общество опасается сокращения рабочих мест и требует от бизнеса большей прозрачности, а регуляторы пока не сформировали единые правила игры.

ИСХОДНЫЙ НАРРАТИВ

По данным опроса Университета Куиннипиака, опубликованного TechCrunch, в США формируется устойчивый парадокс: использование инструментов искусственного интеллекта растет, тогда как доверие к ним остается на критически низком уровне. Среди почти 1400 респондентов 76% признали, что доверяют ИИ редко или только иногда, в то время как уверенно полагаются на технологии лишь 21%. При этом доля граждан, никогда не пользовавшихся ИИ, сократилась с 33% в апреле 2025 года до 27% сейчас. Люди интегрируют алгоритмы в исследования, написание текстов и анализ данных, но делают это с глубоким скепсисом, а не с убежденностью в надежности результата.

Разрыв между внедрением и восприятием рисков

Основной барьер для массового принятия технологий кроется не в их недоступности, а в психологическом сопротивлении и страхе перед будущим. Лишь 6% опрошенных испытывают сильный энтузиазм по поводу развития ИИ, тогда как 62% относятся к этому без особого интереса или с негативом. Тревога охватывает 80% населения, причем наибольшую обеспокоенность демонстрируют представители поколений миллениалов и бэби-бумеров, за которыми следует поколение Z.

Более половины респондентов (55%) убеждены, что ИИ принесет больше вреда, чем пользы в повседневной жизни. Только треть верит в положительный сценарий. Негативное восприятие усилилось за последний год на фоне сокращений в технологических гигантах, случаев психических расстройств, связанных с ИИ, и нагрузки на энергосистемы от работы дата-центров.

Вопрос размещения инфраструктуры вызывает массовое сопротивление. 65% американцев выступают против строительства дата-центров для ИИ в своих регионах. Главными аргументами против выступают высокие затраты на электроэнергию и чрезмерное потребление воды. Это указывает на то, что бизнесу придется учитывать не только технологические, но и социальные издержки при расширении мощностей.

Ожидания на рынке труда и реальность

Самый острый конфликт разворачивается вокруг прогнозов занятости. 70% граждан считают, что развитие ИИ приведет к сокращению рабочих мест, тогда как лишь 7% ожидают создания новых вакансий. Эта цифра демонстрирует резкий сдвиг по сравнению с прошлым годом, когда о сокращении говорили 56% респондентов. Наиболее пессимистично настроено поколение Z (родившиеся в 1997–2008 годах): 81% из них предвидят уменьшение количества рабочих мест.

Эти опасения подкрепляются реальными данными рынка. Количество вакансий начального уровня в США упало на 35% с 2023 года. Лидеры отрасли, включая Дарио Амоджи, генерального директора Anthropic, предупреждают о возможности массового вытеснения людей из рабочих процессов.

ПоказательТекущие данныеДанные прошлого года
Доля тех, кто не доверяет ИИ76%
Доля тех, кто не использовал ИИ27%33%
Ожидание сокращения рабочих мест70%56%
Ожидание роста рабочих мест7%13%
Доля миллениалов и бэби-бумеров с тревогойВысокая
Доля поколения Z с тревогойВысокая

Парадоксально, что, несмотря на общий пессимизм относительно рынка труда, большинство работающих граждан не считают, что их личные позиции под угрозой. Только 30% занятых опасаются, что ИИ сделает их работу устаревшей, хотя этот показатель вырос с 21% год назад. Люди склонны прогнозировать ухудшение ситуации в экономике в целом, но не видят себя в зоне непосредственного риска.

Дефицит доверия и регуляторный вакуум

Ключевой причиной кризиса доверия становится восприятие неискренности со стороны корпораций. Две трети респондентов считают, что компании недостаточно прозрачны в вопросах использования ИИ. Столько же граждан полагают, что государственное регулирование в этой сфере остается недостаточным.

Ситуация усугубляется расхождением между уровнями власти. На уровне штатов наблюдается стремление сохранить контроль над правилами игры, в то время как федеральные чиновники и отраслевые лидеры выступают за ограничение полномочий штатов, предлагая более мягкие рамки. Эта неопределенность создает среду, в которой бизнес вынужден действовать без четких ориентиров, а общество чувствует себя незащищенным.

Эксперты подчеркивают, что американцы не отвергают технологии полностью, но посылают сигнал о необходимости изменений. Слишком много неопределенности, слишком мало доверия и регулирования, а также страх перед будущим занятости требуют от индустрии и регуляторов пересмотра подходов. Текущая динамика указывает на то, что без решения проблем прозрачности и социальной ответственности дальнейшее внедрение ИИ может столкнуться с серьезным сопротивлением со стороны общества.

АНАЛИТИЧЕСКИЙ РАЗБОР

Цена доверия: почему этика стала главным активом в эпоху ИИ

Рынок искусственного интеллекта в США демонстрирует парадоксальную динамику: технологии проникают в повседневную жизнь с ускорением, но каждый шаг вперед сопровождается ростом социального отторжения. Опрос Университета Куиннипиака фиксирует, что доля граждан, никогда не пользовавшихся ИИ, сократилась с 33% до 27%, что свидетельствует о неизбежной интеграции алгоритмов. Однако 76% пользователей относятся к этим инструментам с глубоким недоверием. Это не временное колебание настроений, а фундаментальный сдвиг: бизнес сталкивается с ситуацией, когда продукт становится стандартом, но его легитимность в глазах потребителя находится под вопросом.

Ключевая причина кризиса доверия кроется не в абстрактном страхе перед будущим, а в конкретных механизмах работы технологий, которые пользователи начинают понимать. Исследования показывают, что модели запоминают и воспроизводят до 70–76% текста популярных книг, включая защищенные авторским правом произведения [!]. Это ставит под сомнение заявления компаний о безопасности данных и превращает «недоверие» из психологического барьера в обоснованную реакцию на фактическое нарушение прав. Пользователи видят, что их контент может быть «украден» и воспроизведен без согласия, что подрывает саму основу взаимодействия с сервисами.

Ситуация усугубляется сложностью юридических документов. Политики конфиденциальности крупных моделей выросли в объеме на 53% по сравнению с 2019 годом, достигая в среднем 3346 слов [!]. Тексты написаны на уровне университетских курсов, полны неопределенных формулировок вроде «может» или «возможно». Простое заявление о прозрачности перестало работать: когда пользователь не может понять, как обрабатываются его данные, он выбирает дистанцирование.

Этика как драйвер роста: кейс Anthropic

На фоне общего скепсиса рынок демонстрирует неожиданную закономерность: этическая позиция компании перестала быть издержкой и превратилась в мощный инструмент монетизации. Ярким примером стала компания Anthropic. После отказа от сотрудничества с Пентагоном и сохранения этических ограничений на использование своих систем для военных задач, компания столкнулась с потерей контракта на 200 миллионов долларов и запретом на работу с федеральными агентствами [!].

Однако реакция рынка оказалась прямо противоположной ожиданиям регуляторов. Потребители, обеспокоенные рисками использования ИИ в военных целях, массово мигрировали к сервису Claude. Аудитория продукта выросла на 183% за год, количество новых регистраций достигло одного миллиона человек в сутки, а база активных клиентов утроилась [!]. Платные подписчики удвоились, а веб-трафик превысил показатели конкурентов, таких как ChatGPT.

Важный нюанс: В условиях кризиса доверия «этическая позиция» становится главным конкурентным преимуществом. Компании, которые раньше скрывали свои практики, теперь выигрывают, демонстрируя радикальную прозрачность и моральные ограничения. Доверие перестало быть абстрактным понятием и стало товаром, который можно монетизировать.

Этот кейс опровергает тезис о том, что отказ от государственных контрактов ведет к убыткам. Напротив, в эпоху, когда 62% населения относятся к ИИ с негативом, способность компании сказать «нет» определенным сферам применения становится мощным маркетинговым сигналом. Потребители голосуют кошельком за тех, кто разделяет их опасения, превращая моральный выбор в рыночное доминирование.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Физические ограничения и энергетический тупик

Помимо вопросов этики, бизнес сталкивается с жесткими физическими ограничениями инфраструктуры. 65% американцев выступают против строительства дата-центров в своих регионах, опасаясь высоких затрат на электроэнергию и потребления воды. Это сопротивление трансформируется из экологической проблемы в фактор, напрямую влияющий на капитальные затраты и сроки выхода на рынок.

Потребление электроэнергии центрами обработки данных уже составляет около 4% от общего объема в стране и может вырасти до 12% к 2028 году [!]. Дефицит газовых турбин и уязвимость цепочек поставок вынуждают технологических гигантов искать альтернативы. Компании Google, Microsoft, Amazon и Meta⋆ начинают инвестировать в малые ядерные реакторы и термоядерный синтез, чтобы обеспечить свои мощности, несмотря на то, что стоимость такой энергии пока выше традиционной [!].

Игнорирование этих факторов может привести к остановке проектов на этапе согласования. Локальные сообщества обладают реальным рычагом влияния, а отсутствие доступной энергии становится «бутылочным горлышком» для масштабирования. Бизнес вынужден закладывать в сметы не только стоимость оборудования, но и цену социального одобрения, а также инвестиции в новые энергетические решения.

Рынок труда: структурный разрыв вместо массовых увольнений

Самый острый конфликт разворачивается вокруг прогнозов занятости. 70% граждан ожидают сокращения рабочих мест из-за ИИ, тогда как лишь 7% верят в создание новых вакансий. Однако реальность отличается от пессимистичных ожиданий: массовых увольнений пока не происходит, но формируется структурный разрыв между опытными специалистами и новичками.

Автоматизация бьет именно по «слабым пакетам» задач — операциям, которые легко отделить от остального процесса. В ближайшие пять лет ИИ может вытеснить до половины начальных офисных позиций, что создаст дефицит кадров для обучения и усилит неравенство [!]. В то же время, в «сильных» пакетах задач с тесно переплетенными функциями ИИ выступает инструментом повышения эффективности, сохраняя ценность специалиста [!].

Парадокс заключается в том, что большинство работающих граждан не считают свою личную позицию под угрозой. Только 30% опасаются, что их работа станет устаревшей. Люди склонны прогнозировать ухудшение ситуации в экономике в целом, но не видят себя в зоне непосредственного риска. Это создает иллюзию безопасности, которая может исчезнуть, когда автоматизация перейдет от рутинных задач к более сложным функциям.

Стоит учесть: Сокращение вакансий начального уровня разрушает традиционную модель карьерного роста. Компании, откладывающие пересмотр стратегий найма, рискуют столкнуться с нехваткой квалифицированных специалистов среднего звена в будущем, что замедлит инновации.

Регуляторная неопределенность и поиск баланса

Кризис доверия усугубляется расхождением между уровнями власти и сложностью регулирования. Две трети респондентов считают, что государственное регулирование в сфере ИИ остается недостаточным. На уровне штатов наблюдается стремление сохранить контроль, как это происходит в Калифорнии с законопроектом SB 243, устанавливающим жесткие правила для ИИ-компаньонов [!]. В то же время федеральные чиновники и отраслевые лидеры часто выступают за более мягкие рамки, что создает среду неопределенности.

Отсутствие единого стандарта заставляет бизнес тратить ресурсы на адаптацию к разным правилам в разных регионах. Это снижает эффективность инвестиций и замедляет внедрение инноваций. Компании сталкиваются с дилеммой: либо следовать жестким локальным нормам, увеличивая издержки, либо рисковать репутацией и судебными исками.

В долгосрочной перспективе успех будет зависеть от способности индустрии превратить скепсис в конструктивный диалог. Технологии не исчезнут, но их форма и условия внедрения изменятся под давлением общественных запросов. Бизнесу придется учиться работать не только с алгоритмами, но и с человеческими страхами, превращая их в драйверы для создания более ответственных и устойчивых решений. Те, кто сможет предложить прозрачные модели работы и учитывать социальные издержки, получат конкурентное преимущество в условиях, когда доверие становится самым дорогим активом.

Коротко о главном

Какова основная причина негативного восприятия ИИ большинством населения?

55% опрошенных убеждены, что технологии принесут больше вреда, чем пользы, из-за недавних сокращений в технологических гигантах, случаев психических расстройств и нагрузки на энергосистемы от дата-центров.

Почему 65% американцев выступают против строительства дата-центров в своих регионах?

Жители сопротивляются размещению инфраструктуры из-за высоких затрат на электроэнергию и чрезмерного потребления воды, что вынуждает бизнес учитывать социальные издержки при расширении мощностей.

Почему ожидания сокращения рабочих мест из-за ИИ выросли с 56% до 70%?

Резкий рост пессимизма, особенно среди поколения Z (81%), обусловлен реальным падением количества вакансий начального уровня на 35% с 2023 года и предупреждениями лидеров отрасли о массовом вытеснении людей.

Почему большинство работающих граждан не опасаются за свои личные позиции, несмотря на общий пессимизм?

Только 30% занятых считают, что их работа устареет, так как люди склонны прогнозировать ухудшение ситуации в экономике в целом, но не видят себя в зоне непосредственного риска.

Какие факторы стали ключевой причиной кризиса доверия к ИИ-индустрии?

Две трети респондентов указывают на недостаточную прозрачность корпораций и отсутствие эффективного государственного регулирования, что создает ощущение неискренности со стороны бизнеса.

Какое последствие имеет расхождение между властями штатов и федеральным центром в регулировании ИИ?

Стремление штатов сохранить контроль противоречит позиции федеральных чиновников за мягкие рамки, что создает неопределенность и вынуждает бизнес действовать без четких ориентиров.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Бизнес; Аналитика и исследования; Персонал и развитие; Право и регулирование; Государственное управление и общественная сфера

Оценка значимости: 4 из 10

Событие представляет собой региональный социологический тренд в США, отражающий рост скепсиса к искусственному интеллекту и опасений за рынок труда, что косвенно влияет на Россию через глобальные технологические процессы, но не вызывает системных кризисов или прямых изменений в жизни российских граждан, оставаясь в категории наблюдательного интереса без немедленных последствий.

Материалы по теме

Меморизация ИИ: модели запоминают 70% текстов популярных книг

Данные о том, что модели запоминают 70–76% текста популярных книг, стали фактическим обоснованием тезиса о кризисе доверия, превращая абстрактный страх пользователей в рациональную реакцию на реальные нарушения авторских прав и подрывая заявления компаний о безопасности данных.

Подробнее →
Политики конфиденциальности ИИ становятся длиннее и сложнее для понимания

Факт роста объема политик конфиденциальности до 3346 слов и их усложнения до университетского уровня иллюстрирует барьер прозрачности: именно неспособность пользователя понять условия обработки данных толкает его к дистанцированию от технологий, делая формальные заявления о честности неэффективными.

Подробнее →
Запрет ИИ от Anthropic в Пентагоне: потеря 200 миллионов долларов контракта из-за этических ограничений

Информация о потере контракта на 200 миллионов долларов и запрете на работу с федеральными агентствами служит критическим контрапунктом в кейсе Anthropic, демонстрируя, что краткосрочные финансовые потери из-за этической позиции могут быть компенсированы долгосрочным рыночным доминированием.

Подробнее →
Отказ от военных контрактов: этическая позиция Anthropic принесла рост аудитории на 183%

Статистика роста аудитории на 183%, удвоения платных подписчиков и миллиона новых регистраций в сутки служит главным доказательством того, что этический отказ от военных контрактов конвертируется в прямой финансовый успех, превращая моральный выбор в конкурентное преимущество.

Подробнее →
Рост энергопотребления ЦОД в США вызывает опасения роста тарифов

Прогноз роста энергопотребления дата-центрами до 12% к 2028 году на фоне текущего показателя в 4% подчеркивает масштаб инфраструктурного тупика, обосновывая необходимость перехода к альтернативным источникам энергии и объясняя жесткость физических ограничений для бизнеса.

Подробнее →
Ядерные стартапы и дешевые батареи вытесняют газовые турбины из-за дефицита и цены

Упоминание инвестиций Google, Microsoft, Amazon и Meta⋆ в малые ядерные реакторы и термоядерный синтез в условиях дефицита газовых турбин иллюстрирует стратегический сдвиг: технологические гиганты вынуждены закладывать в сметы не только оборудование, но и фундаментальную перестройку энергоснабжения.

Подробнее →
ИИ не сокращает штаты сейчас: офисные новички рискуют потерять работу через пять лет

Данные о риске вытеснения до половины начальных офисных позиций в ближайшие пять лет подтверждают тезис о структурном разрыве на рынке труда, показывая, что автоматизация не ведет к массовым увольнениям сейчас, но создает угрозу для карьерного старта и усиливает неравенство.

Подробнее →
Слабые пакеты задач: рост производительности ведет к сокращению штата

Концепция разделения задач на «слабые» и «сильные» пакеты объясняет парадокс сохранения рабочих мест: автоматизация бьет только по изолированным операциям, тогда как в сложных ролях ИИ выступает инструментом повышения эффективности, сохраняя ценность специалиста.

Подробнее →
Калифорния ограничивает ИИ-компаньонов: новые правила и риски для гигантов

Ссылка на калифорнийский законопроект SB 243 служит конкретным примером регуляторной фрагментации, демонстрируя, как стремление штатов сохранить контроль создает среду неопределенности, вынуждая бизнес адаптироваться к разным правилам и увеличивая издержки.

Подробнее →
⋆ Данная организация или продукт включены в список экстремистских в соответствии с решением суда, вступившим в законную силу. Деятельность запрещена на территории Российской Федерации на основании Федерального закона от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».