Апрель 2026   |   Обзор события   | 4

Корпорации привязывают премии к использованию ИИ: рост давления на персонал

Компании превращают использование искусственного интеллекта в обязательное условие для получения премии и карьерного роста, требуя от сотрудников конкретных показателей внедрения технологий. Руководство вводит строгий контроль активности персонала, чтобы подтвердить окупаемость инвестиций, но сталкивается с риском потери доверия и сопротивления со стороны сотрудников, опасающихся за свою профессиональную перспективу.

ИСХОДНЫЙ НАРРАТИВ

По данным Business Insider, крупные корпорации пересматривают систему оценки эффективности сотрудников, чтобы подтвердить окупаемость масштабных вложений в искусственный интеллект. Компании от технологических гигантов до финансовых институтов внедряют новые механизмы контроля и стимулирования, требуя от персонала активного использования ИИ-инструментов. Meta⋆ установила конкретные цели для инженеров по доле кода, созданного с помощью ИИ, и сформировала специальные рабочие группы. В Google менеджеры получили право обязать сотрудников применять ассистентов и агентов в ежедневных задачах. JPMorgan Chase запустил внутренние дашборды, которые отслеживают активность пользователей и делят их на категории: легкие, активные и не использующие инструменты.

Марк Цукерберг в январе заявил инвесторам, что 2026 год станет переломным моментом, когда ИИ кардинально изменит характер работы. Проведение оценки эффективности сотрудников, напрямую связанной с премиями и карьерным ростом, становится основным рычагом давления. Руководство стремится получить подтверждение возврата инвестиций, однако сталкивается с сопротивлением персонала. Сотрудники опасаются, что их работа по обучению алгоритмов приведет к созданию собственных заменителей, а также боятся попасть под волну сокращений, обусловленных автоматизацией. Кроме того, в крупных организациях сложно преодолеть инерцию и изменить устоявшиеся привычки.

Экономическая мотивация и давление на персонал

Компании усиливают требования к сотрудникам по нескольким причинам. Аналитик Эрик Росс из исследовательской фирмы Cascend отмечает, что большинство организаций пока не видят прироста производительности от вложений в ИИ. Брэд Ребак из инвестиционной компании Stifel указывает на страх упустить преимущество перед конкурентами, которые могут быстрее освоить технологии. Для производителей ИИ-инструментов критически важно показать массовое внедрение, чтобы обосновать дальнейшие расходы.

Внутреннее использование собственных продуктов служит сигналом для рынка о том, что компания не отстает в технологической гонке. Инженеры оказываются под наибольшим давлением: в Meta⋆ разработчикам ставят задачи по достижению определенного процента использования ИИ, а в Google использование технологий стало частью должностных обязанностей. Ожидания распространяются и на нетехнический персонал: сотрудников просят применять ИИ для анализа стратегических документов, разборов звонков с клиентами и изучения данных.

В JPMorgan Chase обновленные цели, акцентирующие внимание на владении ИИ, вызвали обеспокоенность на фоне культуры строгого мониторинга данных. Инженеры и технологи отмечают, что ИИ стал неотъемлемой частью их дня, создавая постоянное давление на увеличение объема выпускаемой продукции. Один из сотрудников банка иронично заметил, что все шутят о том, как их дипломы станут бесполезными через пять лет.

История знает примеры сопротивления новым технологиям: во время промышленной революции текстильщики ломали станки, опасаясь потери рабочих мест. Более недавние волны инноваций, от мобильных приложений до электронной коммерции, также встречали сопротивление. Однако ИИ затрагивает практически все роли в организации, что делает задачу адаптации более сложной. Эксперты из Стэнфордского университета и Уортонской школы бизнеса подчеркивают, что для успеха работодателям необходимо корректировать коммуникацию, выстраивать доверие и предлагать реальные стимулы.

Стратегии внедрения и управление рисками

Для запуска процесса адаптации компании используют игровые механики, обучение и отслеживание прогресса. В Meta⋆ проводятся специальные недели трансформации с мастер-классами и экспериментами с инструментами, такими как Claude Code. Сотрудники Google поощряются к тестированию различных агентов, включая внутренний инструмент для программирования под названием Agent Smith. Представитель Meta⋆ подтвердил, что использование ИИ для помощи в повседневных задачах является приоритетом.

По мере роста затрат на запуск ИИ-инструментов появляется новая идея: предлагать вычислительные мощности как часть компенсационного пакета. Доступ к мощным ресурсам становится конкурентным преимуществом, которое компании могут использовать для привлечения и удержания персонала, аналогично акциям и бонусам.

Ситуация усугубляется после громких сокращений. Джефф Дорси в феврале сократил почти половину сотрудников компании Block, ссылаясь на ИИ, а затем объявил о реструктуризации для устранения среднего звена управления. Один из уволенных сотрудников рассказал о тревоге, связанной с использованием инструментов, которые, по их мнению, готовят почву для замены людей.

Скотт С. Снайдер, старший научный сотрудник Уортонской школы, считает, что лучший способ снизить тревожность — показать, как технологии позволяют сотрудникам тратить больше времени на значимые задачи и меньше на рутину. Если предложение сводится лишь к тому, чтобы делать больше с меньшими затратами, это не мотивирует. ИИ должен восприниматься как возможность повысить эффективность каждого сотрудника и умножить его влияние.

Важно давать работникам время на эксперименты без страха наказания. Изменение поведения зависит от навыков и желания. Стимулы, такие как бонусы, признание или система разделения прибыли, где сотрудники получают часть созданной с помощью ИИ ценности, могут ускорить процесс. Без таких мер внедрение может встать. Основная проблема часто кроется не в упрямстве, а в отсутствии доверия. Сотрудники пока не готовы передавать части своих задач алгоритмам. Им необходим личный опыт и момент озарения, после которого процесс пойдет быстрее.

Ситуация на рынке труда требует детального анализа того, как баланс между давлением на производительность и страхом перед автоматизацией будет влиять на долгосрочную стратегию компаний.

АНАЛИТИЧЕСКИЙ РАЗБОР

Цена эффективности: когда инструмент становится надзирателем

Корпоративный мир перешел от экспериментов с искусственным интеллектом к жесткой системе отчетности. Внедрение ИИ больше не рассматривается как опция, а стало обязательным условием сохранения рабочего места. Компании вроде Meta⋆, Google и JPMorgan Chase устанавливают конкретные метрики: долю кода, сгенерированного алгоритмами, или частоту использования внутренних ассистентов. Это фундаментальный сдвиг в корпоративной культуре. Раньше технологии внедряли для ускорения процессов, теперь их внедряют для доказательства окупаемости инвестиций.

За фасадом «оптимизации» скрывается глубокий кризис доверия. Руководство требует от сотрудников подтверждений, что вложенные миллиарды работают, но не всегда предлагает прозрачные механизмы распределения выгоды. Вместо этого формируется система тотального контроля. Дашборды в банках, разбивающие персонал на «активных» и «пассивных» пользователей, превращают ИИ из помощника в инструмент наблюдения. Сотрудники оказываются в ловушке: отказ от использования технологий грозит карьерным застоем, а активное использование создает базу данных, которая в будущем может быть использована для их замены.

Важный нюанс: Требование использовать ИИ для повышения эффективности парадоксальным образом создает угрозу для тех, кто следует этим требованиям, так как их работа становится эталоном для обучения систем, способных их заменить.

Экономика доверия и скрытые издержки контроля

Ситуация напоминает классическую дилемму «агент-принцип», но в цифровую эпоху. Работодатель не может напрямую увидеть, насколько эффективно сотрудник использует ИИ, поэтому вводит внешние метрики. Однако эти метрики часто измеряют не результат, а процесс. В Meta⋆ инженерам ставят цели по проценту кода от ИИ, что может привести к снижению качества продукта ради выполнения плана. В Google менеджеры получают право обязать сотрудников применять агентов, что стирает грань между профессиональным суждением и слепым следованием алгоритму.

Риск заключается в том, что компании фокусируются на краткосрочной видимости эффективности, игнорируя долгосрочные последствия для инноваций. Если инженер знает, что его успех зависит от количества сгенерированного кода, он перестает искать сложные, нестандартные решения, которые требуют времени и не всегда укладываются в метрики «активности». Система поощряет конформизм. Сотрудники начинают работать не на результат, а на дашборд. Это создает иллюзию бурной деятельности, пока реальная производительность может стагнировать или даже падать из-за необходимости постоянно проверять и исправлять ошибки алгоритмов.

Кроме того, возникает проблема «двойного труда». Сотрудник должен не только выполнить задачу, но и задокументировать использование ИИ, чтобы система его засчитала. Это создает скрытые издержки, которые не учитываются в финансовых моделях. Время, потраченное на взаимодействие с интерфейсами контроля, не приносит прямой ценности бизнесу, но становится обязательным налогом на труд. В условиях, когда компании уже сокращают штаты, как это сделал Джефф Дорси в Block, такое давление на оставшихся сотрудников ведет к выгоранию и снижению лояльности.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Кто платит за технологический переход

В этой гонке за эффективность проигрывают не только отдельные сотрудники, но и сама экосистема инноваций. Инженеры и разработчики, оказавшись под прицелом метрик, теряют мотивацию к глубокой проработке архитектуры и созданию устойчивых решений. Они вынуждены ориентироваться на то, что «видит» система контроля. Это может привести к накоплению технического долга: код, написанный с помощью ИИ для выполнения KPI, часто требует больше времени на поддержку и исправление в будущем.

Финансовые институты, такие как JPMorgan Chase, сталкиваются с рисками, связанными с качеством данных. Если сотрудники будут использовать ИИ для анализа стратегических документов или разборов звонков исключительно ради галочки, качество принимаемых решений может ухудшиться. Ошибки алгоритмов, не замеченные из-за спешки, могут привести к репутационным и финансовым потерям. Культура строгого мониторинга данных в банках делает эту проблему особенно острой: любой сбой в логике ИИ, допущенный под давлением сроков, может иметь масштабные последствия.

Более того, компании рискуют потерять лучших специалистов. Талантливые сотрудники, понимающие ценность своего труда, могут уйти в организации, где технологии внедряются как поддержка, а не как инструмент давления. Появление идеи предлагать вычислительные мощности как часть компенсационного пакета — это попытка компенсировать растущее напряжение. Доступ к мощным ресурсам становится новой валютой, но он не решает проблему отсутствия доверия. Если сотрудник чувствует, что его работа используется против него, никакие бонусы не удержат его надолго.

Стоит учесть: Стратегия, основанная на принуждении к использованию ИИ, может привести к парадоксальному результату: компании получат огромные объемы данных о работе сотрудников, но потеряют способность к творческому решению сложных задач, которые не поддаются алгоритмизации.

Иллюзия контроля и реальные драйверы изменений

Глубокий анализ показывает, что давление на персонал часто продиктовано не только технологическим прогрессом, но и стратегическими сдвигами и финансовыми вызовами. В Meta⋆ жесткие требования к эффективности стали следствием масштабной реорганизации 2025 года, когда компания перенаправила ресурсы из метавселенной в ИИ. Создание подразделения Meta⋆ Superintelligence Labs и инвестиции в размере $14 млрд в Scale AI потребовали пересмотра всех внутренних процессов. Сокращение штата на 3,6 тыс. человек и ужесточение метрик стали инструментами перераспределения капитала в пользу новой стратегии, а не просто способом «сэкономить» [!].

В компании Block история выглядит иначе. Официально сокращение почти половины штата связывали с внедрением ИИ и переходом к плоской структуре. Однако данные указывают на то, что реальным драйвером стали финансовые потери: падение стоимости Bitcoin вдвое за полгода и снижение котировок компании на 35%. ИИ в данном случае стал удобным оправданием для реструктуризации бизнеса в условиях кризиса, а не единственной причиной изменений [!]. Это подтверждает тезис о том, что технологические аргументы часто маскируют более прозаические экономические проблемы.

Парадокс контроля усугубляется рисками безопасности. В экосистемах вроде Google автономные агенты функционируют без привязки к конкретным сессиям пользователей. Традиционные системы защиты не видят потоков данных, которые эти агенты перемещают между системами. Компании не знают, какой контент попадает в алгоритмы и где оказываются сгенерированные результаты. Это создает риск системного разглашения коммерческой тайны, так как данные объединяются и передаются дальше без постоянного контроля человека [!]. Таким образом, попытка усилить контроль через ИИ может привести к потере контроля над самими данными.

Итогом становится трансформация рынка труда, где ценность человека определяется его способностью взаимодействовать с алгоритмами, а не его уникальными навыками. Компании, которые не смогут найти баланс между контролем и доверием, столкнутся с ситуацией, когда формальное соблюдение правил не приведет к реальному росту производительности. Успех будет зависеть от того, смогут ли организации переосмыслить роль ИИ: не как замену человеку, а как инструмент, расширяющий его возможности без угрозы его позиции. Без этого внедрение технологий останется лишь затратным проектом по созданию системы надзора, который в долгосрочной перспективе окажется экономически неэффективным.

Важный нюанс: Попытки заменить людей алгоритмами ради экономии часто приводят к обратному эффекту: компании вынуждены возвращать ручной контроль и расширять штат для аудита ошибок ИИ, что сводит на нет первоначальную цель оптимизации.

Коротко о главном

Почему компании связывают оценку эффективности персонала с премиями и карьерным ростом?

Руководство использует этот рычаг давления, чтобы подтвердить окупаемость масштабных инвестиций в искусственный интеллект и получить доказательства возврата вложенных средств.

Какие причины лежат в основе сопротивления сотрудников внедрению ИИ-инструментов?

Персонал опасается, что обучение алгоритмов приведет к созданию их собственных заменителей и попаданию под волну сокращений, обусловленных автоматизацией, что усугубляется инерцией устоявшихся рабочих привычек.

Почему инженеры и нетехнический персонал испытывают повышенное давление со стороны работодателей?

Компании стремятся продемонстрировать рынку массовое внедрение технологий для обоснования дальнейших расходов и сохранения конкурентного преимущества, делая использование ИИ частью должностных обязанностей.

Какие стратегии используют компании для снижения тревожности и стимулирования адаптации?

Организации внедряют игровые механики, проводят специальные недели трансформации с мастер-классами и предлагают доступ к мощным вычислительным ресурсам как часть компенсационного пакета.

Как громкие сокращения в компании Block повлияли на восприятие ИИ сотрудниками?

Сокращение почти половины персонала Джеффом Дорси с прямой ссылкой на ИИ усилило страх сотрудников перед тем, что инструменты автоматизации готовят почву для их замены.

Какие стимулы эксперты предлагают для успешного внедрения ИИ вместо простого давления?

Для ускорения процесса необходимо внедрять систему разделения прибыли, бонусы и признание, а также предоставлять время на эксперименты без страха наказания.

Какой основной барьер препятствует передаче задач алгоритмам, согласно исследователям?

Основная проблема заключается не в упрямстве персонала, а в отсутствии доверия, из-за чего сотрудники не готовы делегировать части своих функций без личного опыта и момента озарения.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Бизнес; Аналитика и исследования; Персонал и развитие; Тренды и кейсы; Управление и стратегия

Оценка значимости: 4 из 10

Событие описывает глобальный тренд в корпоративном управлении и внедрении искусственного интеллекта в западных технологических и финансовых гигантах, который косвенно влияет на российскую аудиторию через долгосрочные изменения мирового рынка труда и технологического ландшафта. Хотя тема ИИ актуальна для России, прямое воздействие описанных мер (KPI по использованию ИИ в Meta, Google, JPMorgan) ограничено иностранными компаниями, не имеющими значительного присутствия или влияния на внутреннюю социальную сферу РФ в данный момент, что снижает глубину последствий для обычного российского гражданина по сравнению с локальными событиями.

Материалы по теме

Meta⋆ масштабно реорганизуется ради искусственного интеллекта

Данные о реорганизации Meta⋆ в 2025 году, включая создание подразделения Meta⋆ Superintelligence Labs, инвестиции в $14 млрд в Scale AI и сокращение 3,6 тыс. человек, служат конкретным доказательством тезиса о том, что жесткие метрики эффективности и перераспределение ресурсов стали инструментом стратегического сдвига, а не просто способом экономии.

Подробнее →
Сокращения ради ИИ: реальный драйвер — ошибки управления и падение акций

Факты о сокращении половины штата в Block на фоне падения стоимости Bitcoin вдвое и снижения котировок компании на 35% используются для деконструкции официальной риторики: они подтверждают, что ИИ часто выступает удобным оправданием для реструктуризации, вызванной реальными финансовыми потерями, а не единственным драйвером изменений.

Подробнее →
Автономные агенты ИИ: традиционные системы защиты не видят утечек данных

Описание уязвимости экосистемы Google, где автономные агенты функционируют без привязки к сессиям и обходят традиционные системы защиты, иллюстрирует парадокс контроля: попытка усилить надзор через алгоритмы создает риск системного разглашения коммерческой тайны из-за потери видимости потоков данных.

Подробнее →
⋆ Данная организация или продукт включены в список экстремистских в соответствии с решением суда, вступившим в законную силу. Деятельность запрещена на территории Российской Федерации на основании Федерального закона от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».