Январь 2026   |   Обзор события   | 7

ИИ меняет наше мышление: риск «антиинтеллекта» и эрозия когнитивных навыков

Эксперт Джон Носта называет современные языковые модели искусственного интеллекта «антиинтеллектом», поскольку они обрабатывают информацию математически, а не через контекст, опыт и логику, как человек. Академическая среда отмечает, что регулярное использование ИИ для выполнения задач создаёт иллюзию понимания и уменьшает потребность в самостоятельном анализе.

ИСХОДНЫЙ НАРРАТИВ

По данным Business Insider, дискуссия вокруг искусственного интеллекта (ИИ) всё чаще выходит за рамки технологических аспектов и затрагивает фундаментальные вопросы человеческого мышления. В центре внимания — утверждение, что ИИ может не только помогать, но и искажать естественные паттерны когнитивной активности. Эксперт в области инноваций Джон Носта, основатель NostaLab, называет современные большие языковые модели «антиинтеллектом», поскольку они функционируют противоположно способу, которым человек приходит к пониманию.

Что такое «антиинтеллект»?

Джон Носта подчёркивает, что искусственный интеллект не воспринимает информацию так, как это делает человек. Например, когда человек думает об объекте — скажем, о яблоке — он связывает его с пространством, временем, личным опытом и культурным контекстом. В отличие от этого, языковая модель воспринимает слово как математический объект в многомерном пространстве, ищет статистически значимые паттерны и формирует ответ, оптимизированный на синтаксическую и семантическую связность.

«Яблоко не существует как яблоко, — объясняет Носта. — Оно существует как вектор в гиперпространстве». Это означает, что ИИ не рассуждает, а находит наиболее вероятное продолжение текста, основываясь на данных, на которые была обучена модель.

Изменение паттернов мышления

Носта отмечает, что ИИ меняет последовательность мышления, которая у человека традиционно выглядит как: сначала возникает путаница, затем — поиск, формирование структуры и, наконец, уверенность. ИИ, напротив, сразу предлагает структурированный и гладкий ответ, что создаёт иллюзию понимания.

«С ИИ мы начинаем с структуры, с уверенности, и лишь затем — с осознания, — говорит он. — Это противоречит естественному ходу мышления». Такой подход, по мнению эксперта, снижает необходимость в критическом мышлении, исследовании и самостоятельном анализе.

Риски гладких ответов

Самый большой риск, по мнению Носты, не в том, что ИИ будет превосходить человека в вычислениях, а в том, что он может заменить важные этапы мышления. «То, что кажется трудным — сомнения, недоговорённости, неопределённость — это то, что формирует наше понимание и развитие», — отмечает он.

Компании, активно внедряющие ИИ в процессы анализа, написания и принятия решений, рискуют спутать скорость и плавность ответов с глубиной мышления. Если ИИ используется как инструмент, он может усилить человеческое мышление. Если же он становится заменой, то, по мнению Носты, он может его ослабить.

Растущие опасения в академической среде

Подобные опасения разделяют и исследователи. Так, издание Oxford University Press в недавнем отчёте указало, что использование ИИ учащает темп выполнения задач, но снижает глубину мышления у студентов. Отмечается, что регулярное обращение к ИИ для написания текстов или выполнения заданий уменьшает потребность в самостоятельном анализе и критическом осмыслении информации.

Аналогичный вывод содержится в отчёте Work AI Institute, который показывает, что генеративный ИИ создаёт иллюзию экспертизы, делая пользователей более уверенными в своих силах, даже если их базовые навыки постепенно утрачиваются.

Мехди Париави, генеральный директор Международной ассоциации по управлению данными, отмечает, что неправильное использование ИИ приводит к «тихой эрозии когнитивных способностей». «Если вы начинаете верить, что ИИ пишет лучше вас и думает умнее, вы теряете уверенность в себе», — говорит он.

Интересно: Сможет ли человек сохранить критическое мышление и навыки анализа в условиях, когда ИИ предоставляет готовые, структурированные и авторитетно звучащие ответы, исключая этапы исследования и сомнения?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Когда ИИ становится «антиинтеллектом»: глубинные риски и реалии внедрения

Как машины меняют логику человеческого мышления

Искусственный интеллект всё чаще выступает не как инструмент, а как фильтр, через который люди начинают воспринимать информацию. Эксперт Джон Носта описывает современные большие языковые модели как «антиинтеллект» — не потому, что они неумны, а потому, что их способ обработки данных противоположен человеческому. В то время как человек мыслит в контексте, через опыт и сомнения, ИИ работает с абстракциями, векторами и статистикой. Это не только техническая разница — это сдвиг в самом процессе познания.

Когда человек думает о яблоке, он связывает его с воспоминаниями, вкусом, текстурой, культурными символами. Языковая модель же видит яблоко как точку в многомерном пространстве — математический объект, оторванный от контекста. Такой подход эффективен для генерации текста, но он рискует упрощать сложность мышления, уменьшая потребность в исследовании, анализе и критике.

Важный нюанс: ИИ не учится, как человек — он не переживает сомнения, не формирует понимание через опыт. Он находит наиболее вероятное продолжение текста, и это создаёт иллюзию глубины, где на самом деле её нет.

Риски гладких ответов и тихая эрозия когнитивных навыков

Опасность ИИ не в его мощности, а в том, что он становится заменой для естественных процессов мышления. Джон Носта подчёркивает: человеку свойственен путь от сомнения к уверенности, от хаоса к структуре. ИИ же сразу предлагает структурированный ответ — и этим подавляет этапы, которые формируют реальное понимание.

В академической среде уже начали замечать последствия. Использование ИИ для написания текстов и решения задач ускоряет выполнение, но снижает уровень критического мышления. Студенты, которые регулярно полагаются на ИИ, начинают меньше анализировать, меньше сомневаться и больше доверять готовым ответам. Это не только потеря навыков — это сдвиг в том, как люди воспринимают знания.

Важный нюанс: Если ИИ становится заменой, а не инструментом, он может не только не усилить мышление, но и ослабить его, создавая иллюзию экспертизы, где на самом деле её нет.

Что дальше: баланс между скоростью и глубиной

Для российского бизнеса и образовательной среды особенно важно понимать, как ИИ влияет на когнитивные процессы. В условиях, где скорость и эффективность становятся приоритетами, есть риск, что ИИ будет использоваться не как вспомогательный инструмент, а как основной. Это может привести к снижению качества аналитики, к упрощению мышления и к потере навыков, которые невозможно заменить алгоритмами.

Однако ИИ не обязательно должен быть «антиинтеллектом». Если его использовать как средство для расширения возможностей, а не для замены, он может стать мощным усилителем человеческого мышления. Задача — не только внедрить ИИ, а научиться им правильно пользоваться, сохраняя этапы исследования, анализа и сомнения как часть процесса познания.

Важный нюанс: ИИ не должен заменять мышление, он должен его поддерживать. Ответ на вопрос, как сохранить критическое мышление в эпоху ИИ, лежит не в отказе от технологии, а в осознанном её использовании.

Распространённые риски в реальном применении

Внедрение ИИ в повседневные процессы уже приводит к заметным изменениям. По данным исследования, проведённого в 2025 году, искусственный интеллект всё чаще становится частью инфраструктуры, встроенной в операционные процессы и системы безопасности [!]. В таких организациях, где ИИ временно отключали, отмечали снижение скорости работы и рост фрустрации, что свидетельствует о его переходе от экспериментальной фазы к стадии зависимости.

Особенно значимый риск связан с тем, что ИИ может подавлять когнитивную активность. Например, в сфере разработки программного обеспечения использование ИИ снижает уровень критического мышления у пользователей. Исследование MIT показало, что студенты, писавшие эссе с помощью ИИ, демонстрировали меньшую активность мозга и худшие результаты в воспроизведении информации [!]. Это снижение вовлечённости может негативно повлиять на качество и безопасность разрабатываемых решений, особенно если разработчики полагаются на ИИ вместо самостоятельного анализа.

Влияние на нагрузку и профессиональные риски

Другой важный аспект — влияние ИИ на нагрузку работников. Вместо снижения рабочих обязанностей, автоматизация рутинных задач смещает фокус на управление ИИ-системами, что требует новых компетенций в области проблемного решения и эмоциональной устойчивости. При этом рост ответственности часто сопровождается снижением оплаты, что повышает риск стресса и выгорания, особенно если ИИ-системы становятся автономными и их ошибки трудно выявить [!].

Перспективы и стратегии

Для российского бизнеса важно учитывать, что глобальное внедрение ИИ продолжает расти, особенно в странах с развитой экономикой, где уровень использования вдвое превышает показатель развивающихся стран. Рост популярности китайской платформы DeepSeek в Африке указывает на расширение влияния Китая на мировом рынке ИИ [!]. Это требует адаптации внутренних стратегий, включая инвестиции в обучение персонала и развитие собственных ИИ-решений.

В условиях роста зависимости от ИИ, бизнесу необходимо сохранять баланс между скоростью и глубиной мышления. Это включает в себя:

  • Регулярную оценку качества решений, принимаемых с участием ИИ.
  • Внедрение практик, поддерживающих критическое мышление и самостоятельный анализ.
  • Обучение сотрудников работе с ИИ как с инструментом, а не как с заменой.
  • Разработку внутренних стандартов, регулирующих использование ИИ в ключевых процессах.

Важный вывод: Успех в эпоху ИИ будет зависеть не от скорости внедрения, а от способности сохранять и развивать человеческое мышление.

Коротко о главном

Как ИИ влияет на последовательность мышления у человека?

ИИ сразу предоставляет структурированный ответ, минуя этапы сомнения и поиска, что создаёт иллюзию понимания и снижает необходимость критического анализа.

Какие риски выделяет Джон Носта при использовании ИИ?

Главный риск — в том, что ИИ может заменить важные этапы мышления, такие как неопределённость и исследование, что может ослабить когнитивные способности человека.

Что показало исследование Oxford University Press о влиянии ИИ на студентов?

Использование ИИ ускоряет выполнение задач, но снижает глубину мышления и уменьшает потребность в самостоятельном анализе и осмыслении информации.

Какой вывод содержит отчёт Work AI Institute о генеративном ИИ?

Он создаёт иллюзию экспертизы у пользователей, повышая их уверенность, даже если их базовые навыки и способности к анализу постепенно утрачиваются.

Как Мехди Париави описывает неправильное использование ИИ?

Это приводит к «тихой эрозии когнитивных способностей», так как пользователи начинают полагаться на ИИ и теряют уверенность в собственных навыках мышления и анализа.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Бизнес; Аналитика и исследования; Персонал и развитие

Оценка значимости: 7 из 10

Обсуждение искусственного интеллекта как «антиинтеллекта» затрагивает ключевые аспекты когнитивного развития, образования и технологического влияния, что делает тему актуальной для широкой аудитории, включая Россию. Вопросы влияния ИИ на мышление и обучение касаются как региональных, так и глобальных тенденций, имеющих долгосрочное значение. Сфера затрагивает образование, технологии, социум и экономику, а рост интереса к теме усиливает её значимость.

Материалы по теме

Глобальный ИИ-рывок: кто лидирует и кто отстает в цифровой гонке

Утверждение, что ИИ становится частью инфраструктуры и вызывает зависимость, подкрепляется примером из практики: в организациях, где ИИ временно отключали, снижалась скорость работы и росла фрустрация. Эти данные усиливают аргумент о переходе ИИ от экспериментальной фазы к стадии системной зависимости, особенно важной для российского бизнеса.

Подробнее →
Искусственный интеллект увеличивает нагрузку на работников, а не снижает

Данные о том, что ИИ увеличивает нагрузку на работников, а не снижает, используются для иллюстрации смещения ролей: вместо упрощения задач, автоматизация требует новых компетенций и повышает психологическую нагрузку. Это поддерживает идею о том, что внедрение ИИ может привести к стрессу и выгоранию, если не сопровождается адекватной поддержкой.

Подробнее →
ИИ в разработке ПО: снижение критического мышления и рост киберугроз

Цитата исследования MIT о снижении активности мозга у студентов, использующих ИИ для написания эссе, используется как ключевой аргумент против упрощения мышления. Эти данные усиливают тревогу о том, что полагание на готовые ответы может подавлять критическое мышление и снизить качество аналитики.

Подробнее →