ИИ меняет наше мышление: риск «антиинтеллекта» и эрозия когнитивных навыков
Эксперт Джон Носта называет современные языковые модели искусственного интеллекта «антиинтеллектом», поскольку они обрабатывают информацию математически, а не через контекст, опыт и логику, как человек. Академическая среда отмечает, что регулярное использование ИИ для выполнения задач создаёт иллюзию понимания и уменьшает потребность в самостоятельном анализе.
По данным Business Insider, дискуссия вокруг искусственного интеллекта (ИИ) всё чаще выходит за рамки технологических аспектов и затрагивает фундаментальные вопросы человеческого мышления. В центре внимания — утверждение, что ИИ может не только помогать, но и искажать естественные паттерны когнитивной активности. Эксперт в области инноваций Джон Носта, основатель NostaLab, называет современные большие языковые модели «антиинтеллектом», поскольку они функционируют противоположно способу, которым человек приходит к пониманию.
Что такое «антиинтеллект»?
Джон Носта подчёркивает, что искусственный интеллект не воспринимает информацию так, как это делает человек. Например, когда человек думает об объекте — скажем, о яблоке — он связывает его с пространством, временем, личным опытом и культурным контекстом. В отличие от этого, языковая модель воспринимает слово как математический объект в многомерном пространстве, ищет статистически значимые паттерны и формирует ответ, оптимизированный на синтаксическую и семантическую связность.
«Яблоко не существует как яблоко, — объясняет Носта. — Оно существует как вектор в гиперпространстве». Это означает, что ИИ не рассуждает, а находит наиболее вероятное продолжение текста, основываясь на данных, на которые была обучена модель.
Изменение паттернов мышления
Носта отмечает, что ИИ меняет последовательность мышления, которая у человека традиционно выглядит как: сначала возникает путаница, затем — поиск, формирование структуры и, наконец, уверенность. ИИ, напротив, сразу предлагает структурированный и гладкий ответ, что создаёт иллюзию понимания.
«С ИИ мы начинаем с структуры, с уверенности, и лишь затем — с осознания, — говорит он. — Это противоречит естественному ходу мышления». Такой подход, по мнению эксперта, снижает необходимость в критическом мышлении, исследовании и самостоятельном анализе.
Риски гладких ответов
Самый большой риск, по мнению Носты, не в том, что ИИ будет превосходить человека в вычислениях, а в том, что он может заменить важные этапы мышления. «То, что кажется трудным — сомнения, недоговорённости, неопределённость — это то, что формирует наше понимание и развитие», — отмечает он.
Компании, активно внедряющие ИИ в процессы анализа, написания и принятия решений, рискуют спутать скорость и плавность ответов с глубиной мышления. Если ИИ используется как инструмент, он может усилить человеческое мышление. Если же он становится заменой, то, по мнению Носты, он может его ослабить.
Растущие опасения в академической среде
Подобные опасения разделяют и исследователи. Так, издание Oxford University Press в недавнем отчёте указало, что использование ИИ учащает темп выполнения задач, но снижает глубину мышления у студентов. Отмечается, что регулярное обращение к ИИ для написания текстов или выполнения заданий уменьшает потребность в самостоятельном анализе и критическом осмыслении информации.
Аналогичный вывод содержится в отчёте Work AI Institute, который показывает, что генеративный ИИ создаёт иллюзию экспертизы, делая пользователей более уверенными в своих силах, даже если их базовые навыки постепенно утрачиваются.
Мехди Париави, генеральный директор Международной ассоциации по управлению данными, отмечает, что неправильное использование ИИ приводит к «тихой эрозии когнитивных способностей». «Если вы начинаете верить, что ИИ пишет лучше вас и думает умнее, вы теряете уверенность в себе», — говорит он.
Интересно: Сможет ли человек сохранить критическое мышление и навыки анализа в условиях, когда ИИ предоставляет готовые, структурированные и авторитетно звучащие ответы, исключая этапы исследования и сомнения?

Когда ИИ становится «антиинтеллектом»: глубинные риски и реалии внедрения
Как машины меняют логику человеческого мышления
Искусственный интеллект всё чаще выступает не как инструмент, а как фильтр, через который люди начинают воспринимать информацию. Эксперт Джон Носта описывает современные большие языковые модели как «антиинтеллект» — не потому, что они неумны, а потому, что их способ обработки данных противоположен человеческому. В то время как человек мыслит в контексте, через опыт и сомнения, ИИ работает с абстракциями, векторами и статистикой. Это не только техническая разница — это сдвиг в самом процессе познания.
Когда человек думает о яблоке, он связывает его с воспоминаниями, вкусом, текстурой, культурными символами. Языковая модель же видит яблоко как точку в многомерном пространстве — математический объект, оторванный от контекста. Такой подход эффективен для генерации текста, но он рискует упрощать сложность мышления, уменьшая потребность в исследовании, анализе и критике.
Важный нюанс: ИИ не учится, как человек — он не переживает сомнения, не формирует понимание через опыт. Он находит наиболее вероятное продолжение текста, и это создаёт иллюзию глубины, где на самом деле её нет.
Риски гладких ответов и тихая эрозия когнитивных навыков
Опасность ИИ не в его мощности, а в том, что он становится заменой для естественных процессов мышления. Джон Носта подчёркивает: человеку свойственен путь от сомнения к уверенности, от хаоса к структуре. ИИ же сразу предлагает структурированный ответ — и этим подавляет этапы, которые формируют реальное понимание.
В академической среде уже начали замечать последствия. Использование ИИ для написания текстов и решения задач ускоряет выполнение, но снижает уровень критического мышления. Студенты, которые регулярно полагаются на ИИ, начинают меньше анализировать, меньше сомневаться и больше доверять готовым ответам. Это не только потеря навыков — это сдвиг в том, как люди воспринимают знания.
Важный нюанс: Если ИИ становится заменой, а не инструментом, он может не только не усилить мышление, но и ослабить его, создавая иллюзию экспертизы, где на самом деле её нет.
Что дальше: баланс между скоростью и глубиной
Для российского бизнеса и образовательной среды особенно важно понимать, как ИИ влияет на когнитивные процессы. В условиях, где скорость и эффективность становятся приоритетами, есть риск, что ИИ будет использоваться не как вспомогательный инструмент, а как основной. Это может привести к снижению качества аналитики, к упрощению мышления и к потере навыков, которые невозможно заменить алгоритмами.
Однако ИИ не обязательно должен быть «антиинтеллектом». Если его использовать как средство для расширения возможностей, а не для замены, он может стать мощным усилителем человеческого мышления. Задача — не только внедрить ИИ, а научиться им правильно пользоваться, сохраняя этапы исследования, анализа и сомнения как часть процесса познания.
Важный нюанс: ИИ не должен заменять мышление, он должен его поддерживать. Ответ на вопрос, как сохранить критическое мышление в эпоху ИИ, лежит не в отказе от технологии, а в осознанном её использовании.
Распространённые риски в реальном применении
Внедрение ИИ в повседневные процессы уже приводит к заметным изменениям. По данным исследования, проведённого в 2025 году, искусственный интеллект всё чаще становится частью инфраструктуры, встроенной в операционные процессы и системы безопасности [!]. В таких организациях, где ИИ временно отключали, отмечали снижение скорости работы и рост фрустрации, что свидетельствует о его переходе от экспериментальной фазы к стадии зависимости.
Особенно значимый риск связан с тем, что ИИ может подавлять когнитивную активность. Например, в сфере разработки программного обеспечения использование ИИ снижает уровень критического мышления у пользователей. Исследование MIT показало, что студенты, писавшие эссе с помощью ИИ, демонстрировали меньшую активность мозга и худшие результаты в воспроизведении информации [!]. Это снижение вовлечённости может негативно повлиять на качество и безопасность разрабатываемых решений, особенно если разработчики полагаются на ИИ вместо самостоятельного анализа.
Влияние на нагрузку и профессиональные риски
Другой важный аспект — влияние ИИ на нагрузку работников. Вместо снижения рабочих обязанностей, автоматизация рутинных задач смещает фокус на управление ИИ-системами, что требует новых компетенций в области проблемного решения и эмоциональной устойчивости. При этом рост ответственности часто сопровождается снижением оплаты, что повышает риск стресса и выгорания, особенно если ИИ-системы становятся автономными и их ошибки трудно выявить [!].
Перспективы и стратегии
Для российского бизнеса важно учитывать, что глобальное внедрение ИИ продолжает расти, особенно в странах с развитой экономикой, где уровень использования вдвое превышает показатель развивающихся стран. Рост популярности китайской платформы DeepSeek в Африке указывает на расширение влияния Китая на мировом рынке ИИ [!]. Это требует адаптации внутренних стратегий, включая инвестиции в обучение персонала и развитие собственных ИИ-решений.
В условиях роста зависимости от ИИ, бизнесу необходимо сохранять баланс между скоростью и глубиной мышления. Это включает в себя:
- Регулярную оценку качества решений, принимаемых с участием ИИ.
- Внедрение практик, поддерживающих критическое мышление и самостоятельный анализ.
- Обучение сотрудников работе с ИИ как с инструментом, а не как с заменой.
- Разработку внутренних стандартов, регулирующих использование ИИ в ключевых процессах.
Важный вывод: Успех в эпоху ИИ будет зависеть не от скорости внедрения, а от способности сохранять и развивать человеческое мышление.
Источник: Business Insider