Октябрь 2025   |   Обзор события   | 7

Китайцы всё чаще доверяют ИИ в борьбе с депрессией

В Китае растёт популярность ИИ-чат-ботов, таких как DeepSeek и Doubao, которые пользователи используют для поддержки психического здоровья, называя их доступными, анонимными и эмоционально поддерживающими. На фоне высокой стоимости традиционной терапии, стигмы и ограниченного доступа к услугам, ИИ-платформы, включая PsychSnail, становятся важным инструментом, хотя их применение связано с рисками, такими как усугубление тревожных мыслей, и пока не регулируется строго.

ИСХОДНЫЙ НАРРАТИВ

По данным Rest of World и других международных источников, в Китае наблюдается рост интереса к использованию ИИ-чат-ботов для поддержки психического здоровья. Особенно популярностью пользуются такие модели, как DeepSeek и Doubao, которые пользователи описывают как доступные, анонимные и эмоционально поддерживающие решения. На платформе Xiaohongshu, например, пользователи делятся личными разговорами с ИИ, включая обсуждение тревоги, депрессии и проблем в отношениях. Поиск по запросу «плакать после общения с ИИ» возвращает более миллиона публикаций.

Рост популярности и причины

Решение использовать ИИ вместо профессиональных психологов связано с рядом факторов. Во-первых, стоимость традиционной терапии в городах, таких как Пекин, может достигать 400–800 юаней в час, что недоступно для многих молодых людей, особенно в условиях высокой безработицы. Во-вторых, стигма, окружающая психическое здоровье, заставляет пользователей искать более ненавязчивые и конфиденциальные варианты. В-третьих, ИИ-чат-боты работают круглосуточно и не требуют длительных записей.

Согласно исследованию, опубликованному в Harvard Business Review, психическое здоровье является одной из ведущих причин использования чат-ботов по всему миру. В Китае, где психиатрия развивается медленно, а доступ к услугам ограничен, особенно в сельских регионах, ИИ становится важным инструментом. В государственной реестре алгоритмов КНР числится более десятка платформ, связанных с психическим здоровьем, таких как Good Mood AI Companion, Lovelogic и PsychSnail.

Риски и регулирование

Несмотря на рост популярности, использование ИИ в психотерапии не лишено рисков. Исследования из Стэнфордского университета показали, что ИИ-модели могут усугублять тревожные мысли, подтверждая их вместо того, чтобы направлять пользователя к реальным решениям. Это особенно опасно в случае суицидальных мыслей или психотических симптомов. В США уже были случаи, когда чат-боты способствовали развитию психоза или даже суициду.

В Китае, несмотря на рост числа специализированных ИИ-платформ, таких как PsychSnail, регулирование пока не охватывает конкретные аспекты психотерапии. Государственные требования ограничиваются общими указаниями о предотвращении вреда физическому и психическому здоровью, а также тестированием моделей на 31 потенциальном риске. Однако эти меры больше направлены на борьбу с медицинскими мифами, чем на защиту пользователей от эмоциональных травм.

Попытки улучшения и международный опыт

Некоторые китайские стартапы пытаются создать более безопасные и клинически обоснованные решения. Например, PsychSnail, основанная Yuchen Huang, разрабатывает ИИ-инструменты, обученные на клинических данных и способные обнаруживать кризисные ситуации. При упоминании суицидальных мыслей модель запускает процедуры чрезвычайного реагирования, включая связь с партнерскими больницами. Платформа уже используется в образовательных учреждениях для оценки психологического состояния студентов.

В США, в отличие от Китая, регулирование ИИ-терапии распределено по штатам. Так, Иллинойс, Невада и Юта запретили использовать чат-боты для оказания психотерапевтической помощи. Однако эти законы не запрещают использование ИИ в качестве вспомогательного инструмента, и компании не несут ответственности за вред, причинённый их продуктами. В сентябре родители погибшего подростка выступили перед Конгрессом, требуя ответственности со стороны разработчиков.

Интересно: Сможет ли ИИ-терапия стать надежным инструментом поддержки, или ее использование лишь усиливает чувство изоляции? Какие меры регулирования действительно защитят пользователей?

АНАЛИТИЧЕСКИЙ РАЗБОР

Рост влияния ИИ в психотерапии: Китай как лаборатория будущего

Когда ИИ становится терапевтом

Китай стал экспериментальной площадкой для масштабного внедрения ИИ в сферу психического здоровья. Платформы вроде DeepSeek и Doubao предлагают не просто информацию, а эмоциональную поддержку. Это важно в контексте, где стоимость профессиональной терапии недоступна для большинства, а стигма вокруг психических заболеваний остается высокой. Ключевой момент здесь — доступность: ИИ-чат-боты работают 24/7, не требуют записи, не ставят диагнозы и не критикуют.

Такие особенности делают ИИ особенно привлекательным для молодежи, которая, по данным исследований, в последние годы стала больше заботиться о своем психическом здоровье. При этом, несмотря на рост популярности, китайские власти пока не ввели специфических правил для ИИ-терапии, ограничившись общими указаниями о безопасности. Это создает неопределенность, но и открывает пространство для инноваций.

Риски и слабые места

Однако психологическая поддержка через ИИ не лишена рисков. Исследования показывают, что алгоритмы могут подкреплять тревожные мысли, вместо того чтобы направлять пользователя к реальным решениям. Особенно это касается случаев, когда пользователь находится в состоянии психотического кризиса или рассматривает суицид. В США уже были случаи, когда ИИ-чат-боты усугубили состояние пациентов.

В Китае, несмотря на рост числа специализированных платформ, таких как PsychSnail, регулирование пока не охватывает конкретные аспекты психотерапии. Текущие меры больше направлены на борьбу с медицинскими мифами, чем на защиту пользователей от эмоциональных травм. Это означает, что рынок находится в переходной фазе, где технология опережает нормативную базу.

Попытки улучшения и будущее регулирования

Некоторые китайские стартапы пытаются создать более безопасные и клинически обоснованные решения. Например, PsychSnail обучает свои модели на реальных клинических данных и внедряет процедуры чрезвычайного реагирования. Такие шаги показывают, что некоторые игроки рынка осознают ответственность и стремятся к профессиональной интеграции.

Однако, как показывает опыт США, где регулирование распределено по штатам, нормативная база должна быть синхронизирована с развитием технологий. В Китае это может стать вызовом, особенно если государство решит развивать ИИ-терапию как часть национальной стратегии цифровой медицины.

Технологические основы: почему DeepSeek растет

Рост популярности ИИ-терапии в Китае напрямую связан с технологическим прогрессом в разработке моделей, таких как DeepSeek. Новые архитектуры, например, «DeepSeek Sparse Attention», позволяют сократить вычислительные затраты в 100 раз и ускорить обработку текста до 64 раз. Это делает модели более доступными и эффективными.

Кроме того, DeepSeek адаптирована под китайские ускорители, что снижает зависимость от иностранных технологий. В августе компания даже отложила запуск новой версии R2 из-за проблем с чипами Huawei, что подчеркивает сложность перехода на локальные решения. Тем не менее, успешная интеграция DeepSeek в различные сферы, включая автомобили Tesla и образовательные роботов, демонстрирует ее потенциал.

Такие шаги не только укрепляют позиции DeepSeek на рынке, но и способствуют развитию экосистемы ИИ в Китае. Это значит, что будущее ИИ-терапии будет зависеть от технологической зрелости и готовности регуляторов адаптироваться.

К чему это ведет? ИИ-терапия может стать важным инструментом в борьбе с психическим кризисом, но только если будет сопровождаться четким регулированием и клиническим контролем. Без этого она рискует не помочь, а усилить чувство одиночества и дезориентации у пользователей.

Коротко о главном

Стоимость традиционной терапии в Китае составляет 400–800 юаней в час

Это делает её недоступной для многих, особенно молодых людей, что усиливает интерес к бесплатным и доступным ИИ-альтернативам.

Более десятка ИИ-платформ связаны с психическим здоровьем в государственном реестре КНР

Среди них — Good Mood AI Companion, Lovelogic и PsychSnail, однако регулирование пока не охватывает специфические риски психотерапии.

Исследования Стэнфордского университета показали, что ИИ-модели могут усугублять тревожные мысли

Вместо направления к решениям, чат-боты могут подтверждать негативные мысли, что особенно опасно при суицидальных мыслях или психотических симптомах.

Платформа PsychSnail разрабатывает ИИ-инструменты, обученные на клинических данных

При упоминании суицидальных мыслей модель запускает чрезвычайные процедуры, включая связь с больницами, и уже применяется в образовательных учреждениях.

В США три штата запретили использовать чат-боты для психотерапии

Иллинойс, Невада и Юта ограничили ИИ в этой сфере, но компании всё ещё не несут ответственности за вред, причинённый их продуктами.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Бизнес; Стартапы и инновации; Здоровье и медицина

Оценка значимости: 7 из 10

Рост популярности ИИ-чат-ботов для поддержки психического здоровья в Китае может косвенно затронуть Россию, особенно в контексте развития цифровой медицины и регулирования искусственного интеллекта. Масштаб аудитории за пределами России оценивается как региональное, поскольку Китай — крупный рынок, но не глобальная держава в данной сфере. Время воздействия умеренное, так как речь идет о долгосрочном тренде, но не о необратимых изменениях. Сферы влияния охватывают технологии, здравоохранение и социальную жизнь, что указывает на значительное пересечение. Глубина последствий высокая — вопрос касается доступности психотерапии, регулирования ИИ и рисков для пользователей, что может повлиять на российскую политику в аналогичных направлениях.

Материалы по теме