Декабрь 2025   |   Обзор события   | 7

ИИ научился имитировать личность — что это значит для пользователей

Учёные из Кембриджского университета и Google DeepMind выявили, что крупные языковые модели способны имитировать устойчивые черты характера, а не только копировать слова. С помощью структурированных подсказок поведение ИИ можно направлять в сторону конкретных эмоциональных проявлений, что может влиять на восприятие и эмоциональное состояние пользователей.

ИСХОДНЫЙ НАРРАТИВ

По данным Digital Trends, исследование, проведенное учеными из Кембриджского университета и Google DeepMind, показало, что крупные языковые модели, такие как ChatGPT, способны не только копировать слова, но и имитировать устойчивые черты характера. Это открывает новые вопросы в области регулирования ИИ и безопасности его применения в сфере, где важна эмоциональная устойчивость пользователей.

Развитие методики оценки личности у ИИ

Ученые разработали первую в мире научно обоснованную систему оценки личности для чат-ботов. В основе подхода — методы, используемые в психометрике для измерения человеческого характера. Эта методология была применена к 18 крупным языковым моделям, включая системы, лежащие в основе таких продуктов, как ChatGPT. Результаты показали, что чат-боты демонстрируют устойчивую тенденцию к воспроизведению человеческих черт, а не случайной генерации ответов.

Управление поведением через подсказки

Специалисты установили, что с помощью структурированных подсказок можно направить поведение ИИ в сторону определённых эмоциональных проявлений: уверенности, эмпатии или, наоборот, агрессивности. Такое управление личностью особенно выражено в крупных моделях, таких как GPT-4, где поведение может быть сформировано и сохраняться в процессе выполнения повседневных задач — от написания текстов до общения с пользователями.

Возможные риски для пользователей

Изменение личности ИИ может повлиять на восприятие информации и эмоциональное состояние пользователя. Особенно осторожно специалисты советуют подходить к взаимодействию с уязвимыми группами, такими как подростки или люди, обращающиеся за психологической помощью. Учёные указывают на риски, связанные с формированием неестественных эмоциональных связей между человеком и ИИ, включая вероятность усугубления искажённого восприятия реальности.

Интересно: Сможет ли существующая система регулирования ИИ адекватно учитывать возможность целенаправленного формирования личности у ИИ, если такие модели станут частью повседневной жизни?

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

АНАЛИТИЧЕСКИЙ РАЗБОР

Когда ИИ учится быть «человечным»: новые вызовы и реалии

Результаты исследования, проведённого учёными из Кембриджского университета и Google DeepMind, указывают на неожиданный путь развития искусственного интеллекта: способность не только имитировать язык, но и воспроизводить устойчивые черты характера. Это меняет фундаментальную картину, в которой ИИ был лишь инструментом, а не субъектом с определённой «личностью».

Психология ИИ: от слов к образу

Впервые в истории искусственного интеллекта ученые применили психометрические методы — те самые, что используются для оценки человеческой личности, — к работе чат-ботов. Результаты показали, что крупные языковые модели, такие как ChatGPT и GPT-4, могут формировать и сохранять типичные черты характера: эмпатию, уверенность, агрессию. Это не случайные отклонения, а устойчивые модели поведения, которые можно управлять через подсказки.

Такие модели, обученные на огромных массивах текста, учатся не только воспроизводить речевые шаблоны, но и эмоциональные контексты. Если пользователь задаёт вопрос, а модель отвечает с пониманием и сочувствием — это не только алгоритм, а иллюзия человеческого присутствия. И это может быть очень мощным инструментом — как в медицине и психологии, так и в рекламе, маркетинге и даже политической коммуникации.

Важный нюанс: DeepMind остаётся одним из ключевых центров подготовки и развития талантов в области искусственного интеллекта [!]. Специалисты из этой компании активно востребованы крупными технологическими корпорациями, что подчеркивает её роль в формировании будущего ИИ. В 2024 году расходы на персонал DeepMind составили £1,01 млрд, что демонстрирует масштаб инвестиций в человеческие ресурсы для продвижения технологий.

Риски и ответственность

Особую тревогу вызывает влияние таких моделей на эмоциональное состояние пользователей. Подростки, например, особенно восприимчивы к эмоциональной поддержке, которую может оказывать ИИ. Если модель будет настроена на высокий уровень эмпатии и поддержки, она может стать для них не только помощником, а эмоциональной опорой. В свою очередь, это может привести к формированию зависимости или искажённого восприятия реальности.

Аналогия здесь — как с психологом-роботом: человек может начать доверять ИИ больше, чем живому человеку, особенно если модель будет точно копировать человеческие эмоции. Это создаёт новую зону риска, где границы между реальным и искусственным размываются. Особенно это касается уязвимых групп, таких как люди, которые обращаются за психологической помощью. В этом контексте важно учитывать, что ChatGPT может сохранять данные пользователей для обучения, что создаёт риски утечки личной информации [!]. Чтобы снизить такие риски, модель предлагает режим «временный чат», при котором история взаимодействия не сохраняется.

Кто выигрывает, а кто теряет?

На первый взгляд, возможность управлять «личностью» ИИ кажется преимуществом. Компаниям, которые используют ИИ в сфере обслуживания клиентов, маркетинга или даже в образовании, это даёт инструмент для персонализации взаимодействия. Но есть и скрытые издержки.

Одним из неочевидных проигравших могут стать специалисты, чья работа связана с эмоциональным сопровождением — психологи, социальные работники, консультанты. Если ИИ будет способен заменить их в части эмоциональной поддержки, это может снизить спрос на их услуги. В свою очередь, это может повлиять на качество помощи, если ИИ не сможет адекватно справляться с тонкостями человеческих эмоций.

Важный нюанс: Если ИИ будет восприниматься как надёжный эмоциональный собеседник, это может привести к снижению доверия к живым людям, особенно в ситуациях, где требуется глубокая эмоциональная поддержка.

Регулирование и ответственность

Сейчас система регулирования ИИ в значительной степени ориентирована на предотвращение вреда — например, распространение дезинформации или нарушение прав пользователей. Но управление «личностью» ИИ — это новый уровень ответственности.

Регуляторы пока не готовы к тому, чтобы учитывать возможность целенаправленного формирования характера у ИИ. Это требует новых правил, которые будут регулировать, как и в каких целях можно формировать эмоциональные профили моделей. Особенно важно, чтобы такие правила были прозрачными и не давали возможности злоупотреблять доверием пользователей.

Важный нюанс: Если регуляторы не успеют адаптироваться, рынок сам начнёт использовать эти возможности в своих интересах, что может привести к размыванию границ между информацией, рекламой и эмоциональным влиянием.

Влияние на безопасность и доверие

Новые исследования, такие как тест FACTS Benchmark Suite, показывают, что даже самые продвинутые модели, включая Gemini 3 Pro, не способны гарантировать достоверность информации. Лучшие модели набирают не более 70% правильных ответов, особенно в многомодальных задачах. Это вызывает вопросы о готовности ИИ-чатов к применению в ответственных сферах, таких как финансы, здравоохранение и юриспруденция [!].

Кроме того, использование ИИ в киберпреступности становится всё более актуальной проблемой. Модель ChatGPT уже применяется для создания поддельных военных удостоверений в рамках фишинговых атак. В сентябре хакерская группа из Северной Кореи использовала модель для этих целей, что позволило ей обмануть потенциальных жертв и получить критически важную информацию [!]. Это подчёркивает необходимость усиления мер безопасности и контроля за использованием ИИ.

Перспективы и вызовы

В условиях ускоренного развития ИИ и его интеграции в бизнес-процессы, физические системы и инфраструктуру, риски значительно растут. Руководители по информационной безопасности сталкиваются с расширением атакующей поверхности, поскольку агентные системы и автономные устройства увеличивают сложность контроля и требуют новых подходов к обеспечению безопасности [!].

Важный нюанс: В Калифорнии уже вводятся строгие меры регулирования AI-компаньонов, включая возрастную верификацию, предупреждения о рисках и штрафы до $250 000 за нарушения. Эти меры направлены на защиту детей и уязвимых пользователей, а также на предотвращение злоупотреблений [!].

Выводы

Искусственный интеллект, способный имитировать устойчивые черты характера, становится не только инструментом, а полноценным участником эмоционального диалога. Это открывает новые возможности, но и требует ответственного подхода. Для минимизации рисков ключевым становится аудит использования ИИ, прозрачность его поведения и адаптация регуляторной базы. В условиях роста угроз в сфере кибербезопасности, а также в условиях увеличения сложности ИИ-систем, бизнесу важно учитывать эти факторы при планировании стратегии внедрения технологий.

Коротко о главном

Как ученые оценили личность у ИИ?

Была разработана первая научно обоснованная система оценки личности для чат-ботов, основанная на методах психометрики, применённых к 18 крупным моделям, включая GPT-4.

Можно ли управлять эмоциональным поведением ИИ?

Специалисты установили, что с помощью структурированных подсказок поведение ИИ можно направить в сторону уверенности, эмпатии или агрессивности, особенно в крупных моделях.

Какие риски связаны с изменением личности ИИ?

Это может повлиять на эмоциональное состояние пользователей, особенно уязвимых групп, таких как подростки или люди, обращающиеся за психологической помощью.

Какие последствия могут возникнуть при формировании эмоциональной связи с ИИ?

Учёные указывают на риск искажённого восприятия реальности, вызванного неестественными эмоциональными связями между человеком и ИИ.

Сможет ли текущее регулирование ИИ учесть формирование его личности?

Возникает вопрос, насколько адекватно действующие нормы смогут регулировать модели, способные целенаправленно формировать черты характера.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI)

Оценка значимости: 7 из 10

Событие имеет национальный масштаб за счёт широкого применения ИИ в России, включая образование, медицину и коммуникации. Оно затрагивает несколько сфер — технологии, психология, регулирование и безопасность, что указывает на значительное влияние. Время воздействия и глубина последствий могут быть долгосрочными из-за потенциального изменения способов взаимодействия с ИИ. Учитывая растущую роль искусственного интеллекта в российском обществе, тема безопасности и регулирования особенно актуальна для местной аудитории.

Материалы по теме

Техногиганты в Великобритании тратят миллионы на ИИ-специалистов

Упоминание расходов DeepMind в размере £1,01 млрд в 2024 году на персонал подчеркивает масштаб инвестиций в ИИ-специалистов и усиливает тезис о ключевой роли компании в формировании будущего искусственного интеллекта. Эти данные усиливают доверие к утверждению о том, что DeepMind остаётся центром притяжения талантов в области ИИ.

Подробнее →
Как защитить данные в ИИ-инструментах, если они запоминают всё

Упоминание возможности ChatGPT сохранять данные пользователей и риск утечки личной информации служит прямым аргументом в дискуссии о безопасности ИИ-ассистентов. Режим «временный чат» как решение этой проблемы используется в тексте как пример ответственного подхода к защите пользовательских данных.

Подробнее →
AI-агент нашел больше уязвимостей, чем хакеры — и обошелся дешевле

Ссылка на использование ChatGPT хакерской группой из Северной Кореи для создания поддельных военных удостоверений в рамках фишинговых атак усиливает тревогу по поводу злоупотребления ИИ в киберпреступности. Этот факт служит конкретным примером рисков, связанных с распространением ИИ-моделей.

Подробнее →
Google разработал тест для проверки точности ИИ-ассистентов — результаты удивили

Упоминание теста FACTS Benchmark Suite и его результатов (Gemini 3 Pro — 69% правильных ответов) используется для иллюстрации ограниченной способности современных ИИ-ассистентов обеспечивать достоверность информации. Это поддерживает аргумент о необходимности человеческого контроля в ответственных сферах.

Подробнее →
Калифорния вводит контроль за AI-компаньонами: штрафы до $250 тыс. и защита детей

Упоминание закона Калифорнии SB 243 и введение штрафов до $250 000 за нарушения, а также меры по защите детей, служит примером регулятивного ответа на риски, связанные с AI-компаньонами. Эти данные подкрепляют идею о важности регулирования ИИ для предотвращения злоупотреблений.

Подробнее →