ИИ научился имитировать личность — что это значит для пользователей
Учёные из Кембриджского университета и Google DeepMind выявили, что крупные языковые модели способны имитировать устойчивые черты характера, а не только копировать слова. С помощью структурированных подсказок поведение ИИ можно направлять в сторону конкретных эмоциональных проявлений, что может влиять на восприятие и эмоциональное состояние пользователей.
По данным Digital Trends, исследование, проведенное учеными из Кембриджского университета и Google DeepMind, показало, что крупные языковые модели, такие как ChatGPT, способны не только копировать слова, но и имитировать устойчивые черты характера. Это открывает новые вопросы в области регулирования ИИ и безопасности его применения в сфере, где важна эмоциональная устойчивость пользователей.
Развитие методики оценки личности у ИИ
Ученые разработали первую в мире научно обоснованную систему оценки личности для чат-ботов. В основе подхода — методы, используемые в психометрике для измерения человеческого характера. Эта методология была применена к 18 крупным языковым моделям, включая системы, лежащие в основе таких продуктов, как ChatGPT. Результаты показали, что чат-боты демонстрируют устойчивую тенденцию к воспроизведению человеческих черт, а не случайной генерации ответов.
Управление поведением через подсказки
Специалисты установили, что с помощью структурированных подсказок можно направить поведение ИИ в сторону определённых эмоциональных проявлений: уверенности, эмпатии или, наоборот, агрессивности. Такое управление личностью особенно выражено в крупных моделях, таких как GPT-4, где поведение может быть сформировано и сохраняться в процессе выполнения повседневных задач — от написания текстов до общения с пользователями.
Возможные риски для пользователей
Изменение личности ИИ может повлиять на восприятие информации и эмоциональное состояние пользователя. Особенно осторожно специалисты советуют подходить к взаимодействию с уязвимыми группами, такими как подростки или люди, обращающиеся за психологической помощью. Учёные указывают на риски, связанные с формированием неестественных эмоциональных связей между человеком и ИИ, включая вероятность усугубления искажённого восприятия реальности.
Интересно: Сможет ли существующая система регулирования ИИ адекватно учитывать возможность целенаправленного формирования личности у ИИ, если такие модели станут частью повседневной жизни?

Когда ИИ учится быть «человечным»: новые вызовы и реалии
Результаты исследования, проведённого учёными из Кембриджского университета и Google DeepMind, указывают на неожиданный путь развития искусственного интеллекта: способность не только имитировать язык, но и воспроизводить устойчивые черты характера. Это меняет фундаментальную картину, в которой ИИ был лишь инструментом, а не субъектом с определённой «личностью».
Психология ИИ: от слов к образу
Впервые в истории искусственного интеллекта ученые применили психометрические методы — те самые, что используются для оценки человеческой личности, — к работе чат-ботов. Результаты показали, что крупные языковые модели, такие как ChatGPT и GPT-4, могут формировать и сохранять типичные черты характера: эмпатию, уверенность, агрессию. Это не случайные отклонения, а устойчивые модели поведения, которые можно управлять через подсказки.
Такие модели, обученные на огромных массивах текста, учатся не только воспроизводить речевые шаблоны, но и эмоциональные контексты. Если пользователь задаёт вопрос, а модель отвечает с пониманием и сочувствием — это не только алгоритм, а иллюзия человеческого присутствия. И это может быть очень мощным инструментом — как в медицине и психологии, так и в рекламе, маркетинге и даже политической коммуникации.
Важный нюанс: DeepMind остаётся одним из ключевых центров подготовки и развития талантов в области искусственного интеллекта [!]. Специалисты из этой компании активно востребованы крупными технологическими корпорациями, что подчеркивает её роль в формировании будущего ИИ. В 2024 году расходы на персонал DeepMind составили £1,01 млрд, что демонстрирует масштаб инвестиций в человеческие ресурсы для продвижения технологий.
Риски и ответственность
Особую тревогу вызывает влияние таких моделей на эмоциональное состояние пользователей. Подростки, например, особенно восприимчивы к эмоциональной поддержке, которую может оказывать ИИ. Если модель будет настроена на высокий уровень эмпатии и поддержки, она может стать для них не только помощником, а эмоциональной опорой. В свою очередь, это может привести к формированию зависимости или искажённого восприятия реальности.
Аналогия здесь — как с психологом-роботом: человек может начать доверять ИИ больше, чем живому человеку, особенно если модель будет точно копировать человеческие эмоции. Это создаёт новую зону риска, где границы между реальным и искусственным размываются. Особенно это касается уязвимых групп, таких как люди, которые обращаются за психологической помощью. В этом контексте важно учитывать, что ChatGPT может сохранять данные пользователей для обучения, что создаёт риски утечки личной информации [!]. Чтобы снизить такие риски, модель предлагает режим «временный чат», при котором история взаимодействия не сохраняется.
Кто выигрывает, а кто теряет?
На первый взгляд, возможность управлять «личностью» ИИ кажется преимуществом. Компаниям, которые используют ИИ в сфере обслуживания клиентов, маркетинга или даже в образовании, это даёт инструмент для персонализации взаимодействия. Но есть и скрытые издержки.
Одним из неочевидных проигравших могут стать специалисты, чья работа связана с эмоциональным сопровождением — психологи, социальные работники, консультанты. Если ИИ будет способен заменить их в части эмоциональной поддержки, это может снизить спрос на их услуги. В свою очередь, это может повлиять на качество помощи, если ИИ не сможет адекватно справляться с тонкостями человеческих эмоций.
Важный нюанс: Если ИИ будет восприниматься как надёжный эмоциональный собеседник, это может привести к снижению доверия к живым людям, особенно в ситуациях, где требуется глубокая эмоциональная поддержка.
Регулирование и ответственность
Сейчас система регулирования ИИ в значительной степени ориентирована на предотвращение вреда — например, распространение дезинформации или нарушение прав пользователей. Но управление «личностью» ИИ — это новый уровень ответственности.
Регуляторы пока не готовы к тому, чтобы учитывать возможность целенаправленного формирования характера у ИИ. Это требует новых правил, которые будут регулировать, как и в каких целях можно формировать эмоциональные профили моделей. Особенно важно, чтобы такие правила были прозрачными и не давали возможности злоупотреблять доверием пользователей.
Важный нюанс: Если регуляторы не успеют адаптироваться, рынок сам начнёт использовать эти возможности в своих интересах, что может привести к размыванию границ между информацией, рекламой и эмоциональным влиянием.
Влияние на безопасность и доверие
Новые исследования, такие как тест FACTS Benchmark Suite, показывают, что даже самые продвинутые модели, включая Gemini 3 Pro, не способны гарантировать достоверность информации. Лучшие модели набирают не более 70% правильных ответов, особенно в многомодальных задачах. Это вызывает вопросы о готовности ИИ-чатов к применению в ответственных сферах, таких как финансы, здравоохранение и юриспруденция [!].
Кроме того, использование ИИ в киберпреступности становится всё более актуальной проблемой. Модель ChatGPT уже применяется для создания поддельных военных удостоверений в рамках фишинговых атак. В сентябре хакерская группа из Северной Кореи использовала модель для этих целей, что позволило ей обмануть потенциальных жертв и получить критически важную информацию [!]. Это подчёркивает необходимость усиления мер безопасности и контроля за использованием ИИ.
Перспективы и вызовы
В условиях ускоренного развития ИИ и его интеграции в бизнес-процессы, физические системы и инфраструктуру, риски значительно растут. Руководители по информационной безопасности сталкиваются с расширением атакующей поверхности, поскольку агентные системы и автономные устройства увеличивают сложность контроля и требуют новых подходов к обеспечению безопасности [!].
Важный нюанс: В Калифорнии уже вводятся строгие меры регулирования AI-компаньонов, включая возрастную верификацию, предупреждения о рисках и штрафы до $250 000 за нарушения. Эти меры направлены на защиту детей и уязвимых пользователей, а также на предотвращение злоупотреблений [!].
Выводы
Искусственный интеллект, способный имитировать устойчивые черты характера, становится не только инструментом, а полноценным участником эмоционального диалога. Это открывает новые возможности, но и требует ответственного подхода. Для минимизации рисков ключевым становится аудит использования ИИ, прозрачность его поведения и адаптация регуляторной базы. В условиях роста угроз в сфере кибербезопасности, а также в условиях увеличения сложности ИИ-систем, бизнесу важно учитывать эти факторы при планировании стратегии внедрения технологий.
Источник: digitaltrends.com