Сентябрь 2025   |   Обзор события   | 7

Боты и ИИ затопили соцсети — Альтман в шоке

Альтман, основатель OpenAI, выразил обеспокоенность тем, что сообщения в подфоруме Reddit могут быть сгенерированы ботами или пользователями, использующими ИИ, что затрудняет определение их истинного автора. Он отметил, что повышение качества генеративных моделей и схожесть поведения участников интернет-сообществ приводит к тому, что часть контента выглядит неестественно, ставя под сомнение его достоверность.

ИСХОДНЫЙ НАРРАТИВ

Сам Альтман, основатель компании OpenAI, и владелец доли в Reddit, выразил обеспокоенность, что ботовые аккаунты и люди, использующие генеративные модели, затрудняют определение, кто именно написал пост в социальных сетях. Это открытие пришло к нему во время просмотра и публикации материалов с подфорума r/Claudecode, где активно обсуждали преимущества сервиса Codex, запущенного OpenAI в мае для программистов. В последнее время в этом подфоруме всё чаще встречались сообщения от пользователей, которые утверждали, что перешли на Codex. Один из пользователей даже шутил: «Можно ли перейти на Codex, не написав пост на Reddit?».

Этот факт привёл Альтмана к мысли, что большинство сообщений в подфоруме могли быть написаны не людьми, а ботами. Он признался в этом на платформе X, отметив, что несмотря на уверенность в росте популярности Codex, он сомневается, насколько эти сообщения отражают реальные действия пользователей.

Причины появления подозрений

Альтман попытался разобрать возможные причины, почему так много сообщений на Reddit и X выглядят подозрительно. Среди них он указал на то, что пользователи начали говорить схожим образом, как это делают генеративные модели. Также он отметил, что активные участники интернет-сообществ склонны к схожим поведенческим паттернам. Влияние маркетинговых циклов, стремление к взаимодействию на платформах и монетизация контента — всё это, по его мнению, способствует тому, что сообщения выглядят неестественно.

Он также подозревает, что некоторые из постов в подфоруме могли быть написаны или заказаны конкурентами OpenAI. В таком случае речь идёт о так называемом «астертофинге» — распространении ложной информации от лица «реальных» пользователей. Хотя доказательств такого влияния нет, подобные действия возможны. Например, после запуска GPT 5.0 в OpenAI подфорумы Reddit и X наполнились негативными постами, в которых критиковали новую версию модели.

Угрозы, исходящие от ИИ

Альтман указывает, что повышение качества генеративных моделей привело к тому, что ИИ стал неотъемлемой частью не только социальных сетей, но и образования, журналистики и даже судебной системы. Компания Imperva сообщила, что в 2024 году более половины интернет-трафика был сгенерирован не людьми. Эксперты полагают, что на платформе X количество ботов могло превышать сотни миллионов.

Появились предположения, что обеспокоенность Альтмана может быть частью маркетинговой стратегии, связанной с запуском социальной сети OpenAI. В апреле стало известно, что компания рассматривает возможность создания такой платформы. Однако пока никаких официальных подтверждений о её существовании нет.

Новые вызовы для будущего

Интересно, что если OpenAI запустит собственную социальную сеть, то, возможно, в ней будет запрещено использование ботов. Однако, как показало исследование, проведённое в Амстердамском университете, даже полностью автоматизированная социальная сеть способна формировать эхо-камеры и группы схожих мнений. Это означает, что даже при отсутствии людей, содержание может выглядеть подозрительно.

Таким образом, проблема не только в ботах, но и в том, как люди используют ИИ для создания контента. Это ставит под вопрос достоверность информации в цифровом пространстве.

АНАЛИТИЧЕСКИЙ РАЗБОР

Паутина алгоритмов: как ИИ меняет логику общения в цифровом пространстве

В последние годы ИИ превратился из инструмента в участника цифровых дискуссий. В социальных сетях, где ранее доминировали живые голоса, всё чаще появляются сообщения, сгенерированные алгоритмами. Это вызывает тревогу даже у тех, кто стоит у истоков этих технологий. Так, Сэм Альтман, основатель OpenAI, заметил, что в подфоруме Reddit, посвящённом сервису Codex, посты могли быть написаны не людьми, а ботами. Это не просто случайность — это часть глобального сдвига, в котором ИИ становится архитектором информационной среды.

Поведенческие шаблоны и мотивы участников

Альтман выделил несколько причин, по которым контент в социальных сетях выглядит неестественно. Среди них — схожие формулировки, маркетинговые циклы, монетизация контента и влияние активных участников. Однако есть и скрытые мотивы: стремление к увеличению трафика, повышению вовлечённости и даже влияние конкурентов. В случае с Codex, например, посты, возможно, были сгенерированы не для обсуждения продукта, а для создания иллюзии его популярности. Это указывает на то, что в цифровом пространстве начинает формироваться новая экономика внимания, где реальность и виртуальность трудно различить.

Системные последствия и парадоксы

Повышение качества генеративных моделей приводит к тому, что ИИ становится частью не только социальных сетей, но и образования, журналистики и правосудия. По данным Imperva, в 2024 году более половины интернет-трафика был сгенерирован ИИ. Это ставит под вопрос саму природу цифровой коммуникации. Даже если OpenAI запустит платформу, где боты будут запрещены, это не исключит формирование эхо-камер — ведь алгоритмы могут имитировать человеческое поведение. Таким образом, проблема не в том, кто пишет, а в том, как информация воспринимается и интерпретируется.

Влияние на российскую реальность

Для России, где цифровизация общества находится на начальной стадии, это развитие событий может стать важным уроком. Рост влияния ИИ на информационное пространство требует пересмотра подходов к цифровой грамотности, медиа-литературе и защите от дезинформации. В условиях, когда даже крупные платформы борются с фейками и ботами, важно создавать собственные механизмы фильтрации и анализа контента. Это особенно актуально, учитывая стремительное внедрение ИИ в образование и государственные услуги.

Выводы и прогнозы

  • Краткосрочные последствия: Рост числа сгенерированных сообщений может привести к снижению доверия к цифровым платформам и увеличению спроса на проверенные источники.
  • Долгосрочные тенденции: Цифровое пространство будет всё больше зависеть от алгоритмов, что потребует новых правил регулирования, стандартов прозрачности и механизмов контроля.
  • Практические шаги: Важно развивать технологии детекции ИИ-сгенерированного контента и повышать уровень цифровой культуры у пользователей.

Таким образом, развитие ИИ в социальных сетях — это не просто техническая инновация, но и системный вызов, который затрагивает не только технологии, но и саму природу общения, доверия и власти в цифровом мире.

Коротко о главном

Альтман заметил подозрительную активность в подфоруме Reddit

— он сомневается, что сообщения отражают реальных пользователей, после чего начал рассматривать роль ботов и ИИ в формировании дискуссий.

Пользователи начали писать похожими фразами

— это совпадает с особенностями генеративных моделей, что вызывает вопросы о том, кем именно создаётся контент.

Альтман усомнился в мотивах активных участников

— он предположил, что поведение может быть связано с маркетингом, желанием взаимодействия или монетизацией.

Возможен «астертофинг» от конкурентов

— сообщения в подфоруме могли быть заказаны, чтобы негативно оценить продукты OpenAI, но доказательств нет.

Большая часть интернет-трафика стала сгенерированной

— по данным Imperva, в 2024 году более половины трафика в сети происходило не от людей, а от ИИ.

OpenAI рассматривает запуск собственной социальной сети

— в ней может быть запрещено использование ботов, но исследования показывают, что даже ИИ-сети могут формировать эхо-камеры.

Проблема касается не только ботов, но и пользователей

— люди всё чаще используют ИИ для создания контента, что ставит под сомнение достоверность цифровой информации.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Маркетинг и продажи; Цифровизация и технологии; Устройства и гаджеты; Государственное управление и общественная сфера; Социальные услуги

Оценка значимости: 7 из 10

Тема роста влияния искусственного интеллекта на социальные сети имеет широкий масштаб, затрагивая множество пользователей в России, особенно в условиях роста популярности ИИ-сервисов и их интеграции в различные сферы жизни. Воздействие события продолжительное, поскольку развитие ИИ — тренд, который будет актуален в ближайшие годы. Событие затрагивает несколько сфер: технологии, медиа и социум, что усиливает его значимость. Глубина последствий высока, так как речь идёт о фундаментальных изменениях в восприятии и использовании информации в интернете.

Материалы по теме