Боты и ИИ затопили соцсети — Альтман в шоке
Альтман, основатель OpenAI, выразил обеспокоенность тем, что сообщения в подфоруме Reddit могут быть сгенерированы ботами или пользователями, использующими ИИ, что затрудняет определение их истинного автора. Он отметил, что повышение качества генеративных моделей и схожесть поведения участников интернет-сообществ приводит к тому, что часть контента выглядит неестественно, ставя под сомнение его достоверность.
Сам Альтман, основатель компании OpenAI, и владелец доли в Reddit, выразил обеспокоенность, что ботовые аккаунты и люди, использующие генеративные модели, затрудняют определение, кто именно написал пост в социальных сетях. Это открытие пришло к нему во время просмотра и публикации материалов с подфорума r/Claudecode, где активно обсуждали преимущества сервиса Codex, запущенного OpenAI в мае для программистов. В последнее время в этом подфоруме всё чаще встречались сообщения от пользователей, которые утверждали, что перешли на Codex. Один из пользователей даже шутил: «Можно ли перейти на Codex, не написав пост на Reddit?».
Этот факт привёл Альтмана к мысли, что большинство сообщений в подфоруме могли быть написаны не людьми, а ботами. Он признался в этом на платформе X, отметив, что несмотря на уверенность в росте популярности Codex, он сомневается, насколько эти сообщения отражают реальные действия пользователей.
Причины появления подозрений
Альтман попытался разобрать возможные причины, почему так много сообщений на Reddit и X выглядят подозрительно. Среди них он указал на то, что пользователи начали говорить схожим образом, как это делают генеративные модели. Также он отметил, что активные участники интернет-сообществ склонны к схожим поведенческим паттернам. Влияние маркетинговых циклов, стремление к взаимодействию на платформах и монетизация контента — всё это, по его мнению, способствует тому, что сообщения выглядят неестественно.
Он также подозревает, что некоторые из постов в подфоруме могли быть написаны или заказаны конкурентами OpenAI. В таком случае речь идёт о так называемом «астертофинге» — распространении ложной информации от лица «реальных» пользователей. Хотя доказательств такого влияния нет, подобные действия возможны. Например, после запуска GPT 5.0 в OpenAI подфорумы Reddit и X наполнились негативными постами, в которых критиковали новую версию модели.
Угрозы, исходящие от ИИ
Альтман указывает, что повышение качества генеративных моделей привело к тому, что ИИ стал неотъемлемой частью не только социальных сетей, но и образования, журналистики и даже судебной системы. Компания Imperva сообщила, что в 2024 году более половины интернет-трафика был сгенерирован не людьми. Эксперты полагают, что на платформе X количество ботов могло превышать сотни миллионов.
Появились предположения, что обеспокоенность Альтмана может быть частью маркетинговой стратегии, связанной с запуском социальной сети OpenAI. В апреле стало известно, что компания рассматривает возможность создания такой платформы. Однако пока никаких официальных подтверждений о её существовании нет.
Новые вызовы для будущего
Интересно, что если OpenAI запустит собственную социальную сеть, то, возможно, в ней будет запрещено использование ботов. Однако, как показало исследование, проведённое в Амстердамском университете, даже полностью автоматизированная социальная сеть способна формировать эхо-камеры и группы схожих мнений. Это означает, что даже при отсутствии людей, содержание может выглядеть подозрительно.
Таким образом, проблема не только в ботах, но и в том, как люди используют ИИ для создания контента. Это ставит под вопрос достоверность информации в цифровом пространстве.
Паутина алгоритмов: как ИИ меняет логику общения в цифровом пространстве
В последние годы ИИ превратился из инструмента в участника цифровых дискуссий. В социальных сетях, где ранее доминировали живые голоса, всё чаще появляются сообщения, сгенерированные алгоритмами. Это вызывает тревогу даже у тех, кто стоит у истоков этих технологий. Так, Сэм Альтман, основатель OpenAI, заметил, что в подфоруме Reddit, посвящённом сервису Codex, посты могли быть написаны не людьми, а ботами. Это не просто случайность — это часть глобального сдвига, в котором ИИ становится архитектором информационной среды.
Поведенческие шаблоны и мотивы участников
Альтман выделил несколько причин, по которым контент в социальных сетях выглядит неестественно. Среди них — схожие формулировки, маркетинговые циклы, монетизация контента и влияние активных участников. Однако есть и скрытые мотивы: стремление к увеличению трафика, повышению вовлечённости и даже влияние конкурентов. В случае с Codex, например, посты, возможно, были сгенерированы не для обсуждения продукта, а для создания иллюзии его популярности. Это указывает на то, что в цифровом пространстве начинает формироваться новая экономика внимания, где реальность и виртуальность трудно различить.
Системные последствия и парадоксы
Повышение качества генеративных моделей приводит к тому, что ИИ становится частью не только социальных сетей, но и образования, журналистики и правосудия. По данным Imperva, в 2024 году более половины интернет-трафика был сгенерирован ИИ. Это ставит под вопрос саму природу цифровой коммуникации. Даже если OpenAI запустит платформу, где боты будут запрещены, это не исключит формирование эхо-камер — ведь алгоритмы могут имитировать человеческое поведение. Таким образом, проблема не в том, кто пишет, а в том, как информация воспринимается и интерпретируется.
Влияние на российскую реальность
Для России, где цифровизация общества находится на начальной стадии, это развитие событий может стать важным уроком. Рост влияния ИИ на информационное пространство требует пересмотра подходов к цифровой грамотности, медиа-литературе и защите от дезинформации. В условиях, когда даже крупные платформы борются с фейками и ботами, важно создавать собственные механизмы фильтрации и анализа контента. Это особенно актуально, учитывая стремительное внедрение ИИ в образование и государственные услуги.
Выводы и прогнозы
- Краткосрочные последствия: Рост числа сгенерированных сообщений может привести к снижению доверия к цифровым платформам и увеличению спроса на проверенные источники.
- Долгосрочные тенденции: Цифровое пространство будет всё больше зависеть от алгоритмов, что потребует новых правил регулирования, стандартов прозрачности и механизмов контроля.
- Практические шаги: Важно развивать технологии детекции ИИ-сгенерированного контента и повышать уровень цифровой культуры у пользователей.
Таким образом, развитие ИИ в социальных сетях — это не просто техническая инновация, но и системный вызов, который затрагивает не только технологии, но и саму природу общения, доверия и власти в цифровом мире.