OpenAI заблокировала аккаунты, связанные с ИИ для наблюдения и вредоносного ПО
OpenAI заблокировала аккаунты, связанные с использованием ChatGPT для разработки инструментов наблюдения и вредоносного ПО. Компания констатировала, что пользователи запрашивали модель сгенерировать рекламные материалы для мониторинга социальных сетей, а также код для вредоносных компонентов, однако явно вредоносные запросы модели отвергли.
По данным OpenAI, компания заблокировала несколько аккаунтов, предположительно связанных с государственными структурами Китая, которые использовали ChatGPT для подготовки инструментов массового наблюдения. В своем отчете о угрозах, опубликованном 13 октября 2025 года, OpenAI указала, что пользователи запрашивали модель помочь в разработке планов и документации для ИИ-инструментов, но не непосредственно участвовали в их реализации.
Один из заблокированных пользователей, вероятно находившийся в Китае и использовавший VPN, просил ChatGPT разработать рекламные материалы и проектные документы для инструмента мониторинга социальных сетей. Этот инструмент, описанный как «пробник», должен был сканировать платформы вроде X, Facebook⋆, Instagram⋆, Reddit, TikTok и YouTube в поисках экстремистского контента, а также информации, связанной с этническими, религиозными и политическими группами. Пользователь утверждал, что инструмент нужен был государственному клиенту, но OpenAI не смогла подтвердить, был ли он использован.
Примеры использования ИИ для целей влияния и киберпреступности
В других случаях, пользователи запрашивали ChatGPT помочь в выявлении источников финансирования аккаунта в X, критикующего китайское правительство, а также в поиске организаторов петиций в Монголии. В обоих случаях модель предоставляла только публично доступную информацию, не раскрывая личные данные или другие конфиденциальные сведения.
OpenAI также отметила, что злоумышленники начали использовать сразу несколько моделей ИИ для достижения своих целей. Например, одна из китайских групп, предположительно, использовала ChatGPT для создания приманок для фишинга, а затем модель DeepSeek — для автоматизации массовых атак. Аналогичным образом, подозреваемые российские аккаунты использовали ChatGPT для генерации видео-запросов для кампании под названием «Stop News», а затем применяли ИИ других компаний для создания видео, размещённых на YouTube и TikTok.
Использование ИИ в киберпреступности
В рамках ещё одного случая, OpenAI заблокировала аккаунты, связанные с русскоязычными киберпреступными группами, которые использовали ChatGPT для разработки вредоносного ПО. В частности, злоумышленники запрашивали модель сгенерировать код для вредоносных компонентов, включая удалённые доступы (RAT), стелс-программы для сбора учётных данных, а также инструменты для обхода защитных механизмов браузеров и систем безопасности.
Компания отметила, что её модели отвергли явно вредоносные запросы, не имеющие законных применений. Эти аккаунты, вероятно, связаны с криминальными группами, о чём стало известно после анализа Telegram-канала, где участники обсуждали свои действия. OpenAI не связала эти действия с конкретной группой, но заявила, что имеет «среднюю до высокой уверенность» в их идентификации.
Интересно: Каковы реальные риски для безопасности, если злоумышленники будут использовать ИИ для создания вредоносного ПО и инструментов наблюдения? Что могут предпринять разработчики моделей для минимизации ущерба?
Угрозы, скрытые в запросах: как ИИ становится инструментом киберпреступности и контроля
Скрытые мотивы и реальные цели злоумышленников
Компании, разрабатывающие ИИ, сталкиваются с растущим риском, когда их модели используются не для улучшения жизни, а для создания инструментов контроля и вредоносного ПО. OpenAI сообщила о случаях, когда её модель ChatGPT использовалась для подготовки проектной документации к созданию систем массового наблюдения и для разработки вредоносного программного обеспечения. На первый взгляд, это кажется не более чем попыткой злоупотребить технологией. Но на деле это указывает на глубокую трансформацию угроз в цифровом пространстве.
Важно: злоумышленники не стремятся просто получить доступ к данным. Они хотят создать масштабные инструты, которые могут автоматизировать слежку, манипуляции и атаки. Это означает, что модели ИИ становятся не просто целями атак, а активными участниками киберпреступности.
Ключевой момент здесь — отсутствие прямой реализации. Пользователи не запрашивают саму модель создать вредоносный код, а лишь помогают в планировании и проектировании. Это позволяет им оставаться вне поля зрения, пока реальная реализация происходит вне их прямого контроля. Таким образом, границы между разработчиком, пользователем и злоумышленником размываются.
Цепочки последствий и неочевидные победители
Когда ИИ-модели становятся частью киберпреступной инфраструктуры, это порождает цепочки последствий, выходящие за рамки отдельных компаний. Например, использование ChatGPT для создания приманок для фишинга, а затем DeepSeek для автоматизации атак — это пример кооперации между разными ИИ-платформами в интересах киберпреступников. Это означает, что даже если одна компания блокирует аккаунт, злоумышленники могут перейти на другую модель, используя их в связке.
Результат — рост сложности кибератак, где ИИ выступает как инструмент, а не как цель. Это ставит под угрозу не только отдельные пользователи, но и инфраструктуру, на которую рассчитывают бизнесы и государства.
Неочевидным победителем в этой ситуации становится рынок специализированных решений по кибербезопасности. С увеличением сложности атак растёт спрос на решения, способные анализировать и блокировать ИИ-генерируемый вредоносный контент. Это может стимулировать развитие новых инструментов анализа поведения ИИ и их интеграции в системы безопасности.
Новые правила игры и необходимость адаптации
Действия OpenAI и других разработчиков показывают, что модели ИИ становятся не только инструментами, но и звеньями в цепочке угроз. Это меняет правила игры: раньше злоумышленники атаковали системы, теперь они используют ИИ для их создания.
Важно: чтобы противостоять этой угрозе, разработчикам ИИ нужно не только улучшать фильтры и блокировать вредоносные запросы, но и создавать механизмы отслеживания, как их модели используются в цепочке атак. Это требует не только технических решений, но и глубокого анализа поведения пользователей, включая их географическую принадлежность, используемые инструменты и паттерны запросов.
Тренд: ИИ перестаёт быть просто инструментом для бизнеса — он становится частью киберпреступной инфраструктуры. Это требует не только улучшения фильтров, но и системного подхода к мониторингу и предотвращению утечек технологий.
Обратите внимание: Если ИИ будет использоваться для создания вредоносного ПО и систем наблюдения, это может привести к росту цен на лицензии для ИИ-моделей, а также к увеличению спроса на аудиты безопасности и специализированные решения по защите данных.