Сентябрь 2025   |   Обзор события   | 6

Калифорния ограничивает ИИ-компаньонов: новые правила и риски для гигантов

Калифорнийский законопроект SB 243 устанавливает правила для разработчиков ИИ-компаньонов, обязывая их применять меры безопасности, включая запрет на обсуждение суицидных мыслей, самоповреждений и сексуального контента, а также информировать пользователей о том, что они общаются с искусственным интеллектом. Документ одобрен законодательным органом и ожидает подписания губернатором, после чего вступит в силу с 1 января 2026 года.

ИСХОДНЫЙ НАРРАТИВ

В Калифорнии принят законопроект SB 243, направленный на регулирование ИИ-компаньонов, чтобы защитить несовершеннолетних и уязвимых пользователей. Документ одобрен как Палатой представителей, так и Сенатом, и теперь ожидает подписания губернатором Гэвином Ньюсомом.

Основные требования закона

SB 243 устанавливает правила, которые обязуют разработчиков ИИ-компаньонов применять меры безопасности и нести ответственность за нарушения. В частности, запрещено, чтобы такие системы вступали в разговоры, связанные с суицидными мыслями, самоповреждением или сексуальным контентом. Платформы должны регулярно информировать пользователей о том, что они общаются с искусственным интеллектом, а не с человеком. Для несовершеннолетних такие уведомления должны появляться каждые три часа.

Права пострадавших

Закон также предусматривает возможность для граждан, пострадавших из-за нарушений условий, подавать иски. Сумма компенсации может составлять до 1000 долларов за нарушение, а также взыскиваться судебные издержки. К числу крупных компаний, затронутых этим законом, относятся OpenAI, Character. AI, Replika и другие.

Причины принятия закона

Введение SB 243 стало ответом на ряд тревожных событий, включая самоубийство подростка Эдама Райна, которое, как сообщается, произошло после длительных обсуждений с ChatGPT. Также в законодательный процесс вмешались данные, согласно которым экстремистская компания Meta⋆ позволяла своим ИИ-ботам вести романтические и сенсорные беседы с детьми.

Реакция отраслевых участников

Стив Падилья и Джош Бекер, инициаторы закона, отмечают необходимость срочных мер. Они подчеркивают, что важно, чтобы ИИ-компании предоставляли данные о количестве обращений к службам экстренной помощи. Это поможет лучше понимать масштаб проблемы до того, как будут зафиксированы новые случаи.

Изменения в законопроекте

Первоначальная версия SB 243 содержала более строгие требования, включая запрет на так называемые «переменные награды», которые могут привести к зависимости. В итоге такие положения были смягчены. Также исключены обязанности отслеживать и отчитываться о количестве случаев, когда ИИ-боты инициировали разговоры о самоубийстве.

Политический фон

На фоне принятия SB 243, компании из Силиконовой долины активно поддерживают кандидатов, выступающих за мягкое регулирование ИИ. Одновременно в Калифорнии рассматривается другой законопроект — SB 53, предполагающий обязательные отчёты по прозрачности. OpenAI публично выступила за отклонение SB 53 в пользу менее строгих международных стандартов. Meta⋆, Google и Amazon также выразили протест против SB 53. В свою очередь, только Anthropic поддерживает инициативу.

Концептуальное изображение
Создано специально для ASECTOR
Концептуальное изображение

Комментарии отраслевых представителей

Представитель Character. AI отметил, что компания уже использует предупреждения в чатах, чтобы подчеркнуть, что общение с ИИ не заменяет реальных людей. Meta⋆ на запрос TechCrunch прокомментировать ситуацию ответила отказом. Руководители OpenAI, Anthropic и Replika также не дали комментариев.

Ожидания и последствия

Реакция на SB 243 отражает растущую озабоченность общества в вопросах безопасности и этики ИИ. Закон может стать важным шагом в регулировании этой сферы и примером для других регионов. В условиях развития аналогичных технологий за рубежом, подобные меры могут быть полезны и для России, особенно в контексте защиты несовершеннолетних от негативного влияния цифровых систем.

АНАЛИТИЧЕСКИЙ РАЗБОР

Когда технологии начинают заботиться — и когда не могут

Калифорния стала первым регионом, где принято законодательное решение, ограничивающее использование ИИ-компаньонов. Законопроект SB 243 направлен на защиту уязвимых групп, в первую очередь детей. Его принятие говорит о том, что технология, которая сначала воспринималась как инструмент коммуникации и поддержки, теперь вызывает законодательный интерес в связи с её потенциальной способностью влиять на психическое состояние пользователей. В основе этих шагов — не только технические изменения, а переоценка роли ИИ в обществе, особенно в отношениях, где человеку может быть сложно отличить виртуального собеседника от реального.

Закон SB 243: не только предупреждения, но и ответственность

Согласно новому закону, компании, создающие ИИ-компаньонов, должны нести юридическую ответственность за нарушения. Это включает обязательное информирование пользователей о том, что они общаются с ИИ, а также запрет на участие таких систем в разговорах о самоповреждении или сексуальных тем. Для детей эти меры ужесточаются: уведомления должны появляться каждые три часа. Такие требования ставят разработчиков в позицию гарантов безопасности, а не только поставщиков услуг. Это важно, поскольку, как показывает практика, дети, особенно подростки, могут воспринимать ИИ как реальных собеседников, что создаёт риски для их психического здоровья.

Кто выигрывает, а кто теряет — и почему

Законопроект SB 243 стал ответом на конкретные инциденты, включая самоубийство подростка, связанное с беседами с ИИ, а также на действия экстремистской компании Meta⋆, позволившей своим ботам вести романтические беседы с детьми. Эти события выделили противоречие между технологической свободой и социальной ответственностью. С одной стороны, компании стремятся к инновациям, с другой — им приходится учитывать риски, связанные с эмоциональной зависимостью пользователей. В этом контексте SB 243 не только защищает детей, но и создаёт новый формат ответственности для ИИ-платформ. Это может повлиять на стратегии разработчиков, особенно тех, кто рассчитывает на международные рынки.

Что дальше — и что это значит для России

Введение подобных норм в Калифорнии может стать примером для других регионов, включая Россию. В стране, где уже есть нормативы, регулирующие доступ детей к интернету и цифровым продуктам, такой подход может усилить защиту несовершеннолетних от негативного влияния ИИ. Важно, что закон SB 243 не запрещает технологию, а устанавливает рамки её использования. Это показывает, как можно балансировать между развитием технологий и их социальной устойчивостью. Если подобный подход будет применён и в России, это может укрепить доверие к цифровым инструментам, особенно в образовательной и медицинской сферах.

Коротко о главном

Запрещены разговоры об угрозах жизни и сексуальном содержании

Разработчики обязаны блокировать такие темы, чтобы предотвратить психологическое воздействие на пользователей.

Платформы должны информировать о нечеловеческой природе ИИ

Пользователи получают уведомления, а для несовершеннолетних — каждые три часа.

Пострадавшие могут подавать иски с возможностью компенсации

Размер выплат — до 1000 долларов за нарушение условий закона.

Закон вводится после самоубийства подростка, связанных с ИИ

Событие послужило толчком к обсуждению безопасности цифровых ассистентов.

Экстремистская компания Meta⋆ допускала романтические беседы с детьми

Инцидент стал одним из факторов, повлиявших на принятие закона.

Законопроект изначально предусматривал запреты на «переменные награды»

Однако такие положения были смягчены в ходе обсуждений.

Компании Силиконовой долины выступили против более строгих требований

OpenAI и Meta⋆ выразили несогласие с законопроектом SB 53, предлагающим дополнительные отчёты.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Право и регулирование; Цифровизация и технологии; Государственное управление и общественная сфера

Оценка значимости: 6 из 10

Принятие законопроекта в Калифорнии касается регулирования ИИ-компаньонов, что может найти отклик в России в контексте безопасности цифровых технологий и защиты детей. Масштаб аудитории — региональный, так как событие произошло за рубежом, но затрагивает тему, актуальную и в России. Воздействие — среднесрочное, так как закон вступает в силу в 2026 году. Сферы влияния включают технологию, право и социальную защиту. Последствия — заметные, но скорее касаются регулирования и ответственности, а не системных изменений. Учитывая связь с Россией через вопросы цифровой этики и безопасности, оценка повышена.

Материалы по теме

⋆ Данная организация или продукт включены в список экстремистских в соответствии с решением суда, вступившим в законную силу. Деятельность запрещена на территории Российской Федерации на основании Федерального закона от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».