Калифорния ограничивает ИИ-компаньонов: новые правила и риски для гигантов
Калифорнийский законопроект SB 243 устанавливает правила для разработчиков ИИ-компаньонов, обязывая их применять меры безопасности, включая запрет на обсуждение суицидных мыслей, самоповреждений и сексуального контента, а также информировать пользователей о том, что они общаются с искусственным интеллектом. Документ одобрен законодательным органом и ожидает подписания губернатором, после чего вступит в силу с 1 января 2026 года.
В Калифорнии принят законопроект SB 243, направленный на регулирование ИИ-компаньонов, чтобы защитить несовершеннолетних и уязвимых пользователей. Документ одобрен как Палатой представителей, так и Сенатом, и теперь ожидает подписания губернатором Гэвином Ньюсомом.
Основные требования закона
SB 243 устанавливает правила, которые обязуют разработчиков ИИ-компаньонов применять меры безопасности и нести ответственность за нарушения. В частности, запрещено, чтобы такие системы вступали в разговоры, связанные с суицидными мыслями, самоповреждением или сексуальным контентом. Платформы должны регулярно информировать пользователей о том, что они общаются с искусственным интеллектом, а не с человеком. Для несовершеннолетних такие уведомления должны появляться каждые три часа.
Права пострадавших
Закон также предусматривает возможность для граждан, пострадавших из-за нарушений условий, подавать иски. Сумма компенсации может составлять до 1000 долларов за нарушение, а также взыскиваться судебные издержки. К числу крупных компаний, затронутых этим законом, относятся OpenAI, Character. AI, Replika и другие.
Причины принятия закона
Введение SB 243 стало ответом на ряд тревожных событий, включая самоубийство подростка Эдама Райна, которое, как сообщается, произошло после длительных обсуждений с ChatGPT. Также в законодательный процесс вмешались данные, согласно которым экстремистская компания Meta⋆ позволяла своим ИИ-ботам вести романтические и сенсорные беседы с детьми.
Реакция отраслевых участников
Стив Падилья и Джош Бекер, инициаторы закона, отмечают необходимость срочных мер. Они подчеркивают, что важно, чтобы ИИ-компании предоставляли данные о количестве обращений к службам экстренной помощи. Это поможет лучше понимать масштаб проблемы до того, как будут зафиксированы новые случаи.
Изменения в законопроекте
Первоначальная версия SB 243 содержала более строгие требования, включая запрет на так называемые «переменные награды», которые могут привести к зависимости. В итоге такие положения были смягчены. Также исключены обязанности отслеживать и отчитываться о количестве случаев, когда ИИ-боты инициировали разговоры о самоубийстве.
Политический фон
На фоне принятия SB 243, компании из Силиконовой долины активно поддерживают кандидатов, выступающих за мягкое регулирование ИИ. Одновременно в Калифорнии рассматривается другой законопроект — SB 53, предполагающий обязательные отчёты по прозрачности. OpenAI публично выступила за отклонение SB 53 в пользу менее строгих международных стандартов. Meta⋆, Google и Amazon также выразили протест против SB 53. В свою очередь, только Anthropic поддерживает инициативу.

Комментарии отраслевых представителей
Представитель Character. AI отметил, что компания уже использует предупреждения в чатах, чтобы подчеркнуть, что общение с ИИ не заменяет реальных людей. Meta⋆ на запрос TechCrunch прокомментировать ситуацию ответила отказом. Руководители OpenAI, Anthropic и Replika также не дали комментариев.
Ожидания и последствия
Реакция на SB 243 отражает растущую озабоченность общества в вопросах безопасности и этики ИИ. Закон может стать важным шагом в регулировании этой сферы и примером для других регионов. В условиях развития аналогичных технологий за рубежом, подобные меры могут быть полезны и для России, особенно в контексте защиты несовершеннолетних от негативного влияния цифровых систем.
Когда технологии начинают заботиться — и когда не могут
Калифорния стала первым регионом, где принято законодательное решение, ограничивающее использование ИИ-компаньонов. Законопроект SB 243 направлен на защиту уязвимых групп, в первую очередь детей. Его принятие говорит о том, что технология, которая сначала воспринималась как инструмент коммуникации и поддержки, теперь вызывает законодательный интерес в связи с её потенциальной способностью влиять на психическое состояние пользователей. В основе этих шагов — не только технические изменения, а переоценка роли ИИ в обществе, особенно в отношениях, где человеку может быть сложно отличить виртуального собеседника от реального.
Закон SB 243: не только предупреждения, но и ответственность
Согласно новому закону, компании, создающие ИИ-компаньонов, должны нести юридическую ответственность за нарушения. Это включает обязательное информирование пользователей о том, что они общаются с ИИ, а также запрет на участие таких систем в разговорах о самоповреждении или сексуальных тем. Для детей эти меры ужесточаются: уведомления должны появляться каждые три часа. Такие требования ставят разработчиков в позицию гарантов безопасности, а не только поставщиков услуг. Это важно, поскольку, как показывает практика, дети, особенно подростки, могут воспринимать ИИ как реальных собеседников, что создаёт риски для их психического здоровья.
Кто выигрывает, а кто теряет — и почему
Законопроект SB 243 стал ответом на конкретные инциденты, включая самоубийство подростка, связанное с беседами с ИИ, а также на действия экстремистской компании Meta⋆, позволившей своим ботам вести романтические беседы с детьми. Эти события выделили противоречие между технологической свободой и социальной ответственностью. С одной стороны, компании стремятся к инновациям, с другой — им приходится учитывать риски, связанные с эмоциональной зависимостью пользователей. В этом контексте SB 243 не только защищает детей, но и создаёт новый формат ответственности для ИИ-платформ. Это может повлиять на стратегии разработчиков, особенно тех, кто рассчитывает на международные рынки.
Что дальше — и что это значит для России
Введение подобных норм в Калифорнии может стать примером для других регионов, включая Россию. В стране, где уже есть нормативы, регулирующие доступ детей к интернету и цифровым продуктам, такой подход может усилить защиту несовершеннолетних от негативного влияния ИИ. Важно, что закон SB 243 не запрещает технологию, а устанавливает рамки её использования. Это показывает, как можно балансировать между развитием технологий и их социальной устойчивостью. Если подобный подход будет применён и в России, это может укрепить доверие к цифровым инструментам, особенно в образовательной и медицинской сферах.