Октябрь 2025   |   Обзор события   | 7

Применение искусственного интеллекта в рамках судебной системы Латинской Америки

Во время политической кампании в Колумбии в июне 2025 года в кандидата Мигеля Урибе Торбай якобы стреляли, а в социальных сетях появилось несколько сотен видеозаписей , часть из которых оказалась создана с помощью ИИ. Проверка и опровержение поддельного контента заняло часы, после чего подозрения были возбуждены в отношении подростка.

ИСХОДНЫЙ НАРРАТИВ

По данным Rest of World, в июне 2025 года в Колумбии во время политической кампании в кандидата Мигеля Урибе Торбай якобы стреляли. Вместе с этим в социальных сетях появилось несколько сотен видеозаписей, некоторые из которых оказалось, созданы с помощью ИИ. Полиция и прокуратура потратили часы на проверку и опровержение поддельного контента, в результате чего подозрения были возбуждены в отношении подростка.

ИИ меняет судебную систему Латинской Америки

ИИ помогает сократить задержки в рассмотрении дел и улучшает доступ к правосудию для жертв. Однако рост его применения также выявляет серьезные уязвимости: злоупотребления, предвзятость алгоритмов и слабый надзор, поскольку регуляторы не успевают за скоростью технологического развития.

В мире наблюдается рост случаев, связанных с вредом от глубинных подделок, особенно в финансовых мошенничествах, избирательных процессах и распространении нежелательного сексуального контента. По данным Организации экономического сотрудничества и развития (ОЭСР), в 80 странах и международных организациях разработано более 1300 инициатив по регулированию ИИ, но далеко не все из них являются законами, а также не все охватывают глубинные подделки.

Отчет Security Hero,

глубинные подделки выросли в мире на 550% с 2019 по 2023 год. В Латинской Америке доля таких подделок составляет менее 1%, в отличие от Азии, где она превышает 70%. Однако страны региона, включая Мексику, Чили, Бразилию и Колумбию, демонстрируют самые высокие темпы роста.

Некоторые страны уже начали принимать меры. В Южной Корее и Австралии конкретные виды злоупотреблений глубинными подделками преследуются по закону. США недавно приняли «Take It Down Act», предусматривающий наказание за создание и распространение поддельного контента без согласия. В Латинской Америке - Бразилия запретила использование глубинных подделок в избирательных кампаниях, а Перу и Колумбия в этом году ввели законы, рассматривающие глубинные подделки как усугубляющий фактор преступления.

Несмотря на это, местные законы часто остаются недостаточно четкими, отмечает Франко Гиандана, аналитик Access Now. «Язык законов слишком абстрактный, а понимание национальных и региональных вызовов недостаточно развито, чтобы не только регулировать ИИ, но и создать стратегию развития, адаптированную к нашему контексту».

Чили, Аргентина, Мексика

В странах, где глубинные подделки пока не регулируются, такие как Чили, Аргентина и Мексика, прокуратура столкнулась с трудностями при расследовании дел о распространении нежелательного контента. В декабре в Мексике суд вынес оправдательный вердикт в отношении 20-летнего мужчины, обвиненного в создании сексуальных изображений более чем 1000 женщин и несовершеннолетних. В суде заявили, что доказательств его вины недостаточно. Жертвам пришлось подавать апелляцию, и дело остается открытым.

Нерегулируемое использование ИИ приводит и к другим последствиям.

В Бразилии полиция использует системы распознавания лиц для поиска преступников, но такие системы ошибочно идентифицируют невиновных. В прошлом году во время футбольного матча в Аракажу, Бразилия, военный полицейский ошибочно арестовал мужчину, которого принял за разыскиваемого. Аналогичные случаи произошли и в других городах.

Эксперты указывают, что большинство ИИ-систем обучены на данных, преимущественно от белой популяции. В Чили критиковали систему прогнозирования преступлений, которая опирается на «грязные данные» — полицейские отчеты с расовыми предубеждениями.

Несмотря на риски, суды региона все чаще применяют ИИ

Для автоматизации рутинных задач и классификации дел. В Колумбии в 2023 году судья Хуан Мануэль Падилья использовал ChatGPT для подготовки решения по делу о предоставлении медицинской помощи ребенку с аутизмом. Это стало прецедентом. В 2025 году около 85% судей страны применяют бесплатные версии ChatGPT или Microsoft Copilot, но большинство из них получают минимальное обучение по ИИ.

В Бразилии используется SAJ Digital, ИИ-инструмент, который помогает ускорить рассмотрение дел. В Аргентине система Prometea сократила обработку юридических заключений с 190 дней до одного часа. В Колумбии Конституционный суд внедрил PretorIA, основанную на аргентинской технологии систему, которая ежедневно обрабатывает более 2700 заявлений о защите прав граждан.

Судья Падилья подчеркивает - саморегулирование может быть эффективным

«Ни один законодательный фреймворк не сможет угнаться за скоростью развития ИИ», — заявил Судья Падилья. Эксперты в регионе также призывают к более строгому регулированию использования ИИ в государственных органах, особенно в таких чувствительных областях, как распознавание лиц.

Интересно: Какие меры саморегулирования могут реально сработать в условиях, когда технологии развиваются быстрее, чем законы?

АНАЛИТИЧЕСКИЙ РАЗБОР

Когда ИИ становится оружием: новые вызовы для правосудия в Латинской Америке

Баланс между инновациями и угрозами

Использование искусственного интеллекта в судебной системе Латинской Америки несомненно ускоряет процессы и снижает нагрузку на судей. В Колумбии, Бразилии и Аргентине ИИ применяется для автоматизации рутинных задач, классификации дел и даже для подготовки решений. Это снижает сроки рассмотрения дел, особенно в сфере защиты прав граждан. Однако, важно понимать, что введение ИИ в суды не только оптимизирует процессы, но и создает новые риски.

Одним из ключевых вызовов становится недостаточная квалификация пользователей. В Колумбии около 85% судей используют ChatGPT и Microsoft Copilot, но большинство из них получают минимальное обучение. Это может привести к ошибкам в интерпретации данных или неправильному применению законов. В сочетании с тем, что ИИ-модели часто обучены на смещенных данных, результаты могут быть несправедливыми. Например, системы распознавания лиц в Бразилии и Чили демонстрируют предвзятость по отношению к представителям коренных народов и афро-декендентов.

К чему это ведет? Применение ИИ в судах без адекватного контроля и обучения может усугубить социальные неравенства, а не устранить их.

Рост глубинных подделок и слабые законы

В Латинской Америке рост глубинных подделок, особенно в политической и избирательной сфере, заставляет власти пересматривать подходы к регулированию ИИ. В Колумбии, например, во время избирательной кампании в июне 2025 года в социальных сетях появилось несколько сотен поддельных видеозаписей, часть из которых была сгенерирована ИИ. Проверка и опровержение этого контента заняло часы, а в конечном итоге подозрения были возбуждены в отношении подростка. Это показывает, что даже в странах с относительно развитой судебной системой, борьба с подделками остается сложной задачей.

Законы, вводимые в регионе, часто остаются абстрактными и не учитывают специфику местных вызовов. В Бразилии и Колумбии глубинные подделки уже признаны усугубляющим фактором преступления, но важно отметить, что такие законы редко сопровождаются четкими инструкциями по их применению. В странах, где регулирование отсутствует, как в Аргентине и Мексике, суды сталкиваются с проблемой доказательства вины. В Мексике, например, суд оправдал подозреваемого в создании сексуальных глубинных подделок из-за недостатка доказательной базы.

Тренд: В странах с отсутствием четкого законодательства ИИ становится инструментом, который трудно контролировать, даже если его использование преступно.

Саморегулирование как альтернатива

Многие эксперты в регионе считают, что законы не успевают за развитием технологий, и единственной альтернативой становится саморегулирование. Судья Хуан Мануэль Падилья из Колумбии открыто заявил, что «никакой законодательный фреймворк не сможет угнаться за скоростью развития ИИ». Это поднимает важный вопрос: кто будет контролировать ИИ, если законы не успевают?

Возможные меры саморегулирования могут включать в себя создание профессиональных стандартов для работы с ИИ в судах, обязательное обучение судей и юристов, а также установление этических принципов использования ИИ-инструментов. Однако, без четких рамок и ответственности, саморегулирование может стать лишь декларацией, а не инструментом реального контроля.

Обратите внимание: Саморегулирование может сработать, только если будет сопровождаться прозрачностью, обучением и общественным контролем.

Риски и ошибки ИИ: новые данные

Новые данные, поступающие из исследований крупных ИИ-моделей, включая ChatGPT, демонстрируют, что даже самые современные технологии не свободны от ошибок. Исследование показало, что крупные языковые модели неизбежно генерируют ложную информацию — «галлюцинации» — из-за фундаментальных математических ограничений. Уровень галлюцинаций в продвинутых версиях моделей достигает 48%. Это особенно критично для судебной системы, где точность и достоверность решений имеют первостепенное значение.

Дополнительно, в корпоративной среде выявлено, что более 89% использования ИИ происходит вне контроля ИТ- и безопасностных команд. Сотрудники часто используют личные аккаунты или несанкционированные сервисы, что может привести к утечке конфиденциальной информации. Такие риски актуальны и в государственных структурах, где ИИ начинает применяться в судебных решениях.

Вывод: Внедрение ИИ в правосудие требует не только технической адаптации, но и строгого контроля за качеством данных, прозрачности алгоритмов и обученности пользователей.

Коротко о главном

Глубинные подделки выросли в мире на 550% с 2019 по 2023 год

В Латинской Америке их доля составляет менее 1%, но регион демонстрирует самые высокие темпы роста по сравнению с другими географическими зонами.

В 2024 году в Аргентине 18-летний подросток распространил порнографические глубинные подделки 16 одноклассниц

Судьи рассматривали дело по законодательству о цифровых преступлениях, однако имена жертв остаются доступны в интернете.

В 2025 году около 85% судей Колумбии используют бесплатные версии ИИ, такие как ChatGPT и Microsoft Copilot

Большинство из них получают минимальное обучение по работе с искусственным интеллектом.

В Бразилии ИИ-системы распознавания лиц ошибочно идентифицируют невиновных

В 2024 году военный полицейский арестовал мужчину, которого принял за разыскиваемого, а подобные случаи зафиксированы в других городах.

В Латинской Америке Бразилия, Перу и Колумбия ввели законы, рассматривающие глубинные подделки как усугубляющий фактор преступления

Однако в регионах, таких как Чили, Аргентина и Мексика, законодательство пока не охватывает такие нарушения.

Инфографика событий

Открыть инфографику на весь экран


Участники и связи

Отрасли: ИТ и программное обеспечение; Искусственный интеллект (AI); Кибербезопасность; Бизнес; Право и регулирование; Цифровизация и технологии; Государственное управление и общественная сфера

Оценка значимости: 7 из 10

Событие касается широкого применения ИИ в судебной системе Латинской Америки, включая как возможности, так и риски, связанные с глубинными подделками и предвзятостью алгоритмов. Хотя оно происходит вне России, оно затрагивает ключевые сферы — право, технологии и безопасность, что делает его актуальным в условиях роста интереса к регулированию ИИ в стране. Региональные тенденции и примеры законодательных инициатив могут повлиять на развитие российского регулирования в этой области, особенно в контексте цифровой трансформации и борьбы с дезинформацией.

Материалы по теме