Применение искусственного интеллекта в рамках судебной системы Латинской Америки
Во время политической кампании в Колумбии в июне 2025 года в кандидата Мигеля Урибе Торбай якобы стреляли, а в социальных сетях появилось несколько сотен видеозаписей , часть из которых оказалась создана с помощью ИИ. Проверка и опровержение поддельного контента заняло часы, после чего подозрения были возбуждены в отношении подростка.
По данным Rest of World, в июне 2025 года в Колумбии во время политической кампании в кандидата Мигеля Урибе Торбай якобы стреляли. Вместе с этим в социальных сетях появилось несколько сотен видеозаписей, некоторые из которых оказалось, созданы с помощью ИИ. Полиция и прокуратура потратили часы на проверку и опровержение поддельного контента, в результате чего подозрения были возбуждены в отношении подростка.
ИИ меняет судебную систему Латинской Америки
ИИ помогает сократить задержки в рассмотрении дел и улучшает доступ к правосудию для жертв. Однако рост его применения также выявляет серьезные уязвимости: злоупотребления, предвзятость алгоритмов и слабый надзор, поскольку регуляторы не успевают за скоростью технологического развития.
В мире наблюдается рост случаев, связанных с вредом от глубинных подделок, особенно в финансовых мошенничествах, избирательных процессах и распространении нежелательного сексуального контента. По данным Организации экономического сотрудничества и развития (ОЭСР), в 80 странах и международных организациях разработано более 1300 инициатив по регулированию ИИ, но далеко не все из них являются законами, а также не все охватывают глубинные подделки.
Отчет Security Hero,
глубинные подделки выросли в мире на 550% с 2019 по 2023 год. В Латинской Америке доля таких подделок составляет менее 1%, в отличие от Азии, где она превышает 70%. Однако страны региона, включая Мексику, Чили, Бразилию и Колумбию, демонстрируют самые высокие темпы роста.
Некоторые страны уже начали принимать меры. В Южной Корее и Австралии конкретные виды злоупотреблений глубинными подделками преследуются по закону. США недавно приняли «Take It Down Act», предусматривающий наказание за создание и распространение поддельного контента без согласия. В Латинской Америке - Бразилия запретила использование глубинных подделок в избирательных кампаниях, а Перу и Колумбия в этом году ввели законы, рассматривающие глубинные подделки как усугубляющий фактор преступления.
Несмотря на это, местные законы часто остаются недостаточно четкими, отмечает Франко Гиандана, аналитик Access Now. «Язык законов слишком абстрактный, а понимание национальных и региональных вызовов недостаточно развито, чтобы не только регулировать ИИ, но и создать стратегию развития, адаптированную к нашему контексту».
Чили, Аргентина, Мексика
В странах, где глубинные подделки пока не регулируются, такие как Чили, Аргентина и Мексика, прокуратура столкнулась с трудностями при расследовании дел о распространении нежелательного контента. В декабре в Мексике суд вынес оправдательный вердикт в отношении 20-летнего мужчины, обвиненного в создании сексуальных изображений более чем 1000 женщин и несовершеннолетних. В суде заявили, что доказательств его вины недостаточно. Жертвам пришлось подавать апелляцию, и дело остается открытым.
Нерегулируемое использование ИИ приводит и к другим последствиям.
В Бразилии полиция использует системы распознавания лиц для поиска преступников, но такие системы ошибочно идентифицируют невиновных. В прошлом году во время футбольного матча в Аракажу, Бразилия, военный полицейский ошибочно арестовал мужчину, которого принял за разыскиваемого. Аналогичные случаи произошли и в других городах.
Эксперты указывают, что большинство ИИ-систем обучены на данных, преимущественно от белой популяции. В Чили критиковали систему прогнозирования преступлений, которая опирается на «грязные данные» — полицейские отчеты с расовыми предубеждениями.
Несмотря на риски, суды региона все чаще применяют ИИ
Для автоматизации рутинных задач и классификации дел. В Колумбии в 2023 году судья Хуан Мануэль Падилья использовал ChatGPT для подготовки решения по делу о предоставлении медицинской помощи ребенку с аутизмом. Это стало прецедентом. В 2025 году около 85% судей страны применяют бесплатные версии ChatGPT или Microsoft Copilot, но большинство из них получают минимальное обучение по ИИ.
В Бразилии используется SAJ Digital, ИИ-инструмент, который помогает ускорить рассмотрение дел. В Аргентине система Prometea сократила обработку юридических заключений с 190 дней до одного часа. В Колумбии Конституционный суд внедрил PretorIA, основанную на аргентинской технологии систему, которая ежедневно обрабатывает более 2700 заявлений о защите прав граждан.
Судья Падилья подчеркивает - саморегулирование может быть эффективным
«Ни один законодательный фреймворк не сможет угнаться за скоростью развития ИИ», — заявил Судья Падилья. Эксперты в регионе также призывают к более строгому регулированию использования ИИ в государственных органах, особенно в таких чувствительных областях, как распознавание лиц.
Интересно: Какие меры саморегулирования могут реально сработать в условиях, когда технологии развиваются быстрее, чем законы?
Когда ИИ становится оружием: новые вызовы для правосудия в Латинской Америке
Баланс между инновациями и угрозами
Использование искусственного интеллекта в судебной системе Латинской Америки несомненно ускоряет процессы и снижает нагрузку на судей. В Колумбии, Бразилии и Аргентине ИИ применяется для автоматизации рутинных задач, классификации дел и даже для подготовки решений. Это снижает сроки рассмотрения дел, особенно в сфере защиты прав граждан. Однако, важно понимать, что введение ИИ в суды не только оптимизирует процессы, но и создает новые риски.
Одним из ключевых вызовов становится недостаточная квалификация пользователей. В Колумбии около 85% судей используют ChatGPT и Microsoft Copilot, но большинство из них получают минимальное обучение. Это может привести к ошибкам в интерпретации данных или неправильному применению законов. В сочетании с тем, что ИИ-модели часто обучены на смещенных данных, результаты могут быть несправедливыми. Например, системы распознавания лиц в Бразилии и Чили демонстрируют предвзятость по отношению к представителям коренных народов и афро-декендентов.
К чему это ведет? Применение ИИ в судах без адекватного контроля и обучения может усугубить социальные неравенства, а не устранить их.
Рост глубинных подделок и слабые законы
В Латинской Америке рост глубинных подделок, особенно в политической и избирательной сфере, заставляет власти пересматривать подходы к регулированию ИИ. В Колумбии, например, во время избирательной кампании в июне 2025 года в социальных сетях появилось несколько сотен поддельных видеозаписей, часть из которых была сгенерирована ИИ. Проверка и опровержение этого контента заняло часы, а в конечном итоге подозрения были возбуждены в отношении подростка. Это показывает, что даже в странах с относительно развитой судебной системой, борьба с подделками остается сложной задачей.
Законы, вводимые в регионе, часто остаются абстрактными и не учитывают специфику местных вызовов. В Бразилии и Колумбии глубинные подделки уже признаны усугубляющим фактором преступления, но важно отметить, что такие законы редко сопровождаются четкими инструкциями по их применению. В странах, где регулирование отсутствует, как в Аргентине и Мексике, суды сталкиваются с проблемой доказательства вины. В Мексике, например, суд оправдал подозреваемого в создании сексуальных глубинных подделок из-за недостатка доказательной базы.
Тренд: В странах с отсутствием четкого законодательства ИИ становится инструментом, который трудно контролировать, даже если его использование преступно.
Саморегулирование как альтернатива
Многие эксперты в регионе считают, что законы не успевают за развитием технологий, и единственной альтернативой становится саморегулирование. Судья Хуан Мануэль Падилья из Колумбии открыто заявил, что «никакой законодательный фреймворк не сможет угнаться за скоростью развития ИИ». Это поднимает важный вопрос: кто будет контролировать ИИ, если законы не успевают?
Возможные меры саморегулирования могут включать в себя создание профессиональных стандартов для работы с ИИ в судах, обязательное обучение судей и юристов, а также установление этических принципов использования ИИ-инструментов. Однако, без четких рамок и ответственности, саморегулирование может стать лишь декларацией, а не инструментом реального контроля.
Обратите внимание: Саморегулирование может сработать, только если будет сопровождаться прозрачностью, обучением и общественным контролем.
Риски и ошибки ИИ: новые данные
Новые данные, поступающие из исследований крупных ИИ-моделей, включая ChatGPT, демонстрируют, что даже самые современные технологии не свободны от ошибок. Исследование показало, что крупные языковые модели неизбежно генерируют ложную информацию — «галлюцинации» — из-за фундаментальных математических ограничений. Уровень галлюцинаций в продвинутых версиях моделей достигает 48%. Это особенно критично для судебной системы, где точность и достоверность решений имеют первостепенное значение.
Дополнительно, в корпоративной среде выявлено, что более 89% использования ИИ происходит вне контроля ИТ- и безопасностных команд. Сотрудники часто используют личные аккаунты или несанкционированные сервисы, что может привести к утечке конфиденциальной информации. Такие риски актуальны и в государственных структурах, где ИИ начинает применяться в судебных решениях.
Вывод: Внедрение ИИ в правосудие требует не только технической адаптации, но и строгого контроля за качеством данных, прозрачности алгоритмов и обученности пользователей.
Источник: Rest Of World