LLM


LLM в новостной повестке, календарь упоминаний и aналитика в реальном времени.

Календарь упоминаний. Страница 3:

2025
26 ноября

Потенциал SLMs в обнаружении фишинга

Небольшие языковые модели (SLMs) могут использоваться для выявления веб-сайтов, связанных с фишингом, анализируя структуру HTML, текстовые и ссылочные паттерны. Они показывают разную эффективность — от 56% до почти 90% точности, что зависит от реализации. Основное преимущество SLMs — возможность локального размещения, что повышает безопасность данных и снижает зависимость от внешних платформ. Однако они пока уступают по производительности крупным моделям, что может привести к ложным срабатываниям или упущенным угрозам.

Подробнее →

21 ноября

Автоматизация текстовой поддержки с помощью больших языковых моделей

Большие языковые модели используются в системе «Яндекс Такси» для автоматизации работы службы поддержки. Они позволяют обрабатывать 60% текстовых обращений без участия операторов, сокращая время ответа в полтора раза. В работе задействованы четыре нейросети, включая ИИ-агента, который генерирует ответы и выполняет действия, такие как возврат средств. Модели построены на базе Alice AI LLM и дообучались на реальных диалогах. В будущем планируется автоматизировать до 70% текстовой работы и расширить решение на другие сервисы экосистемы «Яндекс Go».

Подробнее →

21 ноября

Риски конфиденциальности из-за использования данных пользователей в обучении языковых моделей

Языковые модели могут использовать данные из пользовательских диалогов для тренировки и получения коммерческой выгоды. В текущем регулировании отсутствуют обязательные требования к полному отслеживанию пути обработки этих данных. Разработчики не всегда удаляют личную информацию из обучающих наборов, что создаёт риск утечки конфиденциальных сведений. Пользователи не всегда осознают, что их диалоги могут стать частью данных, на которых обучаются модели.

Подробнее →

19 ноября

Конкуренция за суверенитет в языковых моделях

Языковые модели рассматриваются как ключевой элемент технологического суверенитета в области искусственного интеллекта. Их разработка, обучение и контроль должны осуществляться исключительно российскими специалистами, чтобы обеспечить независимость от иностранных систем. Президент России Владимир Путин подчеркнул, что такие модели играют важную роль в формировании информационного и смыслового пространства, а их обладание становится стратегическим преимуществом как для бизнеса, так и для государства.

Подробнее →

15 ноября

Уязвимости защитных механизмов больших языковых моделей

Большие языковые модели используют защитные механизмы, такие как guardrails, чтобы фильтровать вредоносный ввод и вывод. Однако исследователи обнаружили, что минимальные изменения в тексте могут обойти эти ограничения, например, добавление строки вроде «=coffee» к запросу. Такие атаки, называемые prompt injection, позволяют изменить поведение модели, заставив её игнорировать внутренние правила. Метод EchoGram систематически идентифицирует такие слабые места, что демонстрирует уязвимость даже современных моделей, включая GPT-4o и Qwen3Guard 0.6B.

Подробнее →



LLM имеет 26 записей событий в нашей базе.
Объединили похожие карточки: LLM; Модели больших языковых систем; Модели глубокого обучения и другие.

Обратить внимание: