LLM
LLM в новостной повестке, календарь упоминаний и aналитика в реальном времени.
Календарь упоминаний. Страница 5:
Угадывание как следствие системы оценки языковых моделей
Языковые модели склонны к выдумкам, потому что их обучают предсказывать следующее слово без оценки истинности утверждений. В ходе предварительного обучения они запоминают языковые паттерны, но не учатся различать правду и ложь. Это приводит к тому, что модели могут выдавать уверенные, но ложные ответы на конкретные вопросы. Чтобы снизить угадывание, исследователи предлагают изменить систему оценки, вводя штрафы за ошибки и частичные баллы за признание неуверенности.
Крупномасштабная компенсация авторам по делу против Anthropic
Группа писателей добилась заключения соглашения с компанией Anthropic, которое предусматривает выплату 1,5 млрд долларов в качестве компенсации за нарушение авторских прав. Согласно условиям, компания должна уничтожить нелегальные наборы данных и выплатить около 3 тыс. долларов за каждый нарушённый труд. Этот случай стал крупнейшим в истории по подобной теме и подчёркивает важность использования лицензированных данных при разработке ИИ-продуктов.
Оптимизация работы с LLM за счёт ветвления диалога
Функция ветвления диалога в ChatGPT позволяет создавать отдельные ветки беседы, начиная с любого сообщения, что упрощает тестирование разных подходов и сценариев. Это снижает когнитивную нагрузку на пользователя и повышает эффективность взаимодействия с LLM. Ветвление помогает рассматривать модель как инструмент, а не как субъекта с фиксированными мнениями, что расширяет возможности её применения.
Новый инструмент Google для оценки больших языковых моделей
Google представила инструмент Stax, предназначенный для тестирования и оценки эффективности больших языковых моделей. С его помощью разработчики могут проверять качество ответов, безопасность контента и скорость отклика систем. Инструмент особенно полезен для создания надежных приложений, таких как юридические ассистенты и клиентские чат-боты.
Поддержка ИИ-инфраструктуры через сертификаты вычислительной мощности
Программа сертификатов вычислительной мощности в Китае направлена на субсидирование затрат малых и средних предприятий на обучение моделей искусственного интеллекта. В крупных городах, таких как Шанхай и Чэнду, выделяются миллионы юаней, покрывающих до 80% расходов на ИИ-обучение. Эта мера способствует более широкому использованию центров обработки данных и укреплению национальной ИИ-инфраструктуры.
LLM имеет 26 записей событий в нашей базе. Объединили похожие карточки: LLM; Модели больших языковых систем; Модели глубокого обучения и другие.