Механизм внимания
Механизм внимания в новостной повестке, упоминания и aналитика в реальном времени.
Календарь упоминаний:
2025
01 октября
Снижение вычислений за счёт оптимизации внимания
Механизм внимания в языковых моделях определяет, какие слова важны для понимания контекста, но при увеличении длины текста вычисления растут квадратично, что делает его дорогим и неэффективным. DeepSeek представила архитектуру DSA, которая использует sparse attention — модель оценивает только до 2048 наиболее значимых связей между словами, игнорируя менее важные. Это позволяет сократить вычислительную нагрузку без потери качества понимания текста.
Механизм внимания имеет 1запись событий в нашей базе. Объединили похожие карточки: Механизм внимания; Функционирование механизма внимания; Процесс концентрации внимания и другие.