<?xml version='1.0' encoding='utf-8'?>
<feed xmlns="http://www.w3.org/2005/Atom"><title>Душный NLP</title><link href="https://ml-brand.github.io/stuffyNLP/" rel="alternate" /><link href="https://ml-brand.github.io/stuffyNLP/atom.xml" rel="self" type="application/atom+xml" /><id>https://ml-brand.github.io/stuffyNLP/</id><updated>2026-04-21T16:41:45+00:00</updated><entry><title>Qwen3-Next, или Как RNN эволюционировали в гибридные linear attention</title><link href="https://t.me/stuffyNLP/239" /><id>https://t.me/stuffyNLP/239</id><author><name>Душный NLP</name></author><updated>2026-04-14T10:52:09+00:00</updated><published>2026-04-14T10:52:09+00:00</published><content type="html">&lt;strong&gt;Qwen3-Next, или Как RNN эволюционировали в гибридные linear attention &lt;/strong&gt;&lt;br&gt;&lt;br&gt;В эпоху агентов, ризонинга и мультимодальности длинные контексты начинают играть всё более значимую роль. Привычный нам softmax attention из-за своей квадратичной зависимости от длины контекста сильнее влияет на эффективность обучения и инференса. &lt;br&gt;&lt;br&gt;Для решения проблемы квадратичности попробовали обратиться к RNN. Так появился новый класс аттеншнов — linear attention. Как следует из названия, они зависят от длины контекста линейно, что делает их в разы эффективнее на больших контекстах. Но модели, которые используют только linear attention, плохо справляются с retrieval-задачами (ещё вернёмся к этому вопросу в посте).&lt;br&gt;&lt;br&gt;Объединив лучшее из двух подходов, ML-разработчики получили гибриды. Сегодня разберём, как они устроены, на примере одной из самых хайповых современных моделей — &lt;a href="https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&amp;amp;from=research.latest-advancements-list" rel="nofollow noopener noreferrer"&gt;Qwen3-Next&lt;/a&gt;. &lt;br&gt;&lt;br&gt;Вспомним, что представляют из себя современные линейные аттеншны. По сути, это RNN, только вместо векторного состояния — матричное, побольше. Ещё в линейных аттеншнах есть механизмы забывания — гейты. Вместо того, чтобы как полный аттеншн хранить весь прошлый контекст в KV-cache (который растёт с увеличением длины последовательности), линейные аттеншны учатся сжимать весь контекст в стейт фиксированного размера. А гейты помогают лучше регулировать, что запомнить и забыть. &lt;br&gt;&lt;br&gt;Но бесплатный сыр бывает только в мышеловке: из-за сжатия контекста в стейт фиксированного размера в линейных аттеншнах нет доступа ко всей исходной последовательности. То есть, точно скопировать рандомный токен не получится. Поэтому-то и страдают задачи retrieval и копирования. Но чтобы справиться с этим, достаточно нескольких слоёв с полным атеншеном.&lt;br&gt;&lt;br&gt;Вернёмся к Qwen3-Next. Рассмотреть её архитектуру можно на схеме. Три четверти слоёв — линейный атеншен в лице Gated DeltaNet. 3/4 — довольно распространенная пропорция. Также в этой архитектуре проапгрейдили обычный полный аттеншн с  помощью &lt;a href="https://arxiv.org/pdf/2505.06708" rel="nofollow noopener noreferrer"&gt;swiglu-like-гейтинга&lt;/a&gt;. Это улучшило качество и решило проблему с attention sink.&lt;br&gt;&lt;br&gt;Partial Rope, как следует из названия, «крутит» только часть хидденов головы. В Qwen3-Next только четверть хидденов головы получает информацию о позиции в последовательности. По словам авторов, это позволяет лучше экстраполироваться при увеличении контекста. &lt;br&gt;&lt;br&gt;Zero-Centered RMSNorm математически эквивалентен обычному RMSNorm. Единственное отличие — веса инициализируются нулями, а не единицами, и потом на форварде к весу прибавляется 1. Формально это одно и то же, но из-за того, что веса теперь у нуля, где выше гранулярность float’ов, численная стабильность улучшается. Ещё более важно, что это позволяет использовать WD для весов в RMSNorm: некоторые веса становились слишком большими, добавление WD улучшило стабильность обучения.&lt;br&gt;&lt;br&gt;Sparsity очень высокая — 1/50. Для масштаба, у DeepSeek она составляет 1/32, у Qwen235B — 1/16. Из 80B параметров активны только 3B. &lt;br&gt;&lt;br&gt;Познакомиться с Qwen3-Next поближе можно на &lt;a href="https://huggingface.co/Qwen/Qwen3-Next-80B-A3B-Instruct" rel="nofollow noopener noreferrer"&gt;HuggingFace&lt;/a&gt;. А ещё недавно вышла новая линейка моделей, основанная на той же архитектуре — &lt;a href="https://qwen.ai/blog?id=qwen3.5" rel="nofollow noopener noreferrer"&gt;Qwen3.5&lt;/a&gt;. В текущем опенсорсе это SoTA. &lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Даниил Сухой&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+A3P9VvxD16VhY2M6" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Quartet II — обучение в NVFP4 с точными несмещёнными градиентами</title><link href="https://t.me/stuffyNLP/238" /><id>https://t.me/stuffyNLP/238</id><author><name>Душный NLP</name></author><updated>2026-04-06T12:47:06+00:00</updated><published>2026-04-06T12:47:06+00:00</published><content type="html">&lt;strong&gt;Quartet II — обучение в NVFP4 с точными несмещёнными градиентами&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В последние годы наблюдается тренд на снижение точности, в которой обучают модели. Если ещё недавно использовали преимущественно BF16, то в 2024-м, например в DeepSeek-V3 — уже FP8, а в 2025-м переходят и на FP4. Снижение точности, однако, требует применения трюков. Сегодня разберём &lt;a href="https://arxiv.org/abs/2601.22813" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt;, в которой описывается новый метод обучения в NVFP4.&lt;br&gt;&lt;br&gt;Прошлым летом мы придумали &lt;a href="https://arxiv.org/abs/2505.14669" rel="nofollow noopener noreferrer"&gt;Quartet&lt;/a&gt; — первый метод обучения в FP4. Он использовал формат данных MXFP4, который поддерживается на уровне железа в GPU, вроде NVIDIA Blackwell. Quartet использовал случайные вращения тензоров для борьбы с аутлаерами и показал, что FP4 обучение даёт выигрыш при фиксированном бюджете относительно FP8. &lt;br&gt;&lt;br&gt;Но есть и другой формат, основанный на FP4, — NVFP4, который NVIDIA создала специально для LLM. Он использует более точные FP8-скейлы. На его основе прошлой осенью NVIDIA предложила собственный, более точный рецепт обучения в FP4. Одной из его фишек было использование стохастического округления (stochastic rounding, SR) на backward pass — методики, которая делает оценки градиентов несмещёнными ценой более высокого уровня их шума. Мы задались вопросом: есть ли способ достичь несмещённых оценок без шумного SR в FP4?&lt;br&gt;&lt;br&gt;Оказывается, вращения, которые помогали нам с аутлаерами, могут помочь и с несмещённостью. Квантизуя случайно повёрнутый тензор, мы усредняем ошибку по всем возможным направлениям, и получившаяся оценка будет коллинеарена оригинальному тензору. Отнормировав квантизованный тензор, коллинеарность можно превратить в несмещённость. Но FP8-скейлы не позволят просто так отнормировать квантизованный тензор — они слишком грубые, чтобы впитать точную перенормировку порядка 0,94~1,06.&lt;br&gt;&lt;br&gt;Какой выход? Вшить эти скейлы в FP8 с помощью SR. Обратите внимание, что делается это не на каждый FP4-элемент, как в случае с методом NVIDIA, а только в FP8-скейлы, что даёт ошибку в сто раз меньше. В итоге, полная ошибка получается вдвое меньше, чем у простого SR. Мы объединили метод с более точной квантизацией на forward pass и получили Quartet II — SOTA обучения в NVFP4.&lt;br&gt;&lt;br&gt;Таким образом, случайные вращения не просто борются с аутлаерами, а служат важным источником несмещённости в оценке градиентов, который уменьшает ошибку и ускоряет сходимость FP4-обучения. К статье прилагаются &lt;a href="https://github.com/IST-DASLab/Quartet-II" rel="nofollow noopener noreferrer"&gt;кернелы&lt;/a&gt; для 5090 и B200, чтобы можно было попробовать NVFP4 на своих моделях и задачах.&lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил Андрей Панфёров, автор канала &lt;/em&gt;&lt;a href="https://t.me/black_samorez_channel" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;black_samorez&lt;/em&gt;&lt;/a&gt;&lt;em&gt; &lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/stuffyNLP" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Bridging the Gap Between Promise and Performance for Microscaling FP4 Quantization</title><link href="https://t.me/stuffyNLP/237" /><id>https://t.me/stuffyNLP/237</id><author><name>Душный NLP</name></author><updated>2026-03-26T10:49:15+00:00</updated><published>2026-03-26T10:49:15+00:00</published><content type="html">&lt;strong&gt;Bridging the Gap Between Promise and Performance for Microscaling FP4 Quantization&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Новые 4-битные форматы с плавающей точкой для хранения весов и активаций, которые на уровне железа поддерживают графические процессоры NVIDIA и AMD, обещают заметное ускорение времени инференса LLM без существенной просадки качества.&lt;br&gt;&lt;br&gt;Сегодня разберём первое всестороннее исследование FP4-квантизации — &lt;a href="https://arxiv.org/abs/2509.23202" rel="nofollow noopener noreferrer"&gt;работу&lt;/a&gt;, которую инженеры Yandex Research выполнили совместно с коллегами из Institute of Science and Technology Austria, Red Hat AI и ETH Zürich.&lt;br&gt;&lt;br&gt;&lt;em&gt;Квантизация — это способ сократить объём памяти, необходимый для хранения массива данных. Например, выбором весов активации из ограниченной сетки значений. &lt;/em&gt;&lt;br&gt;&lt;br&gt;Выбор сетки зависит от того, насколько равномерно распределены ваши данные. Например, у integer сетка между всеми значениями равномерная, а у floating point — более густая около нуля, но чем дальше от него, тем разреженнее. То есть, в теории для равномерного распределения отлично подойдёт integer, а для распределения Стьюдента и других распределений с тяжёлыми хвостами лучше выбрать квантование с плавающей запятой. &lt;br&gt;&lt;br&gt;На практике анализ показал, что современные методы чаще всего не справляются с FP4 по двум причинам: &lt;br&gt;&lt;br&gt;— Малый размер групп одновременно квантизуемых весов в формате NVFP4, видимо, делает неэффективными традиционные методы уменьшения выбросов.&lt;br&gt;&lt;br&gt;— Квантизация скейлов (мультипликативных факторов) MXFP4 к степеням двойки сильно снижает точность представления весов и активаций.&lt;br&gt;&lt;br&gt;В работе предлагается улучшенная версия алгоритма квантования GPTQ — MR-GPTQ, адаптированную для форматов FP4: &lt;br&gt;&lt;br&gt;1. &lt;strong&gt;Определяем сетку квантования&lt;/strong&gt;, эффективную для MSE: попеременно оптимизируем сетку в масштабах каждого блока и тензора. Это позволило добиться значительных улучшений для NVFP4 без вращений. А для MXFP4 с Адамаровыми вращениями некий фиксированный масштаб сетки универсален для всех моделей.&lt;br&gt;&lt;br&gt;2. &lt;strong&gt;Изменяем порядок квантизации весов&lt;/strong&gt;. Алгоритм GPTQ перед квантизацией переупорядочивает колонки квантизуемого тензора в соответствии с величиной диагонали матрицы Гессе (колонки соответствующие большим диагональным элементами идут первыми). Перестановка повышает точность, но во время инференса приходится ещё раз переупорядочивать каналы в тензоре активаций, что приводит к замедлению на 10-20%.&lt;br&gt;&lt;br&gt;Вместо этого предлагаем определять порядок колонок статически, предпосчитывая статистики групп заранее. Так удаётся достичь почти того же качества, что и при динамической перестановке, но без замедления&lt;br&gt;&lt;br&gt;3. Вращаем активации во время инференса с помощью блочно-диагональных Адамаровых поворотов. Они, с одной стороны, позволяют уменьшить ошибку кватнизации, с другой — не замедляют время прямого прогона нейронной сети.&lt;br&gt;&lt;br&gt;Эти три модификации помогают учесть особенности форматов FP4 и значительно повышают точность квантования по сравнению с предыдущими подходами.&lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Денис Кузнеделев&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+A3P9VvxD16VhY2M6" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models</title><link href="https://t.me/stuffyNLP/235" /><id>https://t.me/stuffyNLP/235</id><author><name>Душный NLP</name></author><updated>2026-03-17T13:05:36+00:00</updated><published>2026-03-17T13:05:36+00:00</published><content type="html">&lt;strong&gt;Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня разбираем &lt;a href="https://arxiv.org/abs/2601.07372" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; от DeepSeek на тему модификации трансформер-архитектуры. &lt;br&gt;&lt;br&gt;&lt;strong&gt;Мотивация &lt;br&gt;&lt;/strong&gt;&lt;br&gt;У трансформеров нет native primitive для knowledge lookup, поэтому ретривал им приходится симулировать вычислениями. Идея статьи — добавить в архитектуру явный inductive bias на ретривал через Engram-модуль и улучшить метрики.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Архитектура&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Engram добавляют внутрь блока трансформера, но не во все слои, а максимум в два. Выход модуля добавляется к residual stream. В аблейшенах показали, что лучше всего вставлять Engram-модуль во 2-й слой, а комбинация 2-го и 6-го слоёв даёт более низкий validation loss.&lt;br&gt;&lt;br&gt;Технически Engram-модуль представляет обучаемые словари nn.Embedding, на вход которых подаются отдельные hash&amp;#x27;ы для 2- и 3-грамм. Также в модуле обучаются параметры: context-aware gating (вдохновленный аттеншном), свёртка по seq_len и RMSNorm&amp;#x27;ы.&lt;br&gt;&lt;br&gt;Проверяют модуль в MoE-моделях. В них есть параметры, которые не активны на forward. Allocation ratio (ρ) — это доля неактивных параметров, которая содержится в блоках экспертов; в MoE ρ=1. Параметры для Engram берут, уменьшая количество неактивных экспертов, поэтому становится ρ&amp;lt;1. Чтобы понять, какую долю параметров экспертов оптимально перенаправить в модуль, делают grid search, — запускают несколько претрейнов и меняют только ρ.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Как работает Engram&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Работа модуля начинается с обработки входных токенов. Делают tokenizer compression: применяют детерминированные преобразования, чтобы привести токены к canonical ID. Это как стемминг или лемматизация, но для токенов.&lt;br&gt;&lt;br&gt;Из последовательности токенов строят 2- и 3-граммы. Напрямую индексировать n-граммы нельзя (их слишком много), поэтому используют Hash Embeddings-подход для уменьшения коллизий в рамках небольшого словаря. Для каждой n-граммы получают хеш (вариация multiplicative-XOR), т.е. одно число. Используется несколько голов, поэтому на выходе получается несколько хешей-чисел. Это буквально индексы, по которым получают вектора из nn.Embedding, где у каждой головы и n-граммы независимые вектора — и дальше их конкатенируют.&lt;br&gt;&lt;br&gt;Дальше — context-aware gating. Берут механизм сродни dot product attention: входной hidden state слоя используется как query, а к эмбеддингам применяют линейные преобразования, аналогичные W_K и W_V. В отличие от аттеншна здесь нет софтмакса, вместо него используется сигмоида, а полученные скоры поэлементно перемножаются с V.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Обучение и инференс&lt;br&gt;&lt;/strong&gt;&lt;br&gt;На обучении lookup table шардируют между девайсами, для пересылки нужных эмбеддингов используют all-to-all.&lt;br&gt;&lt;br&gt;На инференсе таблицу можно вынести в RAM+disk, потому что её не нужно обновлять, только читать. Чтобы не проседал throughput, подсчёты Engram накладывают на основной forward pass: на вход модуля идут токены, значит часть эмбеддингов можно заранее преподсчитывать. В итоге для lookup table на 100B параметров потери по throughput &amp;lt; 3%.&lt;br&gt;&lt;br&gt;Дополнительной памяти на Engram-модуль не требуется, так как параметры для него берут у неактивных экспертов MoE.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Эксперименты&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Минимальный лосс получается, когда четверть неактивных параметров уходит в Engram. Это протестировали на двух бюджетах FLOPs.&lt;br&gt;&lt;br&gt;На большой Engram-27B-модели метрики растут не только на knowledge-intensive-задачах, но иногда ещё сильнее на reasoning, math и code. На бенчмарках с длинным контекстом тоже получаются лучшие метрики.&lt;br&gt;&lt;br&gt;Также проводят sensitivity-анализ, зануляя выход Engram-модуля, и видят, что сильнее всего это бьёт по задачам, требующих factual knowledge.&lt;br&gt;&lt;br&gt;Так получается, потому что у модели увеличивается effective depth: ранним слоям не нужно заниматься knowledge lookup (имитировать его), и больше слоёв теперь могут «думать».&lt;br&gt;&lt;br&gt;Самыми важными компонентами Engram-модуля оказываются branch-specific fusion (свой W_K для каждой ветки в mHC-архитектуре), context-aware gating и tokenizer compression. Меньше влияют свёртка и добавление 4-граммы (при условии, что будут делить общий бюджет параметров с 2- и 3-граммами).&lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил Никита Курдюков из Т-Банка&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt; &lt;em&gt;специально для &lt;/em&gt;&lt;em&gt;@YSDA_YR_2019&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+A3P9VvxD16VhY2M6" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Mercury — диффузионная модель для написания кода</title><link href="https://t.me/stuffyNLP/232" /><id>https://t.me/stuffyNLP/232</id><author><name>Душный NLP</name></author><updated>2026-03-04T11:04:02+00:00</updated><published>2026-03-04T11:04:02+00:00</published><content type="html">&lt;strong&gt;Mercury — диффузионная модель для написания кода&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разберём &lt;a href="https://arxiv.org/abs/2506.17298" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; о диффузионной модели Mercury. На Copilot Arena она занимала второе место по качеству и первое — по скорости.&lt;br&gt;&lt;br&gt;Диффузионные модели уже зарекомендовали себя в сфере генерации изображений. Авторы сегодняшней работы, в свою очередь, предлагают модель, ориентированную на решение задач программирования. Это объяснимо: диффузионные модели не очень хорошо подходят для генерации свободных коротких текстов, а код структурирован, в нём как правило много токенов.&lt;br&gt;&lt;br&gt;Существует две версии Mercury Coder — Mini и Small. Подробности о них в публикации не раскрываются: мы не знаем их параметры и размеры. Заявлено, что Mini способна обрабатывать более 1100 токенов в секунду, а Small — 700. На претрейне использовали датасет объёмом в триллионы токенов, состоящий из интернет-данных, а также реальных и синтетических данных из проприетарных источников. &lt;br&gt;&lt;br&gt;Что касается архитектуры, то, по сути — это трасформер, но с иным подходом к генерации. Модель стартует с зашумлённой версии ответа и на каждом шаге параллельно поправляет много позиций, постепенно «денойзя» последовательность. Длинны контекста модели — 32 тысячи токенов с расширением до 128 тысяч.&lt;br&gt;&lt;br&gt;В большинстве бенчмарков Mercury Coder показывает себя лучше опенсорсных моделей, но уступает самым крупным и известным конкурентам вроде DeepSeek, GPT и Claude (&lt;em&gt;таблица 1&lt;/em&gt;). То же самое касается и знания разных языков программирования — Mercury лучше опенсорсных решений, но хуже закрытых (&lt;em&gt;таблица 2&lt;/em&gt;). При этом в плане скорости и при оценке fill-in-the-middle Mercury обходит даже именитых соперников (&lt;em&gt;таблица 3)&lt;/em&gt;. &lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Павел Темирчев&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+WN9QJcHKaspkNWIy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Рекурсивные языковые модели</title><link href="https://t.me/stuffyNLP/229" /><id>https://t.me/stuffyNLP/229</id><author><name>Душный NLP</name></author><updated>2026-02-24T11:14:02+00:00</updated><published>2026-02-24T11:14:02+00:00</published><content type="html">&lt;strong&gt;Рекурсивные языковые модели&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В последнее время всё чаще обсуждают проблему длинного контекста. Большое количество токенов просто физически не помещается в модели, а с увеличением контекста зачастую падает качество. Авторы &lt;a href="https://arxiv.org/abs/2512.24601" rel="nofollow noopener noreferrer"&gt;сегодняшней статьи&lt;/a&gt; предлагают решение: дать моделям правильные инструменты.&lt;br&gt;&lt;br&gt;Как это устроено: у модели есть промпт с описанием задачи и доступных тулов. Первый — это Python REPL. Модель может исполнить произвольный код, где в переменной &lt;code&gt;prompt&lt;/code&gt; сохранён весь длинный промпт.&lt;br&gt;&lt;br&gt;Второй тул — это вызов языковой модели на глубине 1 (&lt;code&gt;depth=1&lt;/code&gt;) с поданным фрагментом длинного промпта. Это напоминает субагентов в агентах для написания кода (Claude Code, Codex), но есть важное отличие. Вызов &lt;code&gt;llm_query&lt;/code&gt; живёт «внутри» REPL, а значит модель может встроить его в цикл, условие или любую другую программную конструкцию. В Claude Code или Codex субагент — это отдельный тул-колл, который модель вызывает из контекста напрямую, без программного контроля. Такая модель называется рекурсивной (RLM), и их может быть несколько в рамках одного цикла. RLM не обязательно должна быть идентична изначальной. Главное, что у неё пустой контекст.&lt;br&gt;&lt;br&gt;Суть метода, предложенного авторами статьи, в том, чтобы дать модели возможность запускать себя рекурсивно в той же программной среде (&lt;em&gt;изображение 1&lt;/em&gt;). Среди бейзлайнов авторы рассматривают вариант без самовызовов (только модель с большим промптом и REPL), summary agent (суммаризация контекста, не поместившегося в модель) и CodeAct (код плюс ретривал через BM25).&lt;br&gt;&lt;br&gt;Нюансы разницы RLM и типичных кодовых агентов до сих пор вызывают дискуссии с авторами в твиттере, и хайп вокруг статьи и идеи только растёт. Примеры &lt;a href="https://xcancel.com/a1zhang/status/2014337263287804260" rel="nofollow noopener noreferrer"&gt;тут&lt;/a&gt;, &lt;a href="https://xcancel.com/lateinteraction/status/2019852730177863977" rel="nofollow noopener noreferrer"&gt;тут&lt;/a&gt; и &lt;a href="https://xcancel.com/PrimeIntellect/status/2006834561637036272" rel="nofollow noopener noreferrer"&gt;тут&lt;/a&gt;. &lt;br&gt;&lt;br&gt;Эксперименты проводили на Qwen3 и GPT-5 (&lt;em&gt;изображение 2&lt;/em&gt;). На бенчмарке BrowseComp+ (контекст 6–11 миллиона токенов, нужно найти один релевантный документ из тысячи и ответить на вопрос) базовые модели невозможно запустить — контекст просто не влезает. RLM здесь работает. &lt;br&gt;&lt;br&gt;Но поиск по длинному контексту — не единственная задача, которую решают RLM. Бенчмарк OOLONG требует семантической обработки фрагментов текста и их агрегации. Сложность линейная относительно длины входа. Здесь RLM без самовызовов уступает даже базовой модели, потому что задача требует «видеть» весь контекст. RLM с самовызовами заметно выигрывает у всех бейзлайнов.&lt;br&gt;&lt;br&gt;Самый показательный результат на OOLONG-Pairs. Здесь нужно сравнивать пары фрагментов, то есть сложность задачи квадратичная. Базовая модель и summary agent выдают результат около нуля. RLM с самовызовами решает эту задачу, программно организуя квадратичное число вызовов через код в REPL. Это класс задач, недоступный другим подходам.&lt;br&gt;&lt;br&gt;По стоимости RLM с самовызовами зачастую сопоставима с базовой моделью, хотя со сложностью задачи стоимость растёт (&lt;em&gt;изображение 3&lt;/em&gt;).&lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Иван Рубачёв&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+WN9QJcHKaspkNWIy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Как заставить агентов делать работу над ошибками</title><link href="https://t.me/stuffyNLP/227" /><id>https://t.me/stuffyNLP/227</id><author><name>Душный NLP</name></author><updated>2026-02-16T13:40:56+00:00</updated><published>2026-02-16T13:40:56+00:00</published><content type="html">&lt;strong&gt;Как заставить агентов делать работу над ошибками&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разбираем &lt;a href="https://arxiv.org/abs/2501.11425" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; об обучении агентов. Проблема такая: реворд-модели оценивают только результат в конце траектории, а если агент сделал ошибку и исправил её, нельзя сказать, когда это произошло. Если бы у нас была такая возможность, то мы могли бы раньше направить обучаемую LLM по нужному пути. Есть способы фиксировать ошибки и делать реворд по шагам, но это дорого и сложно в реализации.&lt;br&gt;&lt;br&gt;Авторы предлагают метод Agent-R, суть которого заключается в обучении агентов не на правильных траекториях, а на тех, где есть явная ошибка и её исправление. Такие траектории получаются через Monte Carlo Tree Search. Берутся пары из одной стартовой точки (инструкции): одна траектория успешная, а другая — нет. На инференсе момент расхождения должна определить сама модель, а при обучении к началу провальной траектории добавляется фраза-рефлексия, которую генерирует агент, понимая, что он ошибся (CoT). Следом «приклеивается» хвост удачной траектории и на всём этом делают SFT. Такой подход, соединеняющий рефлексии и «хороший» хвост, снижает риск склейки не связанных траекторий. &lt;br&gt;&lt;br&gt;В статье выводят следующие типы траекторий:&lt;br&gt;&lt;br&gt;&lt;strong&gt;Initial Trajectory&lt;/strong&gt; — общий начальный префикс.&lt;br&gt;&lt;strong&gt;Bad Trajectory&lt;/strong&gt; — субоптимальные действия c низкой наградой.&lt;br&gt;&lt;strong&gt;﻿﻿Good Trajectory&lt;/strong&gt; — оптимальные действия с высокой наградой.&lt;br&gt;&lt;strong&gt;Revision Trajectory&lt;/strong&gt; — траектория, в которой агент совершил ошибку и исправил её. &lt;br&gt;&lt;br&gt;Для получения Revision Trajectory можно брать плохие траектории, дожидаться их финала и переписывать. Однако так не получится обучить агента ловить ошибки на лету. Вместо этого авторы заставляют модель самостоятельно анализировать траектории и пытаться определить первый шаг, где совершена ошибка. На этом месте траектория обрезается, вставляется этап рефлексии и следом — правильная траектория. &lt;br&gt;&lt;br&gt;Monte Carlo Tree Search позволяет собрать много разных траекторий с одним началом. Это удобно, так как можно сравнивать хорошие и плохие продолжения. Финальный реворд используется не для обучения напрямую, а для классификации траекторий по качеству — то есть, по сути, чтобы понять, что пойдёт в SFT-датасет. У реворда есть два порога: один отделяет плохие траектории от хороших, а другой выбирает уже из хороших лучшие. &lt;br&gt;&lt;br&gt;Авторы отмечают, что обучаться только на Revision Trajectory нельзя — это мешает агенту определять правильные траектории. Поэтому изначально в датасет добавляют много ﻿﻿Good Trajectory и постепенно в процессе SFT повышают порог реворда оптимальных решений, чтобы в конце оставались только лучшие из них. Кроме того, в датасет подмешивают обычные языковые данные, что помогает агенту не забывать, чему он обучался ранее. &lt;br&gt;&lt;br&gt;Эксперименты проводили на Llama-3.1-8B, которую обучили на собранных Revision Trajectory. Результаты можно посмотреть в таблице, приложенной к посту. Авторы заявляют, что исправленные траектории оказываются даже лучше идеальных. &lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовила &lt;/em&gt;❣ &lt;em&gt;Карина Романова&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;strong&gt;Подписывайтесь на канал Карины &lt;/strong&gt;&lt;a href="https://t.me/nadlskom" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;«что-то на DL-ском»&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt; — там познавательно и можно ставить реакт кота в парике. &lt;/strong&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+RJOXcbwLdG80YmUy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Seeing Eye to AI: Human Alignment via Gaze-Based Response Rewards for Large Language Models</title><link href="https://t.me/stuffyNLP/226" /><id>https://t.me/stuffyNLP/226</id><author><name>Душный NLP</name></author><updated>2026-02-12T11:04:04+00:00</updated><published>2026-02-12T11:04:04+00:00</published><content type="html">&lt;strong&gt;Seeing Eye to AI: Human Alignment via Gaze-Based Response Rewards for Large Language Models&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разберём &lt;a href="https://arxiv.org/abs/2410.01532" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; о GazeReward — фреймворке, который интегрирует неявную обратную связь eye-tracking (ET) в модель вознаграждения (RM).&lt;br&gt;&lt;br&gt;GPT, Llama, Claude, Gemini и другие популярные LLM отлично справляются с самыми разными задачами, но результат их работы не всегда соответствует ожиданиям пользователей. Модели часто донастраивают с помощью Reinforcement Learning with Human Feedback (RLHF), но и этот метод недостаточно хорош для точного моделирования предпочтений.&lt;br&gt;&lt;br&gt;В GazeReward авторы предлагают учитывать данные о движении и фиксации человеческих глаз (eye-tracking или просто ET) в качестве дополнительного сигнала о том, как пользователи воспринимают информацию. &lt;br&gt;&lt;br&gt;Для интеграции ET в RM авторы предлагают два подхода: &lt;br&gt;&lt;br&gt;🔴 GazeConcat — конкатенировать ET с текстовыми эмбеддингами.&lt;br&gt;🔴 GazeAdd — добавить ET к текстовым эмбеддингам.&lt;br&gt;&lt;br&gt;Архитектура фреймворка — на схеме выше. Сначала обучают отдельную модель для предсказания ET и генерируют их фичи. Потом объединяют ET-фичи с текстом, создавая различные типы комбинированных эмбеддингов. В конце — передают в качестве входных данных в RM, которую обучают по стандартной модели Брэдли-Терри.&lt;br&gt;&lt;br&gt;То есть, традиционный RM с текстовым входом (комбинацией запроса и ответа) дополняют искусственной неявной обратной связью с помощью функций ET, сгенерированных по тому же тексту.  &lt;br&gt;&lt;br&gt;Эксперименты показали: фреймворк GazeReward помог повысить точность прогнозов о предпочтениях людей более чем на 10%. По мнению авторов, это подтверждает потенциал мультимодальных сигналов для NLP.&lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил Карим Галлямов&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+CX_osZK_vqo2ZGVi" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Превращаем decoder-only в encoder-decoder</title><link href="https://t.me/stuffyNLP/224" /><id>https://t.me/stuffyNLP/224</id><author><name>Душный NLP</name></author><updated>2026-02-05T11:55:02+00:00</updated><published>2026-02-05T11:55:02+00:00</published><content type="html">&lt;strong&gt;Превращаем decoder-only в encoder-decoder&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Несмотря на то, что decoder-only-модели сейчас популярнее, encoder-decoder-модели по-прежнему остаются актуальными в некоторых задачах. В сегодняшней &lt;a href="https://arxiv.org/abs/2504.06225" rel="nofollow noopener noreferrer"&gt;статье&lt;/a&gt; — техника адаптации предобученных decoder-only-моделей в encoder-decoder с сохранением преимуществ обоих подходов. &lt;br&gt;&lt;br&gt;Суть метода:  берут предобученную decoder-only и из её весов собирают encoder-decoder. В энкодере self-attention и FFN инициализируются из соответствующих self-attention и FFN исходной модели, но сам self-attention переключают с causal на двунаправленный. В декодере self-attention (он остаётся causal) и FFN тоже берутся из decoder-only (&lt;em&gt;изображение 1&lt;/em&gt;). &lt;br&gt;&lt;br&gt;Новая часть — cross-attention: если энкодер и декодер получены из одного и того же decoder-only-чекпойнта (с одинаковой конфигурацией и весами), то cross-attention инициализируют из SA. В противном случае инициализируется рандомно с дополнительным обучением в начале. &lt;br&gt;&lt;br&gt;Далее авторы используют два варианта претрейн-обджектива encoder-decoder-моделей — PrefixLM и UL2 — и сравнивают их. Первый предполагает разбивку последовательностей на две равные части: первую половину текста подают в энкодер как префикс, а вторую должен генерировать декодер. Такой подход облегчает имплементацию дистилляции, где исходная decoder-only выступает «учителем». В рамках &lt;a href="https://arxiv.org/abs/2205.05131" rel="nofollow noopener noreferrer"&gt;UL2&lt;/a&gt; модель решает denoising-задачи: часть токенов заменяется на пропуски; в энкодер подаётся текст с пропущенными токенами, а в декодер — сами пропущенные токены. Дистилляция здесь не используется. &lt;br&gt;&lt;br&gt;Авторы отмечают, что PrefixLM даёт лучшие результаты за счёт дистилляции, но у UL2-моделей оказались лучшие энкодер-представления. В целом, как показывают эксперименты, модели, полученные с помощью адаптации показывают лучшее качество, чем обученные с нуля. &lt;br&gt;&lt;br&gt;Всё проверяли на Gemma 2 на 2B и 9B параметров. Сбалансированная адаптация — 2B-2B и 9B-9B — выходят на сопоставимое с decoder-only-моделями качество довольно быстро. 9B-2B растёт медленнее из-за нового cross-attention (&lt;em&gt;результаты для итоговых моделей — на изображении 2)&lt;/em&gt;.&lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Антон Викторов&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+CyRN2kZ7xsk1NGIy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Ускорение E2E-инференса через оптимизацию KV-кэша. Часть II</title><link href="https://t.me/stuffyNLP/221" /><id>https://t.me/stuffyNLP/221</id><author><name>Душный NLP</name></author><updated>2026-01-28T12:44:01+00:00</updated><published>2026-01-28T12:44:01+00:00</published><content type="html">&lt;strong&gt;Ускорение E2E-инференса через оптимизацию KV-кэша.&lt;/strong&gt; &lt;strong&gt;Часть II&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В &lt;a href="https://t.me/stuffyNLP/220" rel="nofollow noopener noreferrer"&gt;первой части&lt;/a&gt; разбора мы говорили о методах оптимизации KV-кэша в принципе. А сегодня речь пойдёт об одном конкретном подходе — &lt;a href="https://arxiv.org/abs/2410.21465" rel="nofollow noopener noreferrer"&gt;ShadowKV&lt;/a&gt;.&lt;br&gt;&lt;br&gt;В его основе наблюдение, что post-RoPE key cache обладает attention locality — соседние токены часто имеют высокую cosine similarity, и только небольшая часть токенов выбивается из этого паттерна. Поэтому их режут на чанки по 8 токенов и строят landmarks — репрезентативные средние ключи для чанка. Это значительно ускоряет этап выбора ключей на шаге декодирования, а также улучшает доступ к памяти и позволяет лучше насыщать шину.&lt;br&gt;&lt;br&gt;Ключевой момент в том, что лучше всего сжимается именно pre-RoPE K: он хорошо раскладывается в низкий ранг с минимальной ошибкой, заметно лучше, чем V. Поэтому ShadowKV делает так: pre-RoPE K сжимается через SVD, а V не сжимается, а уезжает в CPU (RAM), чтобы экономить GPU память и bandwidth. &lt;br&gt;&lt;br&gt;При этом небольшое число токенов, которые плохо объясняются landmark’ами, выделяются как outliers (выбросы) и сохраняются полнорангово. В статье отмечают, что значимая доля outliers — это &lt;a href="https://arxiv.org/abs/2309.17453" rel="nofollow noopener noreferrer"&gt;sink tokens&lt;/a&gt;. Достаточно порядка 0,049% бюджета на выбросы, чтобы попасть в точку diminishing returns: это минимальное количество outliers, которое почти полностью закрывает деградацию качества, а дальнейшее увеличение бюджета даёт лишь пренебрежимо малый дополнительный вклад.&lt;br&gt;&lt;br&gt;На этапе prefill пайплайн строится так: параллельно с основным префиллом быстро вычисляются landmarks и outliers, и это вычисление перекрывается с отгрузкой V на CPU. В результате дополнительные шаги минимально увеличивают critical path, потому что большая часть работы делается в overlap-режиме.&lt;br&gt;&lt;br&gt;Q на decode скорится не по всем токенам, а по landmarks каждого чанка. Затем выбираются лучшие чанки, и уже все токены из выбранных чанков отправляются в kernel attention. Для этого K восстанавливаются обратно из low-rank пространства, а соответствующие V подгружаются из CPU.&lt;br&gt;&lt;br&gt;Дополнительно используется оптимизация в духе branch prediction или speculative-подходов. Между двумя соседними шагами декодирования выбранный набор токенов обычно меняется незначительно, потому что запросы на соседних шагах похожи. Поэтому можно кэшировать уже подгруженные токены для каждого слоя и на следующем шаге считать разность множеств, догружая только те токены, которых ещё нет в рабочем наборе. Эта оптимизация lossless относительно ShadowKV, потому что сохраняется инвариант: на каждом шаге в аттеншн всё равно попадает актуальный набор токенов — просто часть из них переиспользуется без повторной загрузки.&lt;br&gt;&lt;br&gt;На бенчмарках деградация остаётся минимальной при бюджете около 1,56% от полного объёма KV. При этом в практических сценариях ShadowKV обеспечивает заметный прирост скорости и позволяет поддерживать существенно больший размер батча — за счёт снижения нагрузки на VRAM и уменьшения стоимости аттеншн на длинных контекстах.&lt;br&gt;&lt;br&gt;Отдельно важно понимать, почему вообще имеет смысл оптимизировать именно аттеншн. Его вычислительная стоимость растёт с длиной последовательности, и на длинных контекстах он начинает доминировать по времени, тогда как FFN от длины контекста почти не зависит. Поэтому на коротких последовательностях в профиле часто доминирует FFN, и ускорение аттеншена даёт небольшой выигрыш. &lt;br&gt;&lt;br&gt;Зато на длинных контекстах бутылочным горлышком становится аттеншн, и тогда по закону &lt;a href="https://en.wikipedia.org/wiki/Amdahl%27s_law" rel="nofollow noopener noreferrer"&gt;Амдала&lt;/a&gt; даже частичное ускорение этой части даёт заметную экономию общего E2E-времени инференса.&lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил&lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Владислав Кругликов&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+CX_osZK_vqo2ZGVi" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Ускорение E2E-инференса через оптимизацию KV-кэша. Часть I</title><link href="https://t.me/stuffyNLP/220" /><id>https://t.me/stuffyNLP/220</id><author><name>Душный NLP</name></author><updated>2026-01-26T12:08:34+00:00</updated><published>2026-01-26T12:08:34+00:00</published><content type="html">&lt;strong&gt;Ускорение E2E-инференса через оптимизацию KV-кэша.&lt;/strong&gt; &lt;strong&gt;Часть I&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Существует много способов ускорить инференс LLM: менять архитектуру, использовать speculative decoding или просто добавлять вычислительные ресурсы. Но есть и более практичный путь — оптимизация KV-кэша.&lt;br&gt;&lt;br&gt;Её можно разделить на pre-train и post-train. Первые требуют изменений до обучения модели: это архитектурные решения вроде GQA/MQA/MLA, смешивание глобального и локального атеншена, а также другие модификации, которые обычно стоят дорого из-за переобучения. &lt;br&gt;&lt;br&gt;Post-train-методы можно применять к уже готовой модели: это различные sparse-стратегии, pruning, удаление повторов токенов и другие техники, которые уменьшают объём KV или сокращают число обращений к нему во время инференса.&lt;br&gt;&lt;br&gt;KV-бюджеты удобно делить на dense и sparse, отдельно для prefill и отдельно для decode. В варианте dense prefill + dense decode (обычный KV-кэш) каждый новый Q взаимодействует со всеми K и V до него: ко всем токенам промпта и всем ранее сгенерированным токенам. Тогда KV-бюджет равен сумме длины промпта и длины генерации. &lt;br&gt;&lt;br&gt;Если сделать sparse только на prefill, а decode оставить плотным, то Q перестаёт смотреть на весь промпт, но общий выигрыш заметен в основном в сценариях «длинный промпт — короткий ответ». Если же оставить dense prefill и сделать sparse decode, это часто релевантно reasoning/CoT-сценариям. Sparse и на prefill, и на decode даёт максимальную экономию бюджета, но обычно сильнее всего ухудшает качество.&lt;br&gt;&lt;br&gt;Sparse можно строить по-разному. Если пересчитывать важные токены на каждом шаге decode, то качество станет выше, но скорость падает. Если пересчитывать раз в несколько токенов, то получается быстрее, но нужно удерживать локальный контекст между пересчётами, иначе модель начинает терять связность.&lt;br&gt;&lt;br&gt;Один из сильных post-train-методов оптимизации KV-кэша — &lt;a href="https://arxiv.org/abs/2410.21465" rel="nofollow noopener noreferrer"&gt;ShadowKV&lt;/a&gt;, который позволяет получать минимальные просадки на бенчмарках без дообучения и увеличивает throughput до трёх раз. О нём мы подробно поговорим в следующей части. &lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил&lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Владислав Кругликов&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+A3P9VvxD16VhY2M6" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>🎄 Лучшие статьи 2025 года — выбор инженеров Яндекса</title><link href="https://t.me/stuffyNLP/219" /><id>https://t.me/stuffyNLP/219</id><author><name>Душный NLP</name></author><updated>2026-01-12T11:10:45+00:00</updated><published>2026-01-12T11:10:45+00:00</published><content type="html">🎄 &lt;strong&gt;Лучшие статьи 2025 года — выбор инженеров Яндекса&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Miss me? Как и &lt;a href="https://t.me/stuffyNLP/218" rel="nofollow noopener noreferrer"&gt;обещали&lt;/a&gt;, возвращаемся не с обзором, а с «кое-чем ещё», но не менее полезным. Мы попросили инженеров Яндекса, чьи разборы вы можете почитать в канале, поделиться (уже) прошлогодними статьями, которые им запомнились больше всего.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2511.21689" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;ToolOrchestra: Elevating Intelligence via Efficient Model and Tool Orchestration&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Статья о маленькой модели (Qwen3-8B-Based), которая, по сути, выполняет функцию планера и роутера во вспомогательные инструменты (глобальный/локальный поиск), специализированные модели (вроде Qwen3-Coder) и модели общего назначения (GPT-5) для решения задач. Кроме того, модель обучена учитывать преференции пользователя по использованию тулов и размену качества на скорость и цену. С помощью обучения на несложной синтетике у авторов получается модель, которая даёт высокий скор на HLE, FRAMES, tau2-bench и при этом оказывается более cost-effective.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2512.01374" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Stabilizing Reinforcement Learning with LLMs: Formulation and Practices&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Обзор нескольких трюков по стабилизации обучения GRPO, ранее предложенных в других статьях. Авторы дают некоторые теоретические обоснования границ применимости этих методов, а затем проводят достаточно подробные экспериментальные подтверждения. Статья позволяет быстро погрузиться в тему проблем стабильности GRPO и попробовать применить эти методы на практике. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2510.22954" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond)&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Исследователи из разных университетов изучили ответы моделей на запросы, допускающие ответ в свободной форме (вроде «в чём смысл жизни?» или «сочини стихотворение о времени»). Обнаружили, что ответы одной и той же модели, и совершенно разных, по форме и содержанию очень похожи. Известные техники повышения разнообразия — регулировка температуры или Min-p Sampling — не сильно помогают. Например, большинство моделей стали сравнивать время с рекой. &lt;br&gt;&lt;br&gt;Вероятно, эффект обусловлен тем, что модели обучаются на похожих данных, собранных из интернета, или даже на синтетике, сгенерированной другими моделями. Кроме того, выяснили, что предпочтения LLM-as-a-Judge плохо коррелируют с оценками людей, особенно на примерах, где предпочтения асессоров расходятся. &lt;br&gt;&lt;br&gt;Результат важен тем, что мотивирует принятие специальных мер для повышения разнообразия генераций больших языковых моделей.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2503.14476" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;DAPO: An Open-Source LLM Reinforcement Learning System at Scale&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы исследуют недостатки ванильного Deepseek GRPO и предлагают для них очень логичные практические решения, которые совсем несложно добавить к себе. А ещё очень классно, что они опенсорсят датасет и код обучения (который теперь доступен в &lt;a href="https://github.com/volcengine/verl/tree/main/recipe/dapo" rel="nofollow noopener noreferrer"&gt;фреймворке verl&lt;/a&gt;. Разбор статьи &lt;a href="https://t.me/stuffyNLP/136" rel="nofollow noopener noreferrer"&gt;есть в канале&lt;/a&gt;. &lt;br&gt;&lt;br&gt;&lt;em&gt;Любопытными статьями поделились &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Владимир Платонов, Алексей Зотов, Денис Кузнеделев и Артём Харинаев&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+hphfuL52WwRlZGEy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>🎄 Лучшее за год в Душном NLP</title><link href="https://t.me/stuffyNLP/218" /><id>https://t.me/stuffyNLP/218</id><author><name>Душный NLP</name></author><updated>2025-12-29T11:01:56+00:00</updated><published>2025-12-29T11:01:56+00:00</published><content type="html">&lt;strong&gt;🎄&lt;/strong&gt;&lt;strong&gt; Лучшее за год в Душном NLP&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Снова это время — время подводить итоги! Собрали самые популярные посты в канале за 2025 год. Чтобы вспомнить крутое или наверстать упущенное. А если что-то крутое, из опубликованного нами, вам и так запомнилось, рассказывайте в комментариях. Будет интересно узнать, какие посты запали в душу. &lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/stuffyNLP/186" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Проблемы LLM-as-a-Judge и их решение&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы изучают LLM-as-a-Judge для оценки открытых ответов, сравнивают три схемы и предлагают решения возникающих проблем. В частности, можно менять пары ответов для оценки местами, чтобы не возникал position bias.&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/stuffyNLP/84" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Технический отчёт Qwen2.5-Coder&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Разбор техрепорта семейства моделей, предназначенных для генерации кода. В отчёте есть и о сборе датасета, и о DPO. &lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/stuffyNLP/99" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;ICLR 2025&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Сразу несколько постов с конференции ICLR — преимущественно с интересными постерами, но и без приколов не обошлось. Всех их вы можете найти по тегу #YaICLR. А по тегу #YaICML25 — найдёте посты, собственно, с ICML. Там тоже много любопытного! &lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/stuffyNLP/87" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;GenARM — метод потокенного реворда&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы сделали потокенный реворд, чтобы использовать его в тест-тайме для генерации ответов. Предложенный метод по качеству и скорости инференса оказался лучше ARGS и Transfer Q.&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/stuffyNLP/187" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Как обучить одну модель и получить несколько&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Статья о методе MatFormer, который позволяет извлечь несколько «подмоделей» из одной большой обученной модели. Результат получается лучше, чем у LLM, натренированной с нуля. &lt;br&gt;&lt;br&gt;С Новым годом, друзья! Желаем вам отлично провести праздники, а мы вернёмся совсем скоро — с новыми обзорами и кое-чем ещё. &lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+m3B3A-hX56wxOWFi" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Подборка статей об альтернативах квадратичному селф-аттеншну</title><link href="https://t.me/stuffyNLP/214" /><id>https://t.me/stuffyNLP/214</id><author><name>Душный NLP</name></author><updated>2025-12-24T09:14:48+00:00</updated><published>2025-12-24T09:14:48+00:00</published><content type="html">&lt;strong&gt;Подборка статей об альтернативах квадратичному селф-аттеншну&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В последние годы всё больше обсуждают альтернативы классическому аттеншну — прежде всего из-за стоимости квадратичного скейлинга и работы с длинными контекстами. Ниже — краткий обзор нескольких любопытных работ и блогпостов на тему линейного, sparse- и гибридного аттеншна.&lt;br&gt;&lt;br&gt;&lt;a href="https://www.minimax.io/news/why-did-m2-end-up-as-a-full-attention-model" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Why Did MiniMax M2 End Up as a Full Attention Model?&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Начнём с поста от команды MiniMax. Их первая модель, MiniMax M1, была гибридной и использовала простой линейный аттеншн на матричных стейтах. Но во второй версии, MiniMax M2, они неожиданно вернулись к полному квадратичному аттеншну — даже без sliding window attention (SWA), который уже встречается в опенсорсных моделях. &lt;br&gt;&lt;br&gt;Авторы говорят, что гибридная архитектура у них попросту не заработала. На классических текстовых бенчмарках всё выглядело приемлемо, а вот на агентских задачах — с кодом, итерациями и длинным контекстом — модель стабильно проигрывала. SWA тоже не помог: при дообучении моделей, изначально предобученных с полным аттеншном, ключевые головы не перестраивались и деградировали.&lt;br&gt;&lt;br&gt;Итоговый вывод у MiniMax осторожный: линейные и гибридные подходы выглядят перспективно, но пока не хватает инфраструктуры, реализаций и бенчмарков. Поэтому на данный момент они остаются со стандартным трансформером и считают, что сначала нужно больше данных и экспериментов с длинным контекстом.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2504.17768v1" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;The Sparse Frontier: Sparse Attention Trade-offs in Transformer LLMs&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;В этой работе изучают training free sparsity в аттеншне и пытаются понять, что реально работает с точки зрения баланса compute/accuracy. На умеренных контекстах спарсификация аттеншна почти не помогает и часто ухудшает качество. На очень длинных — даёт выигрыш по FLOPs, но часто приводит к ухудшению качества: авторы замечают, что метод, работающий на одной задаче, ломается на другой. В среднем удаётся получить около 5× сжатия без сильной деградации качества, но разброс большой, особенно для маленьких моделей. &lt;br&gt;&lt;br&gt;&lt;a href="https://nrehiew.github.io/blog/long_context/" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Evaluating Long Context (Reasoning) Ability&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;В следующем посте автор критикует популярные long-context-бенчмарки. Он говорит, что needle-in-a-haystack-like-задачи в основном проверяют ретривал и плохо отражают реальную (более сложную) работу с длинным контекстом. На более сложных задачах, где контекст нужно понять, а не просто найти факт (например, в длинном коде с логическими ошибками), модели начинают деградировать уже на десятках тысяч токенов — даже с Full Attention. Вывод: бенчмарков, которые реально проверяют ризонинг на длинном контексте, пока недостаточно.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2510.26692" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Kimi Linear: an expressive, efficient attention architecture&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Спустя неделю после скептического поста MiniMax Moonshot AI (авторы модели Kimi K2 и не только) выпустили работу с почти противоположным тезисом: Linear Attention работает. В Kimi Linear предложили Kimi Delta Attention с gated delta rule и рекуррентной матричной памятью. В модели используют соотношение 3:1 линейных слоёв к Full Attention. Качество на бенчмарках в статье не хуже полного аттеншна, а эффективность выше: prefill на длинных промптах быстрее примерно в три раза, декодинг и memory footprint тоже выигрывают за счёт меньшей зависимости от KV-cache.&lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Иван Рубачёв, а ещё он приглашает вас на семинары &lt;/em&gt;&lt;a href="https://t.me/+c33l_IzB07NhZjQy" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Yandex Research Reading Group&lt;/em&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+Pi3q8ia1gv4xNWIy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Метод контекстного параллелизма Ulysses</title><link href="https://t.me/stuffyNLP/213" /><id>https://t.me/stuffyNLP/213</id><author><name>Душный NLP</name></author><updated>2025-12-19T10:47:54+00:00</updated><published>2025-12-19T10:47:54+00:00</published><content type="html">&lt;strong&gt;Метод контекстного параллелизма Ulysses&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Для обучения моделей на длинный контекст требуется много памяти под активации. Cкажем, чтобы обучить Qwen3-235B на контекст в 131 тысячу токенов, только под активации требуется более 100 ГБ, даже при использовании чекпоинтинга. Учитывая, что на карте надо хранить ещё саму модель, состояния оптимизатора и прочее, получается слишком много даже для GPU последних поколений. Что можно с этим сделать?&lt;br&gt;&lt;br&gt;Большинство операций в трансформере (нормы, mlp, residual) над одним токеном происходят независимо от других. Это значит, что мы можем разбить нашу последовательность на N частей и обрабатывать каждую на отдельной GPU. Но у нас всё ещё остаётся селф-аттеншн, для подсчёта которого необходима вся последовательность. Так мы подходим к группе sequence- и context-parallel-методов вроде TPSP, Ring/ZigZag, &lt;a href="https://arxiv.org/abs/2309.14509" rel="nofollow noopener noreferrer"&gt;Ulysses&lt;/a&gt;. Кратко расскажем о последнем.&lt;br&gt;&lt;br&gt;В чём заключается идея:&lt;br&gt;&lt;br&gt;— каждая GPU внутри context-parallel-группы хранит и обрабатывает только часть последовательности;&lt;br&gt;— перед тем, как зайти в аттеншн, вычисляем QKV-проекции размера [local_seqlen, global_heads, head_dim];&lt;br&gt;— делаем all_to_all QKV-проекций и получаем тензор активаций размера [global_seqlen, local_heads, head_dim]. Таким образом, потребление памяти не изменилось, но теперь каждая GPU может вычислять селф-аттеншн независимо, потому что имеет всю последовательность (но только часть голов);&lt;br&gt;— после вычисления аттеншена и до output-проекции снова делаем all_to_all и снова получаем тензор, разбитый по длине последовательности.&lt;br&gt;&lt;br&gt;Этот метод обладает серьёзными преимуществами:&lt;br&gt;&lt;br&gt;— очень прост в реализации, но в то же время может быть эффективным при грамотном перекрытии вычислений и коммуникаций;&lt;br&gt;— независим от реализации аттеншна и при небольших модификациях работает в том числе с линейными вариантами. Также подходит для мультимодальных сценариев.&lt;br&gt;Но есть и ограничения. Например, размер CP-группы (Context Parallelism) не может быть больше количества query-голов. В случае GQA требуется копирование KV-голов до размера CP-группы. Кроме того, Ulysses становится довольно дорогим при межхостовых коммуникациях.&lt;br&gt;&lt;br&gt;Инженеры Яндекса использовали этот метод в Alice AI. Ulysses позволил провести Midtrain-стадию обучения и увеличить контекст с хорошим ускорением за счёт перебалансировки нагрузки между процессами.&lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Антон Андрющенко&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+Pi3q8ia1gv4xNWIy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Разное о scaling laws</title><link href="https://t.me/stuffyNLP/212" /><id>https://t.me/stuffyNLP/212</id><author><name>Душный NLP</name></author><updated>2025-12-10T11:52:10+00:00</updated><published>2025-12-10T11:52:10+00:00</published><content type="html">&lt;strong&gt;Разное о scaling laws&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня — сразу несколько статей о scaling laws. Но начнём с небольшого обзора сферы в целом. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2001.08361" rel="nofollow noopener noreferrer"&gt;Первая работа о scaling laws&lt;/a&gt; вышла в 2020 году. С тех пор многое изменилось, но авторам этой публикации удалось получить многие выводы, на которые впоследствии опирались другие исследователи и инженеры. В частности, один из ценных выводов — лучше получить большую, но не дообученную модель, чем маленькую и обученную до конца. &lt;br&gt;&lt;br&gt;Через два года вышла статья &lt;a href="https://arxiv.org/abs/2203.15556" rel="nofollow noopener noreferrer"&gt;Training Compute-Optimal Large Language Models&lt;/a&gt;, где, на примере модели Chinchilla доказали, что при меньшем размере можно получать более высокое качество путём увеличения количества данных. Это в некотором роде противоречит выводам первой публикации. При этом авторы Training Compute-Optimal Large Language Models проверяли scaling laws на моделях большего размера, чем исследователи в 2020-м. &lt;br&gt;&lt;br&gt;В следующие годы появилось еще немало работ о scaling laws, авторы которых получали разные результаты. Кроме того, возникали разные scaling laws для соседних доменов. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2305.16264" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Scaling Data-Constrained Language Models&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt; (2023) &lt;/strong&gt;&lt;br&gt;&lt;br&gt;В прошлых статьях по-умолчанию считалось, что токены — бесконечны. Авторы этой работы, напротив, предполагают, что данные когда-то закончатся или их изначально мало. В публикации задаются вопросами: имеет ли смысл повторять данные и чем их можно заменить?&lt;br&gt;&lt;br&gt;В рамках эксперимента брали датасет, делили его на части, первую из которых — на 100 миллионов токенов — повторяли во время обучения несколько эпох. Выяснилось, что при повторении до четырёх раз качество модели растёт, а дальше — падает. Это справедливо для не очень больших моделей, в противном случае лосс будет увеличиваться. То есть, вывод такой: если у вас немного данных, лучше заняться обучением небольшой модели с повторением, чем тренировкой крупной LLM. &lt;br&gt;&lt;br&gt;Говоря об увеличении уникальных данных, авторы статьи предлагают, в частности, вливать к текстовой информации код (в публикации это был код на Python) и использовать perplexity-filter. Это поднимает качество при использовании метода повторений, описанного выше. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2409.19913" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Scaling Optimal LR Across Token Horizons&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt; (2024)&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Статья Microsoft, в которой рассматривают, как перенести Learning Rate между обучениями с разным числом токенов. Эксперименты показали, что оптимальный LR при увеличении горизонта (собственно, числа токенов) меньше. Это справедливо даже если увеличивать размер батча (BS). &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2503.04715" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Predictable Scale: Part I, Step Law — Optimal Hyperparameter Scaling Law in Large Language Model Pretraining&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt; (2025)&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Авторы исследуют проблему оптимального LR и BS при разном количестве параметров и токенов. Также проверяют, зависит ли scaling law от расписания LR и архитектуры модели. И выводят следующую формулу: &lt;br&gt;&lt;br&gt;1.79N ^−0,713 * D ^0,307&lt;br&gt;&lt;br&gt;Где N — число параметров, а D — количество данных в токенах. Что касается BS, то в публикации указывается, что оптимальный составляет 0,58D^0,571&lt;br&gt;&lt;br&gt;В публикации сравнили две стратегии: decay (min_Ir = max_Ir / 10) и фиксированный min _Ir (в статье — 10^-5). Выяснилось, что оптимум смещается, но в целом закон выполняется. Такой же вывод получили, когда по-разному распределяли параметры внутри модели.  &lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+Pi3q8ia1gv4xNWIy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Любопытная статья с NeurIPS 2025</title><link href="https://t.me/stuffyNLP/207" /><id>https://t.me/stuffyNLP/207</id><author><name>Душный NLP</name></author><updated>2025-12-05T12:25:08+00:00</updated><published>2025-12-05T12:25:08+00:00</published><content type="html">&lt;strong&gt;Любопытная статья с NeurIPS 2025&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Крупнейшая ML-конференция проходит сразу в двух местах: в Сан-Диего и Мехико. Руководитель группы AI-планирования робота доставки Дмитрий Быков находится в Мексике и делится с нами тем интересным, что видит на мероприятии. Слово Дмитрию.&lt;br&gt;&lt;br&gt;&lt;blockquote&gt;&lt;a href="https://arxiv.org/abs/2506.07085" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;State Entropy Regularization for Robust Reinforcement Learning&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Статья о том, как сделать RL устойчивым. Под устойчивостью понимается, что модель корректно работает в худших кейсах, когда награды или переходы оказываются не такими, как при обучении. &lt;br&gt;&lt;br&gt;Авторы утверждают, что регуляризация энтропии политики (policy entropy) приводит к тому, что весь эксплорейшен сосредоточен вокруг оптимальной траектории. Поэтому, выходя за её пределы, модель оказывается в незнакомой для себя ситуации. Регуляризация энтропии стэйта (state entropy), в свою очередь, вознаграждает агента за то, что он проходит по тем состояниям, в которых не был. &lt;br&gt;&lt;br&gt;В статье предлагают использовать регуляризации обеих энтропий, чтобы учиться быть устойчивыми и к большим, и маленьким изменениям. При этом я не заметил сравнения вариантов отдельных регуляризаций против двух вместе. &lt;/blockquote&gt;&lt;br&gt;&lt;br&gt;Больше интересного с NeurIPS ищите в наших каналах &lt;a href="https://t.me/MLunderhood" rel="nofollow noopener noreferrer"&gt;ML Underhood&lt;/a&gt;, &lt;a href="https://t.me/DriverNotFound" rel="nofollow noopener noreferrer"&gt;404 Driver Not Found&lt;/a&gt; и &lt;a href="https://t.me/timeforcv" rel="nofollow noopener noreferrer"&gt;CV Time&lt;/a&gt; по хештегу #YaNeurIPS25. &lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/stuffyNLP" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Как заставить reasoning-модели меньше галлюцинировать (часть II)</title><link href="https://t.me/stuffyNLP/206" /><id>https://t.me/stuffyNLP/206</id><author><name>Душный NLP</name></author><updated>2025-11-27T09:36:26+00:00</updated><published>2025-11-27T09:36:26+00:00</published><content type="html">&lt;strong&gt;Как заставить reasoning-модели меньше галлюцинировать (часть II)&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Продолжаем разбирать статью &lt;a href="https://arxiv.org/abs/2508.05618v1" rel="nofollow noopener noreferrer"&gt;Learning to Reason for Factuality&lt;/a&gt;. В &lt;a href="https://t.me/stuffyNLP/205" rel="nofollow noopener noreferrer"&gt;первой части&lt;/a&gt; рассказали о проблеме и самом методе, а сегодня — о результатах и интересных выводах. &lt;br&gt;Оценка происходила на шести сложных бенчмарках фактологических ответов: LongFact, FAVA, AlpacaFact, Biography, FactBench-Hard и Factory-Hard. &lt;br&gt;&lt;br&gt;Базовая Llama-3.1-8B даёт в среднем 45% фактической точности и 23,5 подтверждённых факта на ответ. После полного пайплайна (SFT + online GRPO с новым ревордом) модель достигает 68,1% фактической точности (Pre), при этом детальность ответа (Dtl) возрастает до 29%, а релевантность - составляет ~54%. Таким образом, в описанном сетапе ризонинг-версия модели стала меньше галлюцинировать без потери полезности относительно своей не-reasoning-версии. &lt;br&gt;&lt;br&gt;В отличии от online-RL-сетапа «SFT + DPO»-эксперимент сильно просаживает полезность ответа, при примерно таком же качестве детальности (Dtl) и фактической точности (Pre) (сравнивая с SFT + GRPO). Это делает предложенный авторами подход довольно актуальным.&lt;br&gt;&lt;br&gt;Кроме того, авторы попробовали определить meta-reasoning-страгении в CoT-рассуждениях модели. Для этого использовали Llama-3.1-70B-Instruct. Выяснилось, что стратегии ризонинга для повышения фактологичности ответов модели сильно отличаются от стратегий, которые используются в решении математических и кодинг-задач. &lt;br&gt;&lt;br&gt;Так, например, наиболее частые стратегии решения математических задач — self-verification, exploration, calculation and backtracking, в то время как для описанного online-RL-подхода основными стратегиями являлись: synthesis, summarization, explanation, evaluation. Этот факт может быть одной из причин большего галлюцинирования ризонинг-моделей, которые обучаются в RLVR-сетапе на задачах математики и кода, на запросах, требующих фактологической точности.&lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Дмитрий Масный&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+a7_yct-IlKdhNjdi" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Как заставить reasoning-модели меньше галлюцинировать (часть I)</title><link href="https://t.me/stuffyNLP/205" /><id>https://t.me/stuffyNLP/205</id><author><name>Душный NLP</name></author><updated>2025-11-24T11:03:27+00:00</updated><published>2025-11-24T11:03:27+00:00</published><content type="html">&lt;strong&gt;Как заставить reasoning-модели меньше галлюцинировать (часть I)&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Авторы &lt;a href="https://arxiv.org/abs/2508.05618v1" rel="nofollow noopener noreferrer"&gt;сегодняшней статьи&lt;/a&gt; пытаются ответить на вопрос: можно ли обучить стратегии рассуждения, повышающие фактическую точность (R-)LLM? Отмечено, что reasoning-модели решают математические задачи и пишут код, но в длинных фактологических ответах галлюцинируют больше, чем обычные не-reasoning-версии этих же моделей. &lt;br&gt;&lt;br&gt;Так, например DeepSeek-R1 и QwQ-32B выдают на 10–13 п.п. больше галлюцинаций, чем соответствующие базовые не-reasoning-версии DeepSeek-V3 и Qwen-2.5-32B на шести датасетах, созданных для проверки фактологичности длинных ответов. В первой части разбора обсудим проблему, заявленную в статье, и метод, предложенный авторами. А во второй — результаты и некоторые выводы. &lt;br&gt;&lt;br&gt;Проблема в том, что стандартный RL для reasoning-моделей заточен под верифицируемые задачи, для которых награда вычисляется по заранее определённым правилам и проверку которых можно автоматизировать (математика, код). А для ответов, содержащих фактологическую информацию, не существует ни надёжной автоматической проверки (как в RLVR), ни возможности звать человека для проверки. &lt;br&gt;&lt;br&gt;Эти трудности сильно ограничивают использование фактчек-сигнала в алгоритмах online-RL. Попытки автоматизировать фактчек с помощью FActScore/VeriScore в online-RL-сетапе приводят к «хакингу награды»: модель начинает писать слишком кратко (меньше фактов — меньше шансов ошибиться) или выдаёт длинный, но слабо связанный с вопросом поток общих, пусть и верных, сведений.&lt;br&gt;&lt;br&gt;Так можно ли обучить стратегии рассуждения, повышающие фактическую точность (R-)LLM? Чтобы ответить на вопрос, авторы используют следующий подход.&lt;br&gt;&lt;br&gt;Для получения обучающих промптов предлагают интересный ход: инженеры генерируют промпты с помощью Llama 4, обуславливая её на два множества grounding-промптов. Первый набор — WildChat (разнообразные реальные запросы пользователей), второй — LongFact (запросы, требующие фактологически точных ответов). Таким образом получается собрать порядка 7 тысяч синтетических промптов: 3 тысячи для SFT, 4 тысячи для RL, которые похожи на реальные запросы пользователей и в то же время требуют фактологически точных ответов.&lt;br&gt;&lt;br&gt;Затем делают SFT: фью-шотят базовую Llama-3.1-8B-Instruct  для генерации 10 Long-CoT-ответов в формате &amp;lt;think&amp;gt;…&amp;lt;/think&amp;gt;&amp;lt;answer&amp;gt;…&amp;lt;/answer&amp;gt;, их прогоняют через VeriScore и берут ответ с наибольшей наградой за фактологическую точность. &lt;br&gt;&lt;br&gt;Затем в качестве бейзлайна используют DPO: для сбора пар для обучения аналогично методу в SFT используется VeriScore c небольшой модификацией — берутся пары ответов с максимальной дельтой награды VeriScore и удовлетворяющие условиям: &lt;br&gt;&lt;br&gt;1) дельта награды должна быть выше определённого порога, чтобы фактчек-сигнал был достаточно сильным; &lt;br&gt;2) разность длин ответов должна быть меньше определённого порога, чтобы не было «хакинга длины».&lt;br&gt;&lt;br&gt;Для онлайн-RL в качестве нововведения предлагают награду, которая состоит из трёх слагаемых:&lt;br&gt;&lt;br&gt;— фактическая точность (Pre): F/(T+1), где F — число подтвержденных фактов, T — всего найденных фактов в ответе (извлекаем их с помощью LLM) (для штрафа за фактологически неверные ответы);&lt;br&gt;— детальность (Dtl): log(1+F) — поощряет больше правильных фактов, но с дисконтированием на длину (для штрафа за слишком короткие ответы);&lt;br&gt;— релевантность/полезность (WR): LLM-as-a-judge-метрика — ответ политики сравнивается с ответам реверенсной модели, если судья считает, что ответ политики лучше, то метрика принимает значение 1, в противном случае — 0 (для штрафа за наличие нерелевантных верных фактов).&lt;br&gt;&lt;br&gt;Чтобы такой reward можно было считать в онлайне, сильно оптимизируют VeriScore: батчуют извлечение фактов, параллелят веб-поиск и так же батчуют проверку утверждений поверх поисковой выдачи. Это позволяет сократить время инференса реворда с двух минут (базовый сетап VeriScore) до примерно пяти секунд на один ответ, что уже пригодно для online-RL. Полученный подход уже используют в GRPO-алгоритме в качестве модели награды.&lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Дмитрий Масный&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+a7_yct-IlKdhNjdi" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Оценка реворд-моделей</title><link href="https://t.me/stuffyNLP/202" /><id>https://t.me/stuffyNLP/202</id><author><name>Душный NLP</name></author><updated>2025-11-19T11:10:21+00:00</updated><published>2025-11-19T11:10:21+00:00</published><content type="html">&lt;strong&gt;Оценка реворд-моделей&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разберём оценку реворд-моделей (RM). Стандартная метрика в этой сфере — accuracy на парах предпочтений из тест-сета. Оценка реворд-моделей нужна как прокси для end-to-end (e2e) RLHF, потому что для каждого эксперимента обучать модель по реворду — это слишком дорого. К тому же качество e2e не всегда связано напрямую с качеством RM из-за большого количества параметров RLHF-обучения.&lt;br&gt;&lt;br&gt;В экспериментах с RM нередко применяют синтетический сетап: вместо истинной награды (которую в реальном мире обычно дают люди) используют «сильную» RM. Её предсказания принимают за Golden Reward, а в рамках экспериментов обучают Proxy RM, которые максимально приближают Golden — это существенно снижает стоимость исследований.&lt;br&gt;&lt;br&gt;Одна из работ на тему оценки RM — &lt;a href="https://arxiv.org/abs/2410.06554" rel="nofollow noopener noreferrer"&gt;The Accuracy Paradox in RLHF&lt;/a&gt;, авторы которой обучили отдельные реворд-модели (Longformer-base-4096) на одну из трёх задач: релевантность, полнота и фактологичность, таргеты которых собирались через Golden RM. Дальше под каждую модель обучали RLHF и смотрели на конечное качество. Выяснилось, что максимальное значение accuracy RM не обязательно ведёт к высокому е2е-качеству во всех трёх задачах. На первом графике видно, что оптимальное качество (жёлтый цвет) соответствует среднему значению accuracy.  &lt;br&gt;&lt;br&gt;Для проверки RM используют бенчмарки — например, &lt;a href="https://arxiv.org/abs/2506.01937" rel="nofollow noopener noreferrer"&gt;RewardBench 2&lt;/a&gt;. В нём шесть доменов, включая математику, следование инструкциям, безопасность, фактологичность и так далее. Для сравнения на каждый промпт предоставляется один правильный и три неправильных ответа (best-of-4 accuracy).&lt;br&gt;&lt;br&gt;Эксперименты создателей RewardBench 2 показали, что, вопреки распространённому мнению, RM имеет смысл обучать больше одной эпохи — это даёт рост в качестве. Кроме того, разработчики бенчмарка заключают, что качество растёт, если RM и Policy из одного семейства — например, Llama. А вот чего делать не стоит, так это использовать в RLHF промпты, которые не «видела» реворд-модель (звёзды на изображении 2). &lt;br&gt;&lt;br&gt;Авторы статьи &lt;a href="https://arxiv.org/abs/2503.15477" rel="nofollow noopener noreferrer"&gt;What Makes a Reward Model a Good Teacher? An Optimization Perspective&lt;/a&gt; предлагают смотреть не только на accuracy, но и на дисперсию реворда. Чем она выше, тем быстрее модель оптимизируется под gold reward — то есть, эталонную оценку (изображение 3). Вывод опять-таки следующий: высокая accuracy не ведёт к высокому е2е-качеству. &lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Артём Харинаев&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+Pi3q8ia1gv4xNWIy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>ReST-MCTS</title><link href="https://t.me/stuffyNLP/201" /><id>https://t.me/stuffyNLP/201</id><author><name>Душный NLP</name></author><updated>2025-11-17T12:30:10+00:00</updated><published>2025-11-17T12:30:10+00:00</published><content type="html">&lt;strong&gt;ReST-MCTS&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Авторы &lt;a href="https://arxiv.org/abs/2406.03816" rel="nofollow noopener noreferrer"&gt;сегодняшней статьи&lt;/a&gt; рассматривают проблему, из-за которой модель, давая правильный ответ на вопрос, ошибается в рассуждениях. Это случается, например, в ходе решения задач по математическому анализу, где ответ часто — 1, 0, e или pi. Модель может попросту угадать правильный результат, ошибившись в процессе решения.  &lt;br&gt;&lt;br&gt;Для того чтобы модель справлялась с математическими задачами, хорошо подходит process reward modeling (PRM). Это реворд-модель, которая проверяет не окончательный ответ, а каждый шаг решения, что позволяет раньше обнаруживать ошибку в рассуждениях и, соответственно, получать более точные результаты. Однако обучение PRM требует разметки людьми, что дорого. &lt;br&gt;&lt;br&gt;В публикации предлагается использовать Monte Carlo Tree Search (MCTS), чтобы одновременно учить policy и PRM. Идея в том, чтобы превратить рассуждение в дерево поиска: каждый узел — это промежуточное решение задачи, а ребро — следующий шаг. MCTS с текущей policy генерирует продолжения, обходит дерево и старается тратить больше вычислений там, где выше шанс прийти к правильному ответу. Перспективность каждого следующего шага оценивает обученная PRM.&lt;br&gt;&lt;br&gt;Придуманный авторами алгоритм ReST-MCTS*, предполагает расчёт инкрементального реворда для частичных решений V_k, который меняется от 0 до max_V (всегда положительное значение). Пустой префикс имеет V_0 = 0, а max_V достигается на завершенном правильном решении. В правильном решении каждый шаг добавляет одинаковый инкремент в V_k:&lt;br&gt;&lt;br&gt;V_k+1 = V_k + (1-V_k)/(m_k+1)*(1-2*r_sk)&lt;br&gt;&lt;br&gt;Здесь m_k — количество шагов до конца решения, а r_sk — признак качества шага (0 — для правильного ответа, 1 — для неправильного). Если шаг корректный, множитель (1-2*r_sk) равен 1, а V_k плавно растёт и к последнему шагу доходит до max_V; если в какой-то момент совершается ошибка, множитель становится -1, инкремент меняет знак, и значение начинает уменьшаться. &lt;br&gt;&lt;br&gt;Когда поиск заканчивается, дерево «превращается» в обучающие данные. Из него берут решения, которые приводят к правильному ответу (это можно проверить по совпадению с эталоном или с помощью отдельного LLM-as-a-Judge). Эти решения используют для SFT-дообучения policy. Все узлы, через которые проходят корректные ветки, автоматически получают целевые значения v — их можно трактовать как псевдоразметку качества шага и использовать для обучения PRM, снова без участия людей.&lt;br&gt;&lt;br&gt;Дальше цикл повторяется: обновлённые policy и PRM запускаются на новых задачах, строят уже более «умные» деревья, генерируют более правдоподобные решения и оценки V, которые снова идут в обучение. &lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Георгий Иванов&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+Pi3q8ia1gv4xNWIy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Ещё порция интересных статей с EMNLP 2025</title><link href="https://t.me/stuffyNLP/200" /><id>https://t.me/stuffyNLP/200</id><author><name>Душный NLP</name></author><updated>2025-11-07T14:19:19+00:00</updated><published>2025-11-07T14:19:19+00:00</published><content type="html">&lt;strong&gt;Ещё порция интересных статей с EMNLP 2025&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Возвращаемся с очередной пачкой постеров, которые привлекли внимание нашей команды на конференции. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2505.17829" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Stepwise Reasoning Checkpoint Analysis: A Test Time Scaling Method to Enhance LLMs&amp;#x27; Reasoning&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt; &lt;/strong&gt;&lt;br&gt;&lt;br&gt;Хорошо известно, что качество обученных LLM на инференсе улучшается с помощью Chain-of-Thoughts (CoT). Можно пойти ещё дальше и делать многостадийный CoT, применяя при этом beam search или DVTS. Но тут могут возникать очень похожие траектории, а также существует риск игнорирования моделью промежуточных шагов. &lt;br&gt;&lt;br&gt;Для решения этих проблем авторы предлагают метод SRCA, который состоит из двух шагов: &lt;br&gt;&lt;br&gt;1. заставляем модель после каждого шага выдавать промежуточный результат; &lt;br&gt;2. группируем результаты в кластеры и стартуем следующий шаг из разных кластеров. &lt;br&gt;&lt;br&gt;Далее результаты со всех шагов агрегируются в финальный результат.&lt;br&gt;&lt;br&gt;&lt;a href="https://www.arxiv.org/abs/2509.23395" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Liaozhai through the Looking-Glass: On Paratextual Explicitation of Culture-Bound Terms in Machine Translation&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;В статье рассматривается проблема перевода слов или выражений, культурно-специфичных для исходного языка и не существующих на языке перевода. В профессиональном переводе для них часто применяют метод эксплиситации — замены прямого перевода на описательную конструкцию в скобках или в примечании. &lt;br&gt;&lt;br&gt;Современные MT-модели (в том числе и LLM) переводят большинство таких фраз буквально или копированием, делая результат непонятным. В статье вводят новую задачу перевода с объяснением и предлагают датасет для оценки качества — выделенные культурно-специфичные выражения и референсные сноски от переводчиков. Сегодняшние LLM плохо справляются с выделением терминов для эксплиситации, но генерируют довольно качественные описания (хоть и хуже переводческих).&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2505.17656" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Too Consistent to Detect: A Study of Self-Consistent Errors in LLMs&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Существующие методы unsupervised-детекции ошибок LLM в большинстве основаны на «мерах разброса» — неопределенности вероятностного распределения, различиях среди diverse-генераций и оценке вероятности модели. &lt;br&gt;&lt;br&gt;Авторы рассматривают ошибки в ответах LLM и вводят понятие self-consistent-ошибок, уверенных с согласованными предсказаниями. Такие ошибки плохо распознаются мерами разброса. Вместе с тем при скейлинге модели их количество растет, а число inconsistent ошибок, наоборот, сильно снижается.&lt;br&gt;&lt;br&gt;Предлагается использовать пару разных моделей для детекции self-consistent-ошибок. Метрика на основе модели-верификатора принимает на вход активации двух моделей и использует их линейную комбинацию для предсказания QE-метрики. Такая схема распознает намного больше self-consistent-ошибок в небольших версиях Qwen и Llama.&lt;br&gt;&lt;br&gt;&lt;em&gt;Интересное увидели &lt;/em&gt;❣ &lt;em&gt;Александр Шишеня и Николай Карпачёв&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+Pi3q8ia1gv4xNWIy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Интересное с EMNLP 2025</title><link href="https://t.me/stuffyNLP/196" /><id>https://t.me/stuffyNLP/196</id><author><name>Душный NLP</name></author><updated>2025-11-06T09:43:05+00:00</updated><published>2025-11-06T09:43:05+00:00</published><content type="html">&lt;strong&gt;Интересное с EMNLP 2025&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В Сучжоу в эти дни проходит конференция Conference on Empirical Methods in Natural Language Processing, а мы, как и прежде, рассказываем, об интересных постерах, которые там увидели. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2505.19060" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;UNCERTAINTY-LINE: Length-Invariant Estimation of Uncertainty for Large Language Models&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Очень простая идея, но при этом, кажется, вполне полезная. Странно, что такого никто не делал. &lt;br&gt;&lt;br&gt;Хотим оценить качество ответа модели на запрос с помощью того, насколько она уверена в том, что пишет. Считаем uncertainty — неуверенность модели в предсказании — как нам нравится (можно перплексию, можно вероятность всего текста, как произведение вероятностей токенов). Получаем величину, которая может зависеть от длины ответа. Утверждается, что это плохое качество метрики, так как у ответов разной длины может быть разное качество. &lt;br&gt;&lt;br&gt;Авторы строят зависимость uncertainty от длины ответа, аппроксимируют прямой и вычитают полученный линейный тренд из всех значений. Утверждают, что теперь скорректированная uncertainty-метрика лучше коррелирует с качеством ответа. Тестирование проводилось на заданиях WMT (машинный перевод), XSUM (суммаризация), GSM8k (математика, оценивали длину рассуждений). Корреляция тут sample-wise, то есть примеры в бенче ранжируются друг относительно друга правильно.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2511.01568" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;ECO Decoding: Entropy-Based Control for Controllability and Fluency in Controllable Dialogue Generation&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы рассматривают controllable-диалоги с LLM, то есть такие, в которых пользователь задаёт вопрос, а ответить нужно с определённым ограничением: радостно, с удивлением и так далее. Есть LLM, которая отвечает за генерацию ответа, но рядом сидит ещё и классификатор, который определяет ограничение и изменяет распределение вероятностей выходных токенов при генерации, чтобы оно лучше подходило под ограничение.&lt;br&gt;&lt;br&gt;Существуют разные способы этого влияния классификатора на распределение выходных токенов. Авторы придумали свой, назвали его ECO. Утверждают, что качество выросло на некоторых бенчмарках, при этом без потерь в грамматике.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2507.22968" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;C3: A Bilingual Benchmark for Spoken Dialogue Models Exploring Challenges in Complex Conversations&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы собрали датасет из голосовых фраз и диалогов, в которых что-то неоднозначно: интонация (из-за чего непонятно, это вопрос или утверждение), двусмысленность (Mr. Smith loves music more than his wife — «больше, чем его жена любит музыку» или «больше, чем свою жену»?), пропуски слов и так далее. Датасет на английском и китайском, примеры независимые, так как сложно повторить одно и то же на разных языках. Метрика — процент правильно угаданных смыслов. Из всех опробованных авторами моделей лучше всего себя показывает GPT-4o Audio.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2502.11460" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;UnitCoder: Scalable Iterative Code Synthesis with Unit Test Guidance&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы хотят обучить модель на коде. Есть два стула: либо супергрязный, но при этом большой разнообразный датасет из данных, которые просто выгрузили отовсюду; либо написать хорошие данные с помощью людей или умных моделей, — но это менее разнообразно, и получается не очень много данных. &lt;br&gt;&lt;br&gt;Авторы захотели сесть между двух стульев и придумали следующий пайплайн генерации данных. Берём просто сырой код из большого разнообразного датасета. Далее вытаскиваем из кодовых документов отделяемые куски кода, которые можно независимо вызывать. Затем на вызываемую функцию пишем тесты с помощью Llama3-70B-Instruct, запускаем тесты этого куска кода в специальной среде, если тесты не проходятся, фиксим код с помощью той же Llama 70B и повторяем пайплайн. &lt;br&gt;&lt;br&gt;Когда всё стало хорошо, подчищаем код: пишем docstring, вставляем inline-комментарии, улучшаем стиль. В итоге — хороший датасет.&lt;br&gt;&lt;br&gt;Проблема в том, что тесты пишет и код исправляет умная большая модель, а датасет используется для обучения маленьких (до 7B). По сути, это дистилляция. Автор говорит, что, наверное, достаточно умная Qwen3 сможет сама учиться на своих данных — звучит сомнительно, так что применимость работы к большим моделям под вопросом. Тем не менее идея может быть полезна как ещё один способ дистилляции кодовых навыков.&lt;br&gt;&lt;br&gt;&lt;em&gt;Интересное увидел &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Владислав Негодин&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+Ko1OBmoEKXxjN2Yy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Kimi K2 — огромная модель с интересными решениями «под капотом»</title><link href="https://t.me/stuffyNLP/194" /><id>https://t.me/stuffyNLP/194</id><author><name>Душный NLP</name></author><updated>2025-11-05T08:03:19+00:00</updated><published>2025-11-05T08:03:19+00:00</published><content type="html">&lt;strong&gt;Kimi K2 — огромная модель с интересными решениями «под капотом»&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разберём &lt;a href="https://arxiv.org/abs/2507.20534v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; о MoE-модели Kimi K2 на триллион параметров. У Kimi в полтора раза больше экспертов, чем у DeepSeek-V3 — 384 против 256. А ещё — в два раза меньше голов аттеншена — 64 против 128.&lt;br&gt;&lt;br&gt;Создатели вводят понятие sparsity — это разница между общим количеством экспертов и активными экспертами. Так, у Kimi K2 sparsity 48, а у DeepSeek-V3 — 36. Авторы утверждают, что при увеличении sparsity улучшается validation loss модели, но и растёт её инфраструктурная сложность. Что касается небольшого, по сравнению с DeepSeek, числа голов аттеншена, то это решение связано с тем, что удвоение голов даёт прибавку к validation loss всего в 1,2% и кажется нецелесообразным. &lt;br&gt;&lt;br&gt;На претрейне Kimi K2 использовался собственный алгоритм Muon, включающий в себя быстрое преобразование к ортогональной матрице. Однако при применении этого метода происходит «взрыв» логитов аттеншена. Чтобы справиться с этой проблемой, авторы устанавливают максимальные логиты для каждой головы. Дальше, всё, что больше заданного T, клипают. Следом идёт рескейлинг матриц W_k и W_q с gamma_h = min(1 или T/на максимальный логит). В случае с обычным MHA все это домножается на гамму, а в случае с MLA скейлятся только не пошаренные веса голов аттеншена. &lt;br&gt;&lt;br&gt;Также на претрейне авторы перефразировали данные с помощью промптов — то есть буквально переписывали их, сохраняя семантическое родство. Большие тексты разбивались на отдельные фрагменты, которые затем переписывались и подавались в качестве контекста для следующего фрагмента. После десяти перефразирований и одной эпохи прибавка на SimpleQA получается более чем в пять пунктов по сравнению с использованием «оригинального» текста в течение 10 эпох. &lt;br&gt;&lt;br&gt;На пострейне использовали 3000 MCP тулов с GitHub и ещё 10 тысяч — синтетических инструментов. По тулам сгенерировали тысячи агентов. Они получили сгенерированные задачи, оценкой которых происходила в режиме LLM-as-a-Judge. Успешные траектории становились базой для обучения. &lt;br&gt;&lt;br&gt;На этапе RL для случая, когда нет верифицируемой награды, модель использовали одновременно и как актора, и как критика. Актор генерировал набор ответов, которые критик попарно сравнивал относительно набора аспектов. Сам критик обновлялся за счёт verifiable-сигналов.  &lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Владимир Платонов&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+NCp-yxkMxs03ZDEy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Does Math Reasoning Improve General LLM Capabilities? Understanding Transferability of LLM Reasoning</title><link href="https://t.me/stuffyNLP/193" /><id>https://t.me/stuffyNLP/193</id><author><name>Душный NLP</name></author><updated>2025-10-15T09:03:12+00:00</updated><published>2025-10-15T09:03:12+00:00</published><content type="html">&lt;strong&gt;Does Math Reasoning Improve General LLM Capabilities? Understanding Transferability of LLM Reasoning&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Влияют ли математические рассуждения (reasoning) на другие домены при обучении модели? Короткий ответ — да, влияют. А для тех, кому интересны подробности, сегодня разберём &lt;a href="https://arxiv.org/abs/2507.00432" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; об этом. &lt;br&gt;&lt;br&gt;Для рассуждений все небезуспешно максимизируют математику благодаря формализованной постановке задач и относительно лёгкой (по сравнению с другими доменами) верификации решений. Звучит здорово, но мир не ограничивается math reasoning: обучая LLM математике, учим ли мы её рассуждать в целом? Можно ли масштабировать успехи в одном домене на другие области? &lt;br&gt;&lt;br&gt;Чтобы ответить на эти вопросы, авторы:&lt;br&gt;&lt;br&gt;— Создали метрику transferability index (или просто TI), которая позволяет оценить, как переносятся рассуждения между различными доменами. &lt;br&gt;— Собрали датасет из 40K математических задач с незатейливым названием Math 40K. Источники данных: &lt;a href="https://huggingface.co/datasets/agentica-org/DeepScaleR-Preview-Dataset" rel="nofollow noopener noreferrer"&gt;DeepScaleR&lt;/a&gt; с олимпиадной математикой и &lt;a href="https://huggingface.co/datasets/Feierabend/simplelr_abel_level3to5" rel="nofollow noopener noreferrer"&gt;Simple LR&lt;/a&gt; сложностью от 3 до 5 — математика старшей школы и выпускных экзаменов.&lt;br&gt;— Обучили Qwen3-14B-Base в двух парадигмах: SFT и RL (с выравниванием длины обучения). В RL использовали классический GRPO без KL-дивергенции и штрафов по энтропии. В качестве данных для SFT применили ответы модели Qwen3-32B с rejection samling.   &lt;br&gt;— Измерили бенчмарки других доменов и оценили эффект от разных подходов к обучению.&lt;br&gt;— Проанализировали результаты, активации моделей и выходные распределения токенов, пришли к следующим выводам: да, обучение рассуждениям в области математики влияет на рассуждения в других доменах; но на SFT модель переобучается под математический домен, а RL позволяет переносить полученные принципы на другие области. Выводы подкрепили анализом 20 современных open-weight-моделей с хорошей математикой.&lt;br&gt;&lt;br&gt;На диаграммах выше — собранные в три группы доменов оценки того, как SFT и RL на математических данных влияют на способности модели к рассуждению. Легко заметить, что RL показывает наилучшие результаты на всех бенчах, кроме ACPBench. Плохие результаты SFT для non-reasoning могут сигнализировать о том, что модель переобучается математике.&lt;br&gt;&lt;br&gt;&lt;blockquote&gt;Transferability index (TI) вычисляется следующим образом: сначала для каждой группы бенчмарков (math, other reasoning, non-reasoning) считается средний относительный прирост: dR = SUM((R_model – R_base) / R_base) / N, где R_model — результат экспериментальной модели после обучения, R_base — результат бейзлайна до обучения, N — число бенчмарков в группе. Отношение dR other reasoning или non-resoning к math и есть искомая метрика TI. Когда её величина больше единицы, другие группы растут вместе с математикой, обучение улучшает качество работы модели на других доменах. А вот если TI &amp;lt; 1, обучение математике ведёт к ухудшению качества работы модели по другим тематикам.&lt;/blockquote&gt;&lt;br&gt;&lt;br&gt;Посчитав TI для множества опенсорс-моделей, авторы пришли к выводу: обучение на математических данных с помощью RL позволяет переносить способности к рассуждению на другие домены, а SFT не демонстрирует такого эффекта. Таким образом, математический reasoning влияет на другие домены при обучении модели. &lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Антон Селиванов&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+kg4EEQNdHBlhYjcy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>QwenLong-L1 и проблемы рассуждающих моделей на длинных контекстах</title><link href="https://t.me/stuffyNLP/192" /><id>https://t.me/stuffyNLP/192</id><author><name>Душный NLP</name></author><updated>2025-10-09T09:35:05+00:00</updated><published>2025-10-09T09:35:05+00:00</published><content type="html">&lt;strong&gt;QwenLong-L1 и проблемы рассуждающих моделей на длинных контекстах&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня — &lt;a href="https://arxiv.org/abs/2505.17667" rel="nofollow noopener noreferrer"&gt;статья&lt;/a&gt; от инженеров из Alibaba Group, которые сделали свою версию Qwen для ризонинга на длинных контекстах. Как сообщают авторы, их разработка сопоставима по качеству с o3, хотя имеет всего 32 миллиарда параметров. &lt;br&gt;&lt;br&gt;Авторы отмечают, что при обучении модели рассуждения на длинных контекстах могут наблюдаться спады качества на ревордах. Кроме того, при RL возникает недостаточная вариативность примеров для генерации, а KL-лосс получается очень шумным. &lt;br&gt;&lt;br&gt;Для обучения QwenLong делают интервенции на SFT и RL-стадии. В первом случае заявляется обучение на домене единых контекстов — том же самом, что и RL. На самой RL-стадии применяются RPO и DAPO. Инженеры используют progressive scaling, то есть увеличивают длину контекста по мере обучения. Применяют комбинированный реворд: LLM-as-a-Judge и Rule-Based. &lt;br&gt;&lt;br&gt;Используется также ретроспективный сэмплинг — примеры с низким скором с предыдущих стадий повторяются на следующих. По словам авторов статьи, это хорошо сказывается на обучении. &lt;br&gt;&lt;br&gt;При замерах выделили три типа поведения ризонинг-моделей в работе с длинными контекстами:&lt;br&gt;&lt;br&gt;— &lt;strong&gt;Grounding.&lt;/strong&gt; Модель обращается к релевантной информации в длинном контексте, чтобы поддержать рассуждение: &lt;em&gt;«Позвольте сперва ознакомиться с представленным текстом…»&lt;/em&gt;&lt;br&gt;— &lt;strong&gt;Subgoal Setting.&lt;/strong&gt; Модель разбивает комплексный вопрос на несколько более мелких, чтобы решать задачу шаг за шагом: &lt;em&gt;«Чтобы разобраться, нам сперва надо…»&lt;/em&gt;&lt;br&gt;— &lt;strong&gt;Backtracking.&lt;/strong&gt; Модель обнаруживает ошибки в генерациях и возвращается к ним, чтобы решать их итеративно: &lt;em&gt;«Такой подход не сработает, потому что…»&lt;/em&gt;&lt;br&gt;— &lt;strong&gt;Verification.&lt;/strong&gt; Модель систематически валидирует предсказанные ответы, чтобы убедиться в их корректности: &lt;em&gt;«Давайте подтвердим результат, путём…»&lt;/em&gt;&lt;br&gt;&lt;br&gt;Интересно, что на SFT модель чаще демонстрирует разные типы поведения. Однако это не приводит к росту качества ответов. Это значит, что модели недостаточно просто иметь предпосылки к тому или иному образу действия — нужно ещё и тренировать его на RL. &lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Александр Кайгородов&lt;br&gt;&lt;/em&gt;&lt;br&gt;&lt;a href="https://t.me/+kg4EEQNdHBlhYjcy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Запоздавшие статьи с ICLR 2025 — об ускорении инференса</title><link href="https://t.me/stuffyNLP/189" /><id>https://t.me/stuffyNLP/189</id><author><name>Душный NLP</name></author><updated>2025-10-03T09:04:02+00:00</updated><published>2025-10-03T09:04:02+00:00</published><content type="html">&lt;strong&gt;Запоздавшие статьи с ICLR 2025 — об ускорении инференса&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Конференция ICLR 2025 закончилась давным-давно, но она навсегда в наших сердечках — так много интересного там было. Делимся ещё одной — запоздавшей, но от этого не менее любопытной — подборкой статей с мероприятия. &lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;&lt;a href="https://arxiv.org/abs/2501.13987" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;OstQuant: Refining Large Language Model Quantization with Orthogonal and Scaling Transformations for Better Distribution Fitting&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы вводят метрику утилизации пространства квантизации. Для наглядности посмотрите на изображение. Есть некоторый объём, который фактически занимает тензор, и тот объём, который может представлять собой квантизованные значения — красный квадрат на картинке. Если эти два объёма смещены относительно друг друга и не полностью совпадают, то имеет место ошибка. В идеале, если сильно упрощать, распределение тензора должно быть чётко вписано в квадрат объёма квантизации. &lt;br&gt;&lt;br&gt;На практике этого можно добиваться разными способами вроде Rotation или Smooth. Авторы статьи предлагают при нормализации весов добавить к вращению операцию Smooth. На инференсе всё это ужимается в одну матрицу. Таким образом, можно получить прирост по качеству на 1 п.п. при использовании SpinQuant. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2403.10444" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Block Verification Accelerates Speculative Decoding&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;При сэмплинге мы сэмлируем случайную величину от нуля до единицы из равномерного распределения и сравниваем её с вероятностью принятия. В теории любой токен может оказаться принятым. Авторы статьи предлагают в сэмплинге делать не потокенную верификацию, а поблочную — увеличивать вероятность принятия за счёт того, что на верификацию поступает больший объём информации (&lt;em&gt;изображение 2&lt;/em&gt;). Этот метод работает, обеспечивая ускорение в 5–10%. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2504.13146" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Antidistillation Sampling&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы предлагают настройку, призванную защитить модели от несанкционированной дистилляции. Метод представляет собой добавку к распределению в генерации. В основе — расчёт такой оценки градиентов, которая позволит ухудшить качество дистилляции. Получить эту оценку можно в SFT, с помощью реворд-модели или как-то иначе. Метод реализуется через небольшие сдвиги в логитах — они вычисляются с помощью прокси-модели и аппроксимированного градиента. Это ухудшает обучение «студента» при дистилляции, но почти не снижает эффективность «учителя». &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2501.16937" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;TAID&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Хак, призванный решить проблемы mode averaging и mode collapse при дистилляции. Авторы предлагают делать прогрессивную дистилляцию — переходить от SFT «студента» к дистилляции в учителя. Это позволяет сделать распределение более разнообразным. Метод даёт не слишком большой прирост по бенчмаркам, но и реализуется совсем не сложно — нужно добавить всего один параметр на смесь логитов «учителя» и «студента».&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2410.17215" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;MiniPLM&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Распределения «учителя» и «студента» можно классифицировать по трём типам: &lt;br&gt;&lt;br&gt;— «шумные» — высокая уверенность логитов «студента» и низкая у «учителя»;&lt;br&gt;— «простые» — логиты «студента» сильно приближаются к логитам «учителя»;&lt;br&gt;— «сложные» — высокая уверенность «учителя», низкая у «студента».&lt;br&gt;&lt;br&gt;Авторы статьи предлагают выбрасывать «шумные» примеры, ап-семплить «сложные» и даун-семплить «простые». То есть это просто работа с датасетом, которая, однако, уже показывает хороший прирост качества после дистилляции (&lt;em&gt;изображение 3&lt;/em&gt;). &lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Роман Горб&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+kg4EEQNdHBlhYjcy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Как обучить одну модель и получить несколько</title><link href="https://t.me/stuffyNLP/187" /><id>https://t.me/stuffyNLP/187</id><author><name>Душный NLP</name></author><updated>2025-09-25T11:01:34+00:00</updated><published>2025-09-25T11:01:34+00:00</published><content type="html">&lt;strong&gt;Как обучить одну модель и получить несколько&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня расскажем о методе, который позволяет обучить одну модель, а затем извлечь из неё несколько других «подмоделей». Подобным подходам посвящено несколько статей. Разберём &lt;a href="https://arxiv.org/abs/2310.07707" rel="nofollow noopener noreferrer"&gt;одну из них&lt;/a&gt;, о методе MatFormer от инженеров из Google.&lt;br&gt;&lt;br&gt;Идея статьи заключается в том, чтобы вкладывать разные варианты слоёв друг в друга. Как в матрёшке: параметры трансформера поменьше используются в трансформере побольше. Метод фокусируется на FFN-слоях и только в dense-архитектурах, где до 60% параметров как раз и находятся в FFN-слоях. &lt;br&gt;&lt;br&gt;Суть в том, чтобы брать не все нейроны скрытого слоя в полносвязных слоях, а а только некоторый набор первых (&lt;em&gt;m_i&lt;/em&gt; в формуле выше). При этом у разных слоёв могут быть разные &lt;em&gt;m_i&lt;/em&gt;.&lt;br&gt;&lt;br&gt;Обучение осуществляется как обычно, но со случайным и равномерным сэмплингом &lt;em&gt;m_i  = g_i d_ff&lt;/em&gt;, где &lt;em&gt;g_i&lt;/em&gt;  — гранулярность, случайно сэмплируемая из {0.5, 1, 2, 4}, а &lt;em&gt;d_ff&lt;/em&gt; — это размер скрытого представления модели. Таким образом обучаются все подмодели. На инференсе используется процедура Mix’n’Match — для разных слоёв подбираются свои &lt;em&gt;m_i&lt;/em&gt; так, чтобы размер слоёв увеличивался постепенно, без резких скачков. &lt;br&gt;&lt;br&gt;Результаты показывают, что модель, полученная с помощью метода MatFormer, показывает лучшие результаты, чем модель, обученная с нуля. Интересно ещё и то, что «модели из матрёшки» демонстрируют значительную согласованность с большой моделью, из которой произошли. Это полезно, потому что открывает возможность для использования маленьких моделей, например, в качестве draft-моделей при спекулятивном декодинге. &lt;br&gt;&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Артём Соболев&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+LyTVbRrnDxw5Mzcy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Проблемы LLM-as-a-Judge и их решение</title><link href="https://t.me/stuffyNLP/186" /><id>https://t.me/stuffyNLP/186</id><author><name>Душный NLP</name></author><updated>2025-09-04T09:35:14+00:00</updated><published>2025-09-04T09:35:14+00:00</published><content type="html">&lt;strong&gt;Проблемы LLM-as-a-Judge и их решение&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разберём &lt;a href="https://arxiv.org/abs/2306.05685" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; о проблеме оценки открытых ответов (например, рассказов) моделью так же, как это делают асессоры. Мотивация тут проста: использование LLM дешевле, быстрее и позволяет значительно увеличить корзинку, на которой проводится сравнение. При этом полностью выступать заменой разметчиками модель, конечно, пока не может. &lt;br&gt;&lt;br&gt;Авторы рассматривают три типа LLM-as-a-Judge:&lt;br&gt;&lt;br&gt;— Попарное сравнение. Модели предоставляют два ответа и предлагают выбрать из них лучший. Такой вариант дорогой, но даёт хорошую согласованность.&lt;br&gt;— Оценка одного ответа. Модель ставит оценку по какой-то шкале всего одному ответу. &lt;br&gt;— Оценка по референсу. Модель получает эталонный ответ и, отталкиваясь от него, оценивает.&lt;br&gt;&lt;br&gt;Однако у использования LLM есть свои минусы. Первый, существующий и у разметчиков, — position bias, который возникает при попарном сравнении. Большинство моделей, получая два ответа, предпочитают выбирать первый. Что интересно, если попросить LLM не просто сравнить два ответа, а дать оценку каждому, то position bias проявляется чаще. &lt;br&gt;&lt;br&gt;Чтобы решить эту проблему, авторы заставляют модель дважды сравнивать ответы, каждый раз меняя их местами. При этом победитель оглашается только в конце. Если решение судьи изменилось после смены позиции, то авторы предлагают считать это ничьёй. &lt;br&gt;&lt;br&gt;Ещё один способ — использование few-shot. Модель получает два ответа с прямым указанием, какой из них лучше. Всего таких «прогонов» три: в одном случае лучше первый ответ, в другом — второй, а в третьем — ничья. Только после этого LLM предлагают уже самостоятельно оценить два решения. Такой способ помог повысить согласованность с 65% до 77,5%. Авторы отмечают, что это дорогой метод, причём нельзя быть уверенным, что в результате его использования не возникли новые проблемы. &lt;br&gt;&lt;br&gt;Также LLM плохо справляются с оцениваем решения математических задач и задач с рассуждением. Чтобы обойти эту проблему пытались использовать CoT, но он не дал хороших результатов. Зато число ошибок уменьшило руководство по референсу: авторы просили судью решить задачу, затем использовать собственный ответ как эталонный для последующей оценки. &lt;br&gt;&lt;br&gt;Кроме того, у LLM-as-a-Judge есть ещё две проблемы: verbosity bias (LLM выше оценивает более длинные ответы; такое, к слову, бывает и у разметчиков) и self-enhancement bias (модели-судьи лучше оценивают собственные ответы). Для этих проблем у авторов нет решения. &lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовила &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Анастасия Кириллова&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+Gc-MBWqbHWk0NDhi" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Cut Your Losses in Large-Vocabulary Language Models</title><link href="https://t.me/stuffyNLP/185" /><id>https://t.me/stuffyNLP/185</id><author><name>Душный NLP</name></author><updated>2025-08-19T08:58:15+00:00</updated><published>2025-08-19T08:58:15+00:00</published><content type="html">&lt;strong&gt;Cut Your Losses in Large-Vocabulary Language Models&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разберём &lt;a href="https://arxiv.org/abs/2411.09009" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt;, в которой описывается эффективный метод фьюза LM-головы и кросс-энтропии. &lt;br&gt;&lt;br&gt;Авторы формулируют проблему чрезмерного потребления памяти на слое кросс-энтропии при обучении LLM с крупными словарями: материализация логитов размера |V|×N доминирует и может занимать до ~90% памяти, что ограничивает батч и масштаб обучения. &lt;br&gt;&lt;br&gt;Инженеры предлагают метод Cut Cross-Entropy (CCE), который предполагает вычисление лосса без сохранения всех логитов в глобальной памяти. Нужно брать только логит правильного токена и выполнять log-sum-exp «на лету» в SRAM; на примере Gemma-2 на 2 миллиарда параметров память на вычисление лосса сокращается примерно с 24 ГБ до 1 МБ, а общий след classifier-head при обучении — с 28 ГБ до 1 ГБ, без потерь по скорости или сходимости.&lt;br&gt;&lt;br&gt;Лосс для всех токенов в последовательности считается по формуле ℓ = (CᵀE)_x − log∑_j exp(CⱼᵀE). Первая часть реализована как матричное умножение в едином CUDA/Triton-ядре с загрузкой нужного столбца классификатора и эмбеддинга в SRAM и немедленным скалярным произведением. &lt;br&gt;&lt;br&gt;Вторая — как блочно-параллельный linear-log-sum-exp, комбинирующий матричное умножение и редукцию с потокобезопасным log-add-exp, также без промежуточных логитов в DRAM. В обратном проходе CᵀE перевычисляется в общей памяти. Градиенты считаются с учётом разреженности softmax: элементы ниже порога ε=2⁻¹² (bf16) отбрасываются, а словарь переупорядочивается по среднему логиту для уплотнения полезных блоков. Это даёт до ускорение примерно в 3,5 раза на бэкворде при том, что фактически ненулевых значений &amp;lt;0,02%.&lt;br&gt;&lt;br&gt;CCE чуть быстрее torch.compile на форварде и сопоставим по суммарному времени, обеспечивая на порядок меньший след памяти. Дополнительно показывают, что CCE увеличивает достижимый размер батча на 16 GPU в 1,5–10 раз в зависимости от модели, а кривые обучения при файнтюнинге совпадают с torch.compile. Для претрейнинга точность выравнивается вариантом CCE-Kahan-FullC, ценой временных буферов и большего времени на бэкворде. &lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+crJMhw0hOBk2MDJi" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Конференция KDD 2025 в цифрах</title><link href="https://t.me/stuffyNLP/176" /><id>https://t.me/stuffyNLP/176</id><author><name>Душный NLP</name></author><updated>2025-08-14T12:08:01+00:00</updated><published>2025-08-14T12:08:01+00:00</published><content type="html">&lt;strong&gt;Конференция KDD 2025 в цифрах&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В начале августа в Торонто прошла KDD 2025 — ведущая конференция по поиску знаний и анализу данных. Событие посетили инженеры из Яндекса, которые принесли нам слайды с занимательной статистикой, а также &lt;a href="https://t.me/c/2092280982/216" rel="nofollow noopener noreferrer"&gt;поделились интересными статьями&lt;/a&gt;.&lt;br&gt;&lt;br&gt;Главные цифры конференции:&lt;br&gt;&lt;br&gt;— 2332 зарегистрированных участника;&lt;br&gt;— более 700 научных работ в основных и прикладных треках;&lt;br&gt;— в программе — шесть тематических дней, 30 воркшопов и 30 обучающих сессий.&lt;br&gt;&lt;br&gt;В этом году больше всего заявок поступило из Китая (43,8%), США (24,5%) и Индии (11,7%), а среди принятых статей доля Китая выросла до 55,8%. Спонсорами выступили Google, Meta*, Amazon, Baidu, LinkedIn, Tencent, Bloomberg, Apple и другие технологические компании.&lt;br&gt;&lt;br&gt;В исследовательском треке главный студенческий приз получила &lt;a href="https://arxiv.org/abs/2505.14310" rel="nofollow noopener noreferrer"&gt;работа&lt;/a&gt; по снижению смещения в рекомендательных системах. А награду Test of Time присудили &lt;a href="https://arxiv.org/abs/1409.2944" rel="nofollow noopener noreferrer"&gt;исследованию&lt;/a&gt; коллаборативного DL для рекомендательных систем.&lt;br&gt;&lt;br&gt;Больше деталей и цифр — на слайдах.&lt;br&gt;&lt;br&gt;&lt;em&gt;Компания Meta, владеющая Instagram, признана экстремистской; её деятельность в России запрещена.&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;em&gt;За статистикой следил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Сергей Мить&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+UE_NXUV5rxQ5Y2Yy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Лучшие работы Dissertation Award и немного статистики: подводим итоги ACL 2025</title><link href="https://t.me/stuffyNLP/175" /><id>https://t.me/stuffyNLP/175</id><author><name>Душный NLP</name></author><updated>2025-08-07T12:28:15+00:00</updated><published>2025-08-07T12:28:15+00:00</published><content type="html">&lt;strong&gt;Лучшие работы Dissertation Award и немного статистики: подводим итоги ACL 2025&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В этом году Ассоциация компьютерной лингвистики (ACL) учредила награду для лучших PhD-диссертаций. Критериев выбора несколько. Исследование должно: &lt;br&gt;&lt;br&gt;⚪️быть связным и хорошо написанным;&lt;br&gt;⚪️охватывать одну из областей интереса ACL;&lt;br&gt;⚪️удовлетворять принятым в академии методологиям;&lt;br&gt;⚪️вызывать желание прочитать его целиком.&lt;br&gt;&lt;br&gt;Диссертацию пубедителя публикуют в журнале Computational Linguistics, который индексируется в Scopus и Web of Science, а также стабильно входит в I и II квартиль. &lt;br&gt;&lt;br&gt;В этом сезоне с 1 сентября 2022-го по 31 августа 2024 года на рассмотрении комиссии подали 29 диссертаций. Почётного упоминания удостоились работы: &lt;br&gt;&lt;br&gt;&lt;a href="https://digital.lib.washington.edu/researchworks/items/2007a024-6383-4b15-b2c8-f97986558500" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Human-AI Collaboration to Support Mental Health and Well-Being&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt;&lt;br&gt;Ashish Sharma&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Диссертация сдвигает границы взаимодействия человека с ИИ: автор исследует способы выявлять и имитировать эмпатию, расширяя возможности применения NLP для улучшения ментального здоровья людей.&lt;br&gt;&lt;br&gt;&lt;a href="https://era.ed.ac.uk/handle/1842/42188&amp;amp;ved=2ahUKEwjO782UvPaOAxUeLRAIHQM_HOkQFnoECBsQAQ&amp;amp;usg=AOvVaw0WuruqJHw_Ye0QNJibHN1d" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Modeling Cross-lingual Transfer for Semantic Parsing&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt;&lt;br&gt;Tom Sherborne&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В этой диссертации развивают высокоточные методы кросс-лингвистического трансфера для языков, на которых собрано слишком мало датасетов для разработки и обучения моделей. Эффективность методов демонстрируется в контекст семантического парсинга для интеграцим с базами данных API.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Лучшей диссертацией стала работа об LLM&lt;/strong&gt;:&lt;br&gt;&lt;br&gt;&lt;a href="https://www.sewonmin.com/assets/Sewon_Min_Thesis.pdf" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Rethinking Data Use in Large Language Models&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt;&lt;br&gt;Sewon Min&lt;/strong&gt;&lt;br&gt;&lt;br&gt;На фото улыбается победительница — Sewon Min, одна из самых известных учёных в области обработки естественного языка. Она специализируется на языковых моделях, использующих контекст. Большинство её статей посвящено задаче автоматического ответа на вопросы, в частности, проблеме повышения фактической корректности ответа. &lt;br&gt;&lt;br&gt;В диссертации Sewon Min сосредоточилась на более узких темах: генерации на основе примеров (fewshot-learning), а также непараметрических языковых моделях, которые используют для генерации внешний корпус. В исследование вошло множество инсайтов о поведении и возможностях больших лингвистических моделей в рамках обучения с контекстом. Эти находки сформировали сегодняшнее ядро NLP.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Больше о трендах и лучших статьях конференции читайте в предыдущих постах:&lt;/strong&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/stuffyNLP/163" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;В Вене проходит 63-я ежегодная конференция ассоциации компьютерной лингвистики — ACL 2025&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt;&lt;br&gt;&lt;br&gt;&lt;/strong&gt;&lt;a href="https://t.me/stuffyNLP/168" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Интересное с конференции ACL 2025&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;em&gt;Запомнили для вас всё самое интересное &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Алексей Березникер и Алексей Сорокин&lt;/em&gt;&lt;br&gt;&lt;br&gt;#YaACL25&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+UE_NXUV5rxQ5Y2Yy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Demons in the Detail: On Implementing Load Balancing Loss for Training Specialized Mixture-of-Expert Models</title><link href="https://t.me/stuffyNLP/174" /><id>https://t.me/stuffyNLP/174</id><author><name>Душный NLP</name></author><updated>2025-08-06T11:16:49+00:00</updated><published>2025-08-06T11:16:49+00:00</published><content type="html">&lt;strong&gt;Demons in the Detail: On Implementing Load Balancing Loss for Training Specialized Mixture-of-Expert Models&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разберём &lt;a href="https://arxiv.org/abs/2501.11873" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; от команды Qwen о том, как они придумали новый LBL-лосс для обучения MoE. &lt;br&gt;&lt;br&gt;В MoE-моделях токены по экспертам распределяет роутер. LBL — вспомогательный лосс, который делает распределение равномерным, чтобы избежать перегрузки одних экспертов и голода других.&lt;br&gt;&lt;br&gt;Обычно LBL считают на уровне отдельного микробатча каждого DP-ранка, а потом усредняют полученные LBL по всем микробатчам. Но заставлять роутер распределять токены равномерно в рамках одного микро-батча — довольно строгое ограничение. Пара длинных семплов может заполнить весь микро-батч, и тогда, если эти семплы пришли из одного домена, роутер всë равно будет вынужден разослать эти токены равномерно по всем экспертам. Так теряется логика специализации экспертов.&lt;br&gt;&lt;br&gt;Для того чтобы избежать потери специализации, авторы предлагают считать LBL на уровне глобального батча (global-batch), где больше разнообразия данных. Как? Добавляют шаг коммуникации: синхронизируют нужные для подсчёта LBL статистики роутера по выбору экспертов со всей DP-группы, то есть со всех микробатчей. Рассмотрим пример:&lt;br&gt;&lt;br&gt;1. Вообразим 2 карты и обучение с DP.&lt;br&gt;2. А к ним — 4 эксперта и 16 токенов (после пермьюта).&lt;br&gt;На первой карте токены распределятся по экспертам так: [0, 0, 8, 8]. На второй — [8, 8, 0, 0].&lt;br&gt;3. Для micro-lbl этот лосс будет на каждой карте ругать роутер за неравномерное распределение токенов.&lt;br&gt;5. Но если мы соберём глобальную статистику (то есть, сложим вектора распределений со всех карт), то получим  [8, 8, 8, 8]. Это идеальная равномерность и macro-lbl на такое не обижается.&lt;br&gt;6. macro-lbl даёт роутеру больше свободы, что конвертируется в прирост качества.&lt;br&gt;&lt;br&gt;Авторы отмечают значительный рост производительности при обучении новым методом: модели с глобальной балансировкой показывают лучшие результаты как по лоссам, так и на различных бенчах. А ещё у экспертов появляется настоящая специализация: чёткая и интерпретируемая на доменах (код, математика, разные языки). &lt;br&gt;&lt;br&gt;Предложенный метод при эффективной реализации совсем не замедляет обучение. Можно собрать статистики каждого слоя и сделать лишь одну незначительную коммуникацию в конце. &lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Даниил Сухой&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+moqLriRMnKIzMzg6" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>POV: на улицах пусто, все ушли на воркшопы</title><link href="https://t.me/stuffyNLP/171" /><id>https://t.me/stuffyNLP/171</id><author><name>Душный NLP</name></author><updated>2025-08-01T17:14:12+00:00</updated><published>2025-08-01T17:14:12+00:00</published><content type="html">&lt;strong&gt;POV: на улицах пусто, все ушли на воркшопы&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Вот так сегодня выглядели окрестности Austria Center Vienna — конференц-зала в центре Вены, где проходит ACL 2025. &lt;br&gt;&lt;br&gt;Мы тоже на воркшопах, поэтому сегодня больше ничего не покажем и не расскажем. Зато на следующей неделе вернёмся подытожить, чем запомнилась конференция. &lt;br&gt;&lt;br&gt;До связи!&lt;br&gt;&lt;br&gt;&lt;em&gt;Нашёл минутку выглянуть на улицу &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Алексей Березникер &lt;/em&gt;&lt;br&gt;&lt;br&gt;#YaACL25&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+UE_NXUV5rxQ5Y2Yy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Интересное с конференции ACL 2025</title><link href="https://t.me/stuffyNLP/168" /><id>https://t.me/stuffyNLP/168</id><author><name>Душный NLP</name></author><updated>2025-07-30T10:30:04+00:00</updated><published>2025-07-30T10:30:04+00:00</published><content type="html">&lt;strong&gt;Интересное с конференции ACL 2025&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Мы снова выходим на связь — с любопытными постерами продолжающейся ACL. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2505.20826" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;AdParaphrase v2.0: Generating Attractive Ad Texts Using a Preference-Annotated Paraphrase Dataset&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Исследователь предлагает набор данных для переформулировок рекламных текстов, содержащий данные о предпочтениях 10 асессоров. Набор позволяет анализировать лингвистические факторы и разрабатывать методы создания привлекательных рекламных текстов.&lt;br&gt;&lt;br&gt;Утверждают, что анализ продемонстрировал взаимосвязь между предпочтениями пользователей (асессоры) и эффективностью рекламы (CTR). На фото есть график со значимостью исследуемых факторов. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2506.16644" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Semantic Outlier Removal with Embedding Models and LLMs&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Любопытная прикладная статья о том, как быстро почистить страницу от мусора, не относящегося к основной теме. Берём все HTML-теги с текстом и их уровень вложенности. Отдаём всё это эмбеддеру, а отдельно ему же — тайтл и основную тему. Затем просто режем по расстоянию. Автор статьи утверждает, что такой подход эффективно фильтрует, футеры, меню и тому подобное. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2506.03616" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Learning to Insert [PAUSE] Tokens for Better Reasoning&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Делая фиктивные паузы и «вздохи» в рассуждениях, модель приходит к лучшим ответам. Авторы изучали возможность улучшения ризонинга за счёт добавления спецтокенов (PAUSE) в процесс обучения LLM. У авторов уже были успешные исследования на эту тему. Конкретно в этой работе представили подход динамического определения позиции для вставки спецтокенов.&lt;br&gt;&lt;br&gt;&lt;em&gt;Интересное увидели &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Алексей Березникер и Александр Николайчик&lt;/em&gt;&lt;br&gt;&lt;br&gt;#YaACL25&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+3YH7D0nopAVjYThi" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>В Вене проходит 63-я ежегодная конференция ассоциации компьютерной лингвистики — ACL 2025</title><link href="https://t.me/stuffyNLP/163" /><id>https://t.me/stuffyNLP/163</id><author><name>Душный NLP</name></author><updated>2025-07-29T10:52:37+00:00</updated><published>2025-07-29T10:52:37+00:00</published><content type="html">&lt;strong&gt;В Вене проходит 63-я ежегодная конференция ассоциации компьютерной лингвистики — ACL 2025&lt;/strong&gt;&lt;br&gt;&lt;br&gt;А мы как всегда следим 👀 и делимся с вами самым интересным. Мы уже &lt;a href="https://t.me/MLunderhood/144" rel="nofollow noopener noreferrer"&gt;публиковали занимательную статистику&lt;/a&gt; c конференции в канале ML Underhood (кстати, подписывайтесь!), а теперь настало время поговорить о статьях.&lt;br&gt;&lt;br&gt;Конференцию открыл часовой кейноут Люка Зеттлемойера, профессора Paul G. Allen School of Computer Science &amp;amp; Engineering в Университете Вашингтона, старшего научного руководителя Meta* и президента ACL. Он рассказал о том, как стандартный пайплайн обучения LLM: токенизация, претрейн и элаймент, несмотря на невероятный успех, почти наверняка имеет множество возможностей улучшения, которые мы упускаем. Доклад был построен вокруг трех векторов исследования: &lt;br&gt;&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2412.04305" rel="nofollow noopener noreferrer"&gt;повышения&lt;/a&gt; эффективности обработки данных после обучения; &lt;br&gt;— новых методов извлечения большего количества сигналов из данных претрейна, включая новые иерархические архитектуры для языковых &lt;a href="https://arxiv.org/abs/2412.09871" rel="nofollow noopener noreferrer"&gt;моделей байтового уровня&lt;/a&gt; (BLT), которые не требуют использования токенизаторов и масштабируются лучше, чем традиционные методы на основе BPE; &lt;br&gt;— одного из подходов к MoE — &lt;a href="https://arxiv.org/abs/2507.07024" rel="nofollow noopener noreferrer"&gt;FlexOLMo&lt;/a&gt;.&lt;br&gt;&lt;br&gt;Все три темы были интересными! А вот ещё н несколько докладов, которые отметили яндексоиды:&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2502.09606" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Human-LLM Coevolution: Evidence from Academic Writing&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Довольно ожидаемо авторы утверждают, что с появлением Chat GPT частотность употребления некоторых слов в научных статьях резко изменилась. Затем исследователи делают ещё один шажок и говорят, что это не обязательно означает, что LLM пишут статьи. Скорее мы наблюдаем, как люди, много взаимодействующие с LLM, оказываются под их влиянием и изменяют свои паттерны словоупотребления.&lt;br&gt;&lt;br&gt;&lt;a href="https://2025.aclweb.org/program/industry/" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;From Words to Worlds: NLP for Game Creation and Interaction&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Индустриальный рассказ об Epic Games об использовании LLM для NPC в играх. Пользователь, играя, может задать произвольный вопрос и персонаж будет отвечать (естественно, со своим характером и т. п.). Это выглядит здорово и меняет опыт взаимодействия с игровым миром. Решение внедрили в Fortnite пару месяцев назад, она работает поверх чужих API и позволяет поговорить с Дартом Вейдером. Также они делают свой code completion и анимацию персонажей с помощью AI.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2501.05790" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Understanding Impact of Human Feedback via Influence Functions&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Исследователи оценили влияние фидбека человека, введя понятие функции влияния, и пришли к выводам, что это влияние превосходит показатели базовой LLM. Ещё более сильным негативным влиянием обладает ошибочный фидбек. Авторы разработали подход, который позволяет это детектировать и, следовательно, убирать или исправлять.&lt;br&gt;&lt;br&gt;&lt;em&gt;* Компания Meta признана экстремистской организацией в России.&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;em&gt;Наблюдениями делились &lt;/em&gt;❣ &lt;em&gt;Алексей Березникер и Александр Николайчик&lt;/em&gt;&lt;br&gt;&lt;br&gt;#YaACL25&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+UE_NXUV5rxQ5Y2Yy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Qwen3-Coder</title><link href="https://t.me/stuffyNLP/162" /><id>https://t.me/stuffyNLP/162</id><author><name>Душный NLP</name></author><updated>2025-07-23T12:09:50+00:00</updated><published>2025-07-23T12:09:50+00:00</published><content type="html">&lt;strong&gt;Qwen3-Coder&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Alibaba &lt;a href="https://qwenlm.github.io/blog/qwen3-coder/" rel="nofollow noopener noreferrer"&gt;представила&lt;/a&gt; Qwen3-Coder — новую MoE-модель, заточенную под задачи программирования. Самая крупная версия — на 480 миллиардов параметров, из которых активные — 35 миллиардов. Контекстное окно Qwen3-Coder-480B-A35B-Instruct составляет 256 тысяч токенов с возможностью расширения до миллиона с помощью YaRN. Число поддерживаемых языков программирования — 358. &lt;br&gt;&lt;br&gt;Qwen3-Coder адаптирован для агентного программирования (Agentic Coding) — то есть модель не просто пишет код, а полноценно использует инструменты и принимает решения. Ранее в июле Moonshot AI представила MoE-модель &lt;a href="https://www.kimi.com/" rel="nofollow noopener noreferrer"&gt;KIMI-K2&lt;/a&gt;, которая тоже поддерживает агентное программирование. Заметен переход к нему.&lt;br&gt;&lt;br&gt;Qwen3-Coder тренировали на 7,5 триллиона токенов, 70% из которых — код. Для очистки и перезаписи шумных данных использовали Qwen2.5-Coder. Во время RL модель учили на реальных задачах, которые нужно было решать с помощью различных инструментов. Здесь на помощь пришла инфраструктура Alibaba Cloud — на её основе инженеры компании построили систему из 20 тысяч параллельных изолированных сред для обучения. &lt;br&gt;&lt;br&gt;В результате, как сообщают разработчики, Qwen3-Coder демонстрирует лучшие результаты на SWE-Bench Verified среди всех открытых моделей, а по качеству решение Alibaba сопоставимо с Claude Sonnet 4. Опробовать Qwen3-Coder можно &lt;a href="https://chat.qwen.ai/" rel="nofollow noopener noreferrer"&gt;по ссылке&lt;/a&gt;. &lt;br&gt;&lt;br&gt;Вместе с новой моделью Alibaba открыла и код инструмента командной строки для агентного программирования — Qwen Code, основанного на форке Gemini Code. В него добавили кастомные подсказки и протоколы вызова функций. &lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+oxXxp-zXgwtkZTgy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Новая порция постеров с ICML 2025 — в последний день конференции</title><link href="https://t.me/stuffyNLP/158" /><id>https://t.me/stuffyNLP/158</id><author><name>Душный NLP</name></author><updated>2025-07-19T11:20:07+00:00</updated><published>2025-07-19T11:20:07+00:00</published><content type="html">&lt;strong&gt;Новая порция постеров с ICML 2025 — в последний день конференции&lt;/strong&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2502.12292" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Independence Tests for Language Models&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы задаются вопросом, как проверить, являются ли две модели независимыми, или одна из них — это файнтюн другой? А может быть, у них общий предок? Чтобы узнать это, вводят специальный тест, основанный на перестановках весов. Предположим, что две модели имеют одинаковые архитектуры и размер. Тогда можно сгенерировать много перестановок весов для одной модели и считать статистики между этими перестановками и весами второй, а на основе этого вывести p-value. &lt;br&gt;&lt;br&gt;Подход работает, если алгоритм обучения эквивариантен к перестановкам (сначала обучить, а потом переставить, или наоборот — в любом случае, получим один и тот же порядок весов), а перестановки при этом не меняют распределение весов на этапе инициализации модели. Для моделей с разными архитектурами можно делать сравнение слоёв с одинаковыми размерами. При этом надо учесть, что порядок нейронов может быть другим. Авторы убедились, что метод работает на моделях c Hugging Face из семейства Llama и её тюнов — посчитали, какие слои Llama-3.1 8B обрезали, чтобы получить Llama-3.2 3B.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2410.01104" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Softmax is not Enough (for Sharp Size Generalisation)&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Простое и понятное исследование с практическими рекомендациями. В аттеншне используется софтмакс, от которого мы, как правило, ждём разреженности и фокуса на небольшом количестве токенов. На практике так не получается — особенно с ростом длины последовательности. Софтмакс неизбежно размазывается по всей последовательности. Оно и понятно: числитель в софтмаксе остается неизменным, а знаменатель растёт с длинной последовательности. Что делать: авторы предлагают адаптивно подстраивать температуру так, чтобы энтропия оставалась постоянной.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2411.07681" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt; What Do Learning Dynamics Reveal About Generalization in LLM Reasoning?&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;При обучении на задачах с решением и ответом можно смотреть на две метрики: перплексия правильного решения и точность финального ответа. Точность оценивается с помощью генерации нескольких решений, по которым считается средняя accuracy ответа. На разных примерах модель может вести себя по-разному: на каких-то в начале или середине обучения показывает высокую точность, но и высокую перплексию решения. Это хорошие примеры — модель ещё не запомнила ground truth-решение, но при генерациях приходит к правильному ответу. А бывают сложные примеры, в которых в течение обучения точность низкая, и растёт только тогда, когда перплексия ground truth-решения становится достаточно маленькой. То есть модель ничего не может выучить из этого примера, а лишь запоминает его. В статье предлагается метрика — точность до запоминания, — которая позволяет такие примеры разделять. На основе этого можно генерировать примеры, похожие на сложные, и повышать точность модели.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2503.19206" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Overtrained Language Models Are Harder to Fine-Tune&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы делают следующее наблюдение: чем дольше мы претрейним модель, тем сложнее её потом файнтюнить. Как проверяют: берут чекпоинты открытых моделей с разных точек обучения, и измеряют точность на бенчмарках после претрейна и после файнтюна этого чекпоинта. &lt;br&gt;&lt;br&gt;Оказывается, что в какой-то момент метрики после файнтюна начинают ухудшаться. Почему так происходит? Модель становится более чувствительной к изменениям весов. Авторы попробовали добавлять гауссовский шум к весам с разной дисперсией на разной длине обучения, и смотрели, как изменяется перплексия. Чем дольше учится модель, тем больше разница между перплексиями до и после добавления шума. То же самое происходит и при файнтюне. &lt;br&gt;&lt;br&gt;Во всех результатах lr сводится к нулю. В первый день конференции была статья, в которой утверждалось, что если не сводить, то результаты на дообучении (файнтюне) будут лучше. Приятно, что независимые наблюдения сходятся. &lt;br&gt;&lt;br&gt;&lt;em&gt;Интересным поделился &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Ермек Капушев&lt;/em&gt;&lt;br&gt;&lt;br&gt;#YaICML25&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+d70mcggcYvwxMjIy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>И ещё постеры с ICML 2025</title><link href="https://t.me/stuffyNLP/155" /><id>https://t.me/stuffyNLP/155</id><author><name>Душный NLP</name></author><updated>2025-07-18T14:59:36+00:00</updated><published>2025-07-18T14:59:36+00:00</published><content type="html">&lt;strong&gt;И ещё постеры с ICML 2025&lt;/strong&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2501.04519" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;rStar-Math: Small LLMs Can Master Math Reasoning with Self-Evolved Deep Thinking&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Статья показывает, как с помощью маленькой модели (1,5-7В) добиться качества на уровне больших вроде OpenAI o1. Для этого использует реворд-модель, которая умеет оценивать каждый шаг в рассуждении (process reward model, PRM) и генерируют рассуждения с помощью Monte Carlo Tree Search. &lt;br&gt;&lt;br&gt;Как получить качественную PRM: шаг за шагом бустим политику и PRM. Сначала обучаем начальную политику на синтетике от DeepSeek-coder v2 (236B). Далее, используя её, получаем данные для обучения PRM. Следующим шагом с помощью и политики, и PRM генерируем новые более качественные данные. Обновляем все модели. А в конце полируем их, генерируя и обучаясь на траекториях для более сложных задач. &lt;br&gt;&lt;br&gt;На каждом шаге для валидации правильности шагов используется код (то есть просят модель сгенерировать python-код для проверки шага). Результат — улучшение скоров на десятки процентов на математических бенчмарках.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2502.06737" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;VersaPRM: Multi-Domain Process Reward Model via Synthetic Reasoning Data&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Ещё немного о PRM — VersaPRM. Авторы заметили, что такие модели работают только для математики, но не на остальных доменах (биология, философия, юридический домен). Проблема в данных — нет качественных размеченных пошаговых рассуждений для этих доменов. &lt;br&gt;&lt;br&gt;Взяли вопросы из нужных доменов, сгенерировали рассуждения небольшой моделью (Llama-3.1 8B), оценили каждый шаг большой моделью (Llama-3.1 80B), и обучили на этом PRM. Далее при генерации ответов — взвешенный majority vote, где в качестве весов используют усреднённое по шагам предсказания PRM. &lt;br&gt;&lt;br&gt;Получают хорошие приросты по всем доменам. Правда, тут есть вопросы, так как для обучения и теста применяют данные из одного и того же бенчмарка MMLU-Pro.&lt;br&gt;&lt;br&gt;&lt;a href="https://icml.cc/virtual/2025/poster/45988" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;CollabLLM: From Passive Responders to Active Collaborators&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;На сессии Alignment and Agents был доклад, отмеченный как Outstanding Paper. Он посвящён тому, что диалоговая модель иногда должна отвечать не сразу, а сначала уточнить запрос пользователя — но без лишней «болтовни». Доклад довольно простой, и при этом получил признание.&lt;br&gt;&lt;br&gt;&lt;em&gt;Интересное увидели &lt;/em&gt;❣ &lt;em&gt;Алексей Поспелов и Ермек Капушев&lt;/em&gt;&lt;br&gt;&lt;br&gt;#YaICML25&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+Jg-f8FI9jUw2Nzky" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Несём новую порцию статей с ICML 2025</title><link href="https://t.me/stuffyNLP/151" /><id>https://t.me/stuffyNLP/151</id><author><name>Душный NLP</name></author><updated>2025-07-17T13:34:30+00:00</updated><published>2025-07-17T13:34:30+00:00</published><content type="html">&lt;strong&gt;Несём новую порцию статей с ICML 2025&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Продолжаем рассказывать о том, что увидели на конференции. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2405.03869" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Outlier Gradient Analysis: Efficiently Identifying Detrimental Training Samples for Deep Learning Models&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Для нахождения плохих или, наоборот, хороших примеров в датасете часто используют influence function — это некоторый скор, который показывает, насколько сильно изменится лосс, если пример убрать из обучения. Проблема в том, что для вычисления функции надо обращать гессиан по параметрам модели, что вычислительно очень сложно. &lt;br&gt;&lt;br&gt;В этой статье заметили, что на самом деле можно смотреть только на градиенты модели по примерам, которые мы проверяем. Если они сонаправлены с градиентами по данным из обучения — примеры хорошие, и наоборот. Далее, на основе этого можно применять методы детекции аномалий для нахождения примеров, которые портят обучение, и отфильтровывать их (но можно делать и наоборот — искать хорошие примеры и добавлять их в обучающую выборку). Основное преимущество метода — вычислительная простота; не нужны супердорогие обращения гессиана: только forward и backward pass модели для заданных примеров.&lt;br&gt;&lt;br&gt;&lt;a href="https://icml.cc/virtual/2025/poster/45633" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Towards Memorization Estimation: Fast, Formal and Free&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Как померить меморизацию посэмплово, запоминала модель пример или нет? Для этого надо обучить модель один раз на данных с этим примером, а потом ещё несколько моделей на данных без него, и померить лосс на примере. Это очень дорого вычислительно. Но можно сделать проще — вычислять лосс на примере несколько раз в течение обучения и посчитать сумму. Если она выше некоторого порога, значит модель не смогла запомнить пример. &lt;br&gt;&lt;br&gt;Где это можно применять? Для фильтрации данных. Если вдруг модель никак не может выучить какой-то пример, то, вероятно, в нём есть шум (например, неправильное решение математической задачи или неполное условие). Такие примеры можно выкидывать и улучшать точность модели или уменьшать компьют на обучение. Интересная и простая идея, надо проверять, действительно ли она будет работать для LLM (в статье проверяли только на задаче компьютерного зрения, в которой одни и те же данные проходят несколько эпох).&lt;br&gt;&lt;br&gt;&lt;a href="https://icml.cc/virtual/2025/poster/46560" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;NICE Data Selection for Instruction Tuning in LLMs with Non-differentiable Evaluation Metric&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;&lt;br&gt;В этой статье снова задаются вопросом, как выбирать такие примеры для обучения, чтобы на валидации получать хорошее качество. Отличие в том, что качество на валидации измеряется не лоссом, а произвольной необязательно дифференцируемой функцией (например, accuracy). В качестве её градиента используют policy gradient.&lt;br&gt;&lt;br&gt;&lt;a href="https://icml.cc/virtual/2025/40010" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Jailbreaking LLMs and Agentic Systems: Attacks, Defenses, and Evaluations&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;На туториале рассказали о защите языковых моделей от нарушения политик элайнмента — например, чтобы модель не выдавала инструкции по созданию опасных веществ или не генерировала дискриминационный контент. Оказалось, что white-box-модели с доступом к весам (например, Llama) до сих пор уязвимы к так называемым token-based-атакам — вставке «мусорных» токенов в промпт. С этим неплохо работают методы поиска инжекта, близкого к кластеру безопасных промптов.&lt;br&gt;&lt;br&gt;Промпт-инжекты по-прежнему похожи на попытки обмануть не очень внимательного человека, но сейчас работают лучше. Для большинства моделей удаётся подобрать рабочий инжект за 256 попыток («shots»).&lt;br&gt;&lt;br&gt;Дальше рассказывали о методах защиты. Понятный способ — кластеризовать опасные состояния, добавить состояния отклонения ответа и дообучить модель переходить в них. Однако такой подход снижает качество ответов даже на безобидные вопросы (например, «how to kill python script» — из-за слова kill).&lt;br&gt;&lt;br&gt;Другой способ — «пошатать» промпты и с помощью majority vote ответов решить, отказаться отвечать или выдать ответ на исходный промпт. При этом иногда ответить может быть приемлемо: например, если инструкция по сборке бомбы нерабочая.&lt;br&gt;&lt;br&gt;В заключительной части рассказали о взломе агентов. Выяснилось, что там уязвимостей ещё больше, потому что появляется дополнительная возможность дать на вход вредоносный контент, причем его достаточно совсем мало.&lt;br&gt;&lt;br&gt;&lt;em&gt;Интересное увидели &lt;/em&gt;❣ &lt;em&gt;Алексей Поспелов и Ермек Капушев&lt;/em&gt;&lt;br&gt;&lt;br&gt;#YaICML25&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+nIOpI3hRKbk1NGEy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Соскучились по конференциям? Тогда ICML 2025 спешит на помощь!</title><link href="https://t.me/stuffyNLP/147" /><id>https://t.me/stuffyNLP/147</id><author><name>Душный NLP</name></author><updated>2025-07-16T11:43:25+00:00</updated><published>2025-07-16T11:43:25+00:00</published><content type="html">&lt;strong&gt;Соскучились по конференциям? Тогда ICML 2025&lt;/strong&gt; &lt;strong&gt;спешит на помощь!&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В Ванкувере стартовала конференция ICML, а это значит, что мы — уже по традиции — будем делиться самым интересным с мероприятия. И вот первая подборка постеров, с пылу с жару. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2502.07529" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Scion: Training Deep Learning Models with Norm-Constrained LMOs&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Самый популярный оптимизатор — AdamW — не делает никаких предположений о геометрии весов модели. Из-за этого во время обучения надо накапливать и хранить статистики градиента. В Scion сразу вводят предположение о норме весов и используют linear minimization oracle для вычисления их апдейта на каждой итерации. Для разных типов слоёв можно (и нужно) использовать разные нормы.&lt;br&gt;&lt;br&gt;Получаем менее требовательный к памяти алгоритм — не надо хранить первый и второй моменты градиента. Кроме того, оптимальные гиперпараметры переносятся между моделями разных размеров. А главное — Scion находит лучший лосс по сравнению с AdamW и позволяет сократить общее время обучения на 25-40% . Это происходит благодаря большому батчу.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2505.07796" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Learning Dynamics in Continual Pre-Training for Large Language Models&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Было много постеров о scaling laws. На этом — исследуют динамику дообучения (continual Pre-training), зависимость от lr schedule и от данных. Заметили, что на дообучении лосс сходится к тому же значению, что и при обучении на этом же датасете с нуля. Кроме того, лосс повторяет форму lr scheduler с некоторой задержкой. Опираясь на это, выводят scaling law. Ну а дальше подбирают некоторые оптимальные гиперпараметры обучения.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2507.02119" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Scaling Collapse Reveals Universal Dynamics in Compute-Optimally Trained Neural Networks&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Ещё один интересный постер о scaling law. Здесь показали, что если построить график нормированного лосса (нормируем на финальное значение) от нормированного компьюта (переводим в [0; 1]), то кривые для моделей разных размеров накладываются друг на друга. Причём этот феномен зависит от lr и lr scheduler. Для переобученных моделей кривые будут накладываться с некоторым шумом, а для неоптимальных lr — могут и вовсе расходиться. Также выводят scaling law, который зависит от lr scheduler. Как это можно использовать на практике — пока вопрос открытый.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2502.02013" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Layer by Layer: Uncovering Hidden Representations in Language Models&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Интересный постер об эмбеддингах промежуточных слоёв трансформера. Всегда считалось, что если нужны эмбеддинги для какой-нибудь задачи (например, классификации), то надо просто снять их с последнего слоя, и будет хорошо. А здесь авторы исследовали, насколько хороши эмбеддинги промежуточных слоёв (проверяют на MTEB), и оказалось, что всегда лучше брать какой-то промежуточный. Чтобы узнать, какой именно — считаем метрику prompt entropy для каждого слоя по некоторому набору входных данных. Чем она меньше — тем лучше будут работать эмбеддинги с этого слоя.&lt;br&gt;&lt;br&gt;&lt;em&gt;Интересным поделился &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Ермек Капушев&lt;/em&gt;&lt;br&gt;&lt;br&gt;#YaICML25&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+3YH7D0nopAVjYThi" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Впечатления от конференции ICLR 2025</title><link href="https://t.me/stuffyNLP/137" /><id>https://t.me/stuffyNLP/137</id><author><name>Душный NLP</name></author><updated>2025-07-11T09:27:04+00:00</updated><published>2025-07-11T09:27:04+00:00</published><content type="html">&lt;strong&gt;Впечатления от конференции ICLR 2025&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Минувшая ICLR была насыщенной и полезной. Мы попросили инженеров Яндекса, посетивших конференцию, поделиться впечатлениями и рассказать о том, что им запомнилось. &lt;br&gt;&lt;br&gt;Материалы, которые упоминаются в карточках:&lt;br&gt;&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2410.18252" rel="nofollow noopener noreferrer"&gt;Asynchronous RLHF. Faster And More Efficient Off-Policy RL For LLMs&lt;/a&gt; &lt;br&gt;— &lt;a href="https://arxiv.org/abs/2407.10490" rel="nofollow noopener noreferrer"&gt;Learning Dynamics of LLM Finetuning&lt;/a&gt; &lt;br&gt;— &lt;a href="https://arxiv.org/abs/2410.07137" rel="nofollow noopener noreferrer"&gt;Cheating Automatic LLM Benchmarks: Null Models Achieve High Win Rates&lt;/a&gt; &lt;br&gt;— &lt;a href="https://arxiv.org/abs/2410.04840" rel="nofollow noopener noreferrer"&gt;Strong Model Collapse&lt;/a&gt;&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2410.08942" rel="nofollow noopener noreferrer"&gt;Maximizing the Potential of Synthetic Data: Insights from Random Matrix Theory&lt;/a&gt;&lt;br&gt;— &lt;a href="https://github.com/IST-DASLab/MoE-Quant/" rel="nofollow noopener noreferrer"&gt;IST-DASLab/MoE-Quant: Code for data-aware compression of DeepSeek models&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;em&gt;*Компания Meta признана экстремистской организацией в России.&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+3YH7D0nopAVjYThi" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>DAPO: An Open-Source LLM Reinforcement Learning System at Scale</title><link href="https://t.me/stuffyNLP/136" /><id>https://t.me/stuffyNLP/136</id><author><name>Душный NLP</name></author><updated>2025-07-09T10:15:50+00:00</updated><published>2025-07-09T10:15:50+00:00</published><content type="html">&lt;strong&gt;DAPO: An Open-Source LLM Reinforcement Learning System at Scale&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разберём короткую, но ёмкую &lt;a href="https://arxiv.org/abs/2503.14476" rel="nofollow noopener noreferrer"&gt;статью из Китая&lt;/a&gt;. Авторы предлагают опенсорсный метод работы с большими LLM RL: алгоритмы, инфраструктуру кода и датасеты. Забавно, что на момент подготовки обзора у ребят почти пустой GitHub — большая его часть заполнена картинками.&lt;br&gt;&lt;br&gt;DAPO — &lt;strong&gt;D&lt;/strong&gt;ynamic s&lt;strong&gt;A&lt;/strong&gt;mpling &lt;strong&gt;P&lt;/strong&gt;olicy &lt;strong&gt;O&lt;/strong&gt;ptimization — не представляет из себя чего-то кардинально нового. Использованные авторами подходы либо витали в воздухе, либо публиковались в других статьях. &lt;br&gt;&lt;br&gt;Этот метод — модификация GRPO, который в свою очередь получился после улучшения PPO. Все эти алгоритмы объединяет возможность переиспользовать генерации. В обычных on-policy RL-алгоритмах каждый шаг оптимизации требует генерации свежей модели. А в PPO-подобных можно заранее создать большой батч ответов и сделать для него не один, а сразу несколько шагов оптимизации. Зачем? Большой батч эффективнее генерировать!&lt;br&gt;&lt;br&gt;Новое классное свойство появляется за счёт использования importance sampling и трюка с обрезкой градиентов там, где свежая политика и так уже слишком сильно отличается от той, что сгенерировала данные.&lt;br&gt;&lt;br&gt;Конкретно DAPO отличается от GRPO четырьмя вещами. Здесь есть:&lt;br&gt;&lt;br&gt;— Модификация процедуры обрезки градиентов — Clip-Higher. Верхний порог обрезки выше, чем у GRPO, что улучшает итоговое качество.&lt;br&gt;— Динамическое сэмплирование: авторы предлагают с запасом генерировать ответы и выкидывать те, которые набрали одинаковую награду. &lt;br&gt;— Усреднение функционала ошибки по токенам, а не по запросам. Это придаёт больший вес длинным генерациям в общем функционале.&lt;br&gt;— Фильтрация слишком длинных ответов. Ответы, превысившие рекомендуемую длину получают небольшой штраф, а ответы вышедшие за максимальную длину — вообще не участвуют в оптимизации. &lt;br&gt;&lt;br&gt;Кроме прочего, авторы модифицируют обучающий датасет: используют LLM, которая модифицирует запросы так, чтобы правильные ответы на них были целыми числами. Это упрощает парсинг ответов модели и их валидацию.&lt;br&gt;&lt;br&gt;Самый классный, на мой взгляд, результат, — авторам DAPO удалось обойти SoTA DeepSeek-R1-Zero-Qwen-32B в решении задач олимпиадной математики. При этом они потратили 50% от мощностей, которые использовали для аналогичного обучения Qwen. &lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Павел Темирчев&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+n23yMGRYcKs2ZTgy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>ICLR 2025: что нового в мультимодальном ранжировании</title><link href="https://t.me/stuffyNLP/135" /><id>https://t.me/stuffyNLP/135</id><author><name>Душный NLP</name></author><updated>2025-07-03T08:11:14+00:00</updated><published>2025-07-03T08:11:14+00:00</published><content type="html">&lt;strong&gt;ICLR 2025: что нового в мультимодальном ранжировании&lt;/strong&gt;&lt;br&gt;&lt;br&gt;На &lt;a href="https://habr.com/ru/companies/yandex/articles/923488/" rel="nofollow noopener noreferrer"&gt;Хабре вышла статья&lt;/a&gt; Алексея Спасёнова и Кирилла Никорова из Поиска Яндекса по картинкам и видео. Алексей и Кирилл побывали на конференции ICLR, которая прошла в апреле в Сингапуре, и привезли с собой не только впечатления, но и (возможно) загар, и (совершенно точно) подборку интересных статей. Полностью ознакомиться с ней вы можете на Хабре, а здесь расскажем о нескольких работах. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/pdf/2410.20056" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Multi-Field Adaptive Retrieval&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Работа от авторов из Northeastern University, Augment Code и Microsoft посвящена улучшению поиска по структурированным данным с произвольным числом блоков с помощью подхода под названием Multi-Field Adaptive Retrieval (MFAR).&lt;br&gt;&lt;br&gt;Авторы комбинируют близость лексикографическую (BM25) и семантическую — на основе векторных представлений. Для вычисления близости между запросом и документом используется скалярное произведение (dot product), а энкодеры дообучаются в контрастивном режиме.&lt;br&gt;&lt;br&gt;Также применяется механизм внимания: модель учится определять значимость каждого блока документа относительно запроса. На этапе генерации кандидатов сначала выбираются топ-k документов стандартными методами ретривала, после чего проводится уточнение результатов с помощью MFAR.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/pdf/2402.04416" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Multimodal Unsupervised Domain Generalization by Retrieving Across the Modality Gap&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы из Boston University предлагают подход к задаче Domain Generalization — улучшение обобщающей способности моделей без доступа к целевому домену.&lt;br&gt;&lt;br&gt;Они улучшают качество поиска с использованием Approximate Nearest Neighbor (ANN) за счёт уточнённых эмбеддингов объектов. Для этого используется аугментация текстовых описаний классов: к каждому классу генерируется набор вариантов запросов, после чего вычисляются эмбеддинги этих текстов.&lt;br&gt;&lt;br&gt;Центроиды изображений смещаются в сторону усреднённых позиций, рассчитанных относительно эмбеддингов аугментированных текстов. Полученные представления используются для дообучения CLIP — таким образом модель становится более устойчивой к вариативности запросов и доменных сдвигов.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/pdf/2409.01156" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;TempMe: Video Temporal Token Merging for Efficient Text-Video Retrieval&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt; &lt;/strong&gt;&lt;br&gt;&lt;br&gt;В этой статье авторы предлагают новую архитектуру для ранжирования видео по текстовому запросу. Temporal Token Merging (&lt;a href="https://github.com/LunarShen/TempMe" rel="nofollow noopener noreferrer"&gt;TempMe&lt;/a&gt;) — эффективная в вычислительном плане архитектура с небольшим количеством параметров. Основа архитектуры — text-video-CLIP-модель. &lt;br&gt;Выигрыш в вычислительном плане достигается благодаря так называемым блокам Intra- и Cross-clip Merging. В них происходят агрегации эмбеддингов похожих кадров и патчей. Тем самым от слоя к слою уменьшается не только пространственная размерность, но и временная.&lt;br&gt;&lt;br&gt;Авторы получают ускорение в 1,8 раза и улучшение качества ранжирования видео на 4,4% (в терминах mAR@10), по сравнению с предыдущими вычислительно эффективными методами text-video retrieval. В данных использовались как очень короткие видео по 4–5 секунд (датасет LSMDC), так и довольно продолжительные — вплоть до 20 минут (датасет ActivityNet). Однако домен всех датасетов, конечно же, сильно смещён относительно стандартного поискового потока.&lt;br&gt;&lt;br&gt;#YaICLR&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+bA9RnvyroYRmNjUy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>SRPO — альтернатива DPO</title><link href="https://t.me/stuffyNLP/134" /><id>https://t.me/stuffyNLP/134</id><author><name>Душный NLP</name></author><updated>2025-06-30T08:15:51+00:00</updated><published>2025-06-30T08:15:51+00:00</published><content type="html">&lt;strong&gt;SRPO — альтернатива DPO&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодняшняя &lt;a href="https://arxiv.org/abs/2406.01660" rel="nofollow noopener noreferrer"&gt;статья&lt;/a&gt; о Self-Improving Robust Preference Optimization (SRPO). Это алгоритм оффлайн-RLHF, подобный DPO, но более подходящий для off-policy датасета ранжирования. Кроме того, SRPO лучше переносится на OOD-задачи. &lt;br&gt;&lt;br&gt;Основная идея метода заключается в состязательном обучении двух политик: генерирующей и улучшающей. Задача улучшающей политики — на основании запроса и имеющегося ответа создать улучшенную версию этого ответа; задача генерирующей — научиться создавать ответы, которые нельзя значительно улучшить. &lt;br&gt;&lt;br&gt;Обе политики обучаются на парах предпочтений, полученных от людей. Решение состязательной задачи сводится к минимизации линейной комбинации из двух сонаправленных функций потерь. В работе показано, что оптимальное решение этой задачи не зависит от политики, из которой был собран датасет предпочтений. Благодаря этому SRPO оказывается более устойчивым к изменению в распределении данных.&lt;br&gt;&lt;br&gt;Метод можно реализовать с помощью одной LLM, которая выступает и в качестве генератора, и в качестве «улучшатора». Обученную модель можно применять итеративно, каждый раз корректируя ответ, полученный на предыдущем шаге, чего не предполагают методы вроде DPO или IPO.&lt;br&gt;&lt;br&gt;Даже без итераций, SRPO выигрывает у DPO и IPO: на сложных Arena-Hard-промптах метод показывает 56% win-rate. На задаче суммаризации Reddit TL;DR SRPO на 4-й итерации SRPO достигает максимального качества. &lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Алексей Зотов&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+PKgx81sjtfA2Y2E6" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Scaling Laws for Precision</title><link href="https://t.me/stuffyNLP/133" /><id>https://t.me/stuffyNLP/133</id><author><name>Душный NLP</name></author><updated>2025-06-19T11:00:01+00:00</updated><published>2025-06-19T11:00:01+00:00</published><content type="html">&lt;strong&gt;Scaling Laws for Precision&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Scaling laws успешно применяются при проектировании LLM, позволяя определить оптимальное число параметров модели &lt;em&gt;N&lt;/em&gt; и объём обучающих данных &lt;em&gt;D&lt;/em&gt; (в токенах) для минимизации лосса &lt;em&gt;L&lt;/em&gt; при фиксированных вычислительном бюджете &lt;em&gt;C&lt;/em&gt;. Эта методология, например, использовалась при создании флагманской модели LLaMA 3. Сегодня разберём &lt;a href="https://arxiv.org/abs/2411.04330" rel="nofollow noopener noreferrer"&gt;публикацию&lt;/a&gt; о чувствительном к точности scaling law.&lt;br&gt;&lt;br&gt;Авторы статьи подчёркивают, что традиционные scaling laws предполагают фиксированную точность представления параметров модели &lt;em&gt;P&lt;/em&gt; (например, FP16) как на этапе обучения, так и на инференсе. В свете развития аппаратной поддержки вычислений с пониженной точностью (например, FP4 в архитектуре NVIDIA Blackwell), исследование оптимального компромисса между &lt;em&gt;P&lt;/em&gt;, &lt;em&gt;N&lt;/em&gt; и &lt;em&gt;D&lt;/em&gt; становится важной задачей. Поэтому авторы публикации решили проанализировать влияние квантизации после обучения (post-training quantization) модели на качество и модификации scaling laws с учётом точности параметров. &lt;br&gt;&lt;br&gt;Авторы провели 465 экспериментов с моделями размером от 30M до 1,7B (&lt;em&gt;N&lt;/em&gt;), обученными на 1,5–26B токенов (&lt;em&gt;D&lt;/em&gt;), с использованием точности от 3 до 16 бит (&lt;em&gt;P&lt;/em&gt;). В основе исследований — архитектура OLMo и датасет Dolma v1.7, а в качестве алгоритма квантизации — GPTQ. Основные выводы:&lt;br&gt;&lt;br&gt;— Деградация качества после квантизации усиливается при росте соотношения &lt;em&gt;D/(N⋅P)&lt;/em&gt; и сильном сжатии весов. Перетренированные (overtrainned) модели — с высоким &lt;em&gt;D/(N⋅P)&lt;/em&gt; — демонстрируют наибольшую чувствительность к квантизации. В крайних случаях увеличение &lt;em&gt;D&lt;/em&gt; приводит к ухудшению итогового качества после квантизации, то есть дополнительное обучение начинает вредить инференсу. Тут можно заметить противоречие, если мы захотим обучить модель с фиксированным числом параметров &lt;em&gt;N&lt;/em&gt;: с одной стороны, уменьшение точности весов модели при обучении делает её менее чувствительной к пост-квантизации, а с другой — это увеличивает отношение &lt;em&gt;D/(N⋅P)&lt;/em&gt;, из-за чего качество будет деградировать. Однако эксперименты показали, что первый эффект перевешивает второй.&lt;br&gt;&lt;br&gt;— В статье предложили модифицированную формулу для scaling laws с учётом post-train-квантизации, а также точности &lt;em&gt;P&lt;/em&gt; для весов, активаций и KV-кэша.&lt;br&gt;&lt;br&gt;— Авторы пришли к выводам, что оптимальная битность при совместной оптимизации &lt;em&gt;N&lt;/em&gt;,&lt;em&gt; D&lt;/em&gt;,&lt;em&gt; P&lt;/em&gt; в их пайплайне составила 7–8 — независимо от бюджета &lt;em&gt;C=N⋅D⋅P&lt;/em&gt;. Это говорит о том, что на практике обучение в FP16 может быть избыточным, в то время как погоня за слишком низкой битностью (ниже 4 бит) потребует непропорционального увеличения &lt;em&gt;N&lt;/em&gt; (более чем в четыре раза) и сделает такие подходы неэффективными.&lt;br&gt;&lt;br&gt;— Обнаруженная авторами зависимость показывает, что при фиксированном &lt;em&gt;C&lt;/em&gt; уменьшение &lt;em&gt;P&lt;/em&gt; приоритезирует рост &lt;em&gt;N&lt;/em&gt; над увеличением &lt;em&gt;D&lt;/em&gt;. Например, при переходе от FP16 к FP8 освободившиеся ресурсы в первую очередь стоит потратить на увеличение размера модели.&lt;br&gt;&lt;br&gt;— В случае, если мы обучаем модель с фиксированным числом параметров &lt;em&gt;N&lt;/em&gt; (например, когда обучаем семейство моделей на общем претрейн-датасете), оптимальная точность весов &lt;em&gt;P&lt;/em&gt; для перетренерованной модели без post-train-квантизации растёт, при увеличении числа токенов в претрейне &lt;em&gt;D&lt;/em&gt;.&lt;br&gt;&lt;br&gt;Несмотря на интересные результаты, авторы отмечают, что у их работы есть ограничения, которые ещё необходимо исследовать. Так, они использовали единую архитектуру для моделей с различной точностью &lt;em&gt;P&lt;/em&gt;; в расчётах полагали, что скорость вычислений линейно зависит от &lt;em&gt;P&lt;/em&gt;, а это не всегда верно на практике. Также для оценки качества модели использовали только лосс без метрик в downstream-задачах.&lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Дмитрий Ульянов&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+zB8fenlihy0zZDEy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Параллельная генерация с Hogwild! Inference</title><link href="https://t.me/stuffyNLP/132" /><id>https://t.me/stuffyNLP/132</id><author><name>Душный NLP</name></author><updated>2025-06-17T12:16:48+00:00</updated><published>2025-06-17T12:16:48+00:00</published><content type="html">&lt;strong&gt;Параллельная генерация с Hogwild! Inference&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня — &lt;a href="https://arxiv.org/abs/2504.06261" rel="nofollow noopener noreferrer"&gt;статья&lt;/a&gt; инженеров Yandex Research, HSE и IST Austria. Речь в публикации идёт о Hogwild! Inference — движке параллельного инференса для LLM.&lt;br&gt;&lt;br&gt;Авторы задались целью ускорить выполнение задачи одной моделью за счёт параллельной генерации. При этом инференс должен был оставаться интуитивно простым, а фреймворк — достаточно гибким, чтобы сделать эффективной коммуникацию между параллельными ветками генерации. Наконец, авторы стремились к тому, чтобы характер взаимодействия инстансов зависел в первую очередь от самой модели, а не от фреймворка параллельной генерации, то есть оставить принцип параллельной работы на откуп самим моделям.&lt;br&gt;&lt;br&gt;Метод Hogwild! Inference предполагает использование нескольких экземпляров LLM — они называются «рабочими» (workers), — которые выполняют одну задачу параллельно, синхронизируясь через общий KV-кэш. Это позволяет им видеть и учитывать генерации друг друга в реальном времени. Идея в том, чтобы дать моделям возможность самим организовывать координацию без заранее заданных правил взаимодействия.&lt;br&gt;&lt;br&gt;В этот общий KV-кэш каждый рабочий добавляет свои токены, которые затем дополняют общий контекст. Кэш организован как чат: завершённые абзацы reasoning каждого рабочего перемещаются в «историю», а текущие абзацы остаются в отдельном сегменте. При этом каждый рабочий видит текущую работу других — всё благодаря разделённым KV-блокам. &lt;br&gt;&lt;br&gt;Чтобы избежать повторной обработки представлений на каждом шаге, авторы предлагают использовать свойства RoPE: для генерации нового токена каждым из рабочих блоки KV-кэша упорядочиваются по-разному для каждого рабочего (см. изображение). При этом сдвиг осуществляется не над всем блоком, а над query-токенами, что резко снижает вычислительные издержки. Таким образом, каждый рабочий может видеть новые токены других рабочих сразу после их генерации.&lt;br&gt;&lt;br&gt;Система использует zero-shot prompting: рабочим предлагается обсуждать решение задачи, разделять работу между собой, не дублировать друг друга. Также авторы используют специальные интервенции в процесс генерации, чтобы сократить случаи, когда несколько рабочих совершают одну и ту же работу. Каждую N токенов одному из агентов подсовывается промпт вида «Делаю ли я лишнюю работу?» и предлагается ответить «да» или «нет». Эксперименты показывают, что такая вставка часто позволяет рабочему понять, что его работа уже сделана другим и можно двигаться дальше, либо изменить свою стратегию решения задачи. &lt;br&gt;&lt;br&gt;Авторы оценивают Hogwild! Inference на задачах, требующих длительных рассуждений и предполагающих тривиального разбиения на независимые подзадачи: LIMO, LiveCodeBench, OlympiadBench, AIME. Эксперименты на разных моделях (Qwen3, QwQ, Deepseek R1, Phi4-R) показывают, что метод позволяет решать задачи за меньшее число последовательных шагов, чем обычная генерация. Например, QwQ-32B в LIMO (817 задач на математику) c использованием Hogwild! даёт прирост точности до 0,6 при 4000 токенах, в то время как бейзлайн — на уровне 0,4. Эксперименты также подтверждают масштабируемость: при двух рабочих генерация ускоряется в 1,8 раза, при четырёх — в 3,4.&lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;❣ &lt;em&gt;Глеб Родионов&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+_UgXDlenCHw0OWRi" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Cognitive Behaviors that Enable Self-Improving Reasoners, or, Four Habits of Highly Effective STaRs</title><link href="https://t.me/stuffyNLP/131" /><id>https://t.me/stuffyNLP/131</id><author><name>Душный NLP</name></author><updated>2025-06-06T13:46:28+00:00</updated><published>2025-06-06T13:46:28+00:00</published><content type="html">&lt;strong&gt;Cognitive Behaviors that Enable Self-Improving Reasoners, or, Four Habits of Highly Effective STaRs&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разберём &lt;a href="https://arxiv.org/abs/2503.01307" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; от группы исследователей из Стэнфордского университета про когнитивное поведение. Авторы выясняют, при каких условиях модель становится self-improving reasoner: то есть, может учиться находить правильное решение без специальной разметки.&lt;br&gt;&lt;br&gt;Test-time compute scaling — довольно мощная парадигма для задач, которые требуют рассуждения. Для &lt;a href="https://arxiv.org/abs/2501.12948" rel="nofollow noopener noreferrer"&gt;DeepSeek-R1-Zero&lt;/a&gt; было показано: обучаясь решать задачи по математике и программированию, модель самостоятельно учится генерировать цепочки рассуждений. В этой статье авторы применяют тот же принцип к моделям Qwen-2.5-3B и Llama-3.2-3B с одинаковым сетапом обучения (RL+GRPO) для задачи Countdown.&lt;br&gt;&lt;br&gt;Countdown — это когда из нескольких чисел с помощью стандартных арифметических операций (сложение, вычитание, умножение и деление) нужно получить целевое число. Как видно из графиков, модель Qwen довольно быстро достигла неплохого качества, в то время как Llama сходится медленнее и работает хуже. Проанализировав результаты, авторы обнаружили четыре главных когнитивных паттерна для решения логических задач:&lt;br&gt;&lt;br&gt;— &lt;strong&gt;Verification. &lt;/strong&gt;Проверка, верно ли логически выдвинутое рассуждение. &lt;br&gt;— &lt;strong&gt;Backtracking.&lt;/strong&gt; Отказ от бесперспективных подходов.&lt;br&gt;— &lt;strong&gt;Subgoal setting.&lt;/strong&gt; Разделение сложных задач на более простые подзадачи.&lt;br&gt;— &lt;strong&gt;Backward chaining.&lt;/strong&gt; Подход от конца к началу: попытка понять по ответу, какие действия подходят к нему.&lt;br&gt;&lt;br&gt;Эти паттерны вполне соответствуют человеческой логике. Авторы предположили, что обучающая выборка Qwen содержит в том или ином виде четыре ключевых паттерна, а Llama — нет. Чтобы научить Llama вышеописанным паттернам, авторы сгенерировали мощной проприетарной моделью (Claude 3.5 Sonnet) небольшой датасет с этими паттернами.  &lt;br&gt;&lt;br&gt;Оказалось, что дообучение на небольшом количестве таких примеров приводит к существенному приросту качества работы Llama для задачи Countdown: оно сравнялось с Qwen. &lt;br&gt;&lt;br&gt;Примечательно, что итоговое качество не снижают даже примеры с неправильными ответами в обучающей выборке. Это говорит о том, что демонстрация когнитивного поведения важнее правильных ответов. &lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Денис Кузнеделев&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+o-VVOVhZdiI0N2Zi" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>DMPO — модификация DPO</title><link href="https://t.me/stuffyNLP/127" /><id>https://t.me/stuffyNLP/127</id><author><name>Душный NLP</name></author><updated>2025-05-30T09:30:47+00:00</updated><published>2025-05-30T09:30:47+00:00</published><content type="html">&lt;strong&gt;DMPO — модификация DPO&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодняшняя &lt;a href="https://arxiv.org/abs/2406.14868" rel="nofollow noopener noreferrer"&gt;статья&lt;/a&gt; — о Direct Multi-Turn Preference Optimization. Это модификация DPO, которая позволяет получить лучшие результаты. Но не всё так просто.    &lt;br&gt;&lt;br&gt;Традиционный DPO заточен на работу с парами «префикс и суффикс» — то есть запрос пользователя и ответ. Авторы статьи задались целью распространить его на длинные цепочки. Однако в публикации работают не диалогами, а с окружением из трёх датасетов: ALFWorld, WebShop и ScienceWorld. &lt;br&gt;&lt;br&gt;Скажем, в ScienceWorld агенту даётся задание — например, выяснить, обладает ли металлическая вилка электропроводностью — и текстовое представление нескольких «комнат» с разными объектами. С ними можно выполнять некоторые действия, чтобы достигнуть поставленной цели. В ScienceWorld задачи чуть сложнее, чем, например, в ALFWorld, где может потребоваться, к примеру, просто убрать посуду в шкаф. &lt;br&gt;&lt;br&gt;Авторы статьи отмечают, что при обучении на цепочках использование стандартной формулы для KL-дивергенции приводит к большой накопительной ошибке. Поэтому они обращаются к State-Action Occupancy Measure (SAOM). Суть этого метода заключается в модификации обычного RL-лосса (&lt;em&gt;изображение 1&lt;/em&gt;), введении дисконта так, чтобы у более ранних шагов был больший вес. &lt;br&gt;&lt;br&gt;Формула SAOM добавляется в формулу DPO вместо KL-дивергенции, после чего авторы добавляют нормализацию на длины траекторий и получают ещё одну формулу (&lt;em&gt;изображение 2&lt;/em&gt;). Согласно ей, каждый следующий шаг в диалоге меньше влияет на лосс. &lt;br&gt;&lt;br&gt;Такова основная идея статьи, но самое интересное — это эксперименты. Авторы проводили SFT-модели на датасетах, о которых сказано выше, а затем проводили тесты на других кусках этих же датасетов и определяли, успешно ли справилась модель. &lt;br&gt;&lt;br&gt;Далее есть два сетапа. Первый — Noisy (RQ1) — включает все безуспешные траектории в качестве негативов. Как позитивные примеры используются не успехи модели, а экспертные траектории из датасетов. Для clean-сетапа (RQ2) отфильтровывают noisy-траектории (как именно, не сообщают) и выбирают высококачественные в качестве проигравших.  &lt;br&gt;&lt;br&gt;DMPO в RQ2 даёт весьма ощутимый прирост относительно SFT (&lt;em&gt;изображение 3&lt;/em&gt;), а в RQ1 различия не столь ощутимы. Хотя метод авторов статьи всё ещё побеждает. При этом DMPO, по их словам, «не убивает» длину цепочек. &lt;br&gt;&lt;em&gt;&lt;br&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Сергей Дуликов&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+WUeVr0juqqIyN2Fi" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry><entry><title>Как улучшили EAGLE-3</title><link href="https://t.me/stuffyNLP/126" /><id>https://t.me/stuffyNLP/126</id><author><name>Душный NLP</name></author><updated>2025-05-23T09:17:00+00:00</updated><published>2025-05-23T09:17:00+00:00</published><content type="html">&lt;strong&gt;Как улучшили EAGLE-3&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодняшняя &lt;a href="https://arxiv.org/abs/2503.01840" rel="nofollow noopener noreferrer"&gt;статья&lt;/a&gt; — о EAGLE-3. Это новая версия популярного метода спекулятивного декодинга. Расскажем, как её улучшили по сравнению с прошлыми итерациями. &lt;br&gt;&lt;br&gt;Спекулятивный декодинг — это способ ускорения инференса, предполагающий использование черновой (draft) модели, которая предлагает варианты продолжения генераций. Основная модель проверяет эти варианты, выбирая один с помощью процедуры верификации. Качество генераций при этом не страдает, ведь окончательное решение о принятии тех или иных токенов лежит на основной модели.&lt;br&gt;&lt;br&gt;Один из самых известных методов спекулятивного декодинга — Extrapolation Algorithm for Greater Language-model Efficiency (EAGLE). В его рамках модель принимает не только прошлые токены, но и их feature-вектора. Это позволяет увеличить точность угадывания токенов. &lt;br&gt;&lt;br&gt;Обновлённая версия EAGLE — EAGLE-3 — призвана сделать угадывание ещё более точным. Для этого можно просто налить больше данных в обучение EAGLE-модели. Однако, как показала практика, такой подход работает не слишком хорошо. Авторы метода посчитали, что здесь мешает feature loss, на который учится EAGLE. Выход — избавиться от feature loss и учить только на KL-лосс между предсказаниями EAGLE-головы и основной модели. &lt;br&gt;&lt;br&gt;Проверка этой гипотезы показала, что без feature loss точность угадывания первого токена действительно увеличивается при добавлении новых данных. Однако она падает для следующих токенов. Всё из-за того, что теряется способность предсказывать в глубину. Решение: во время обучения делать не одну, а сразу несколько итераций EAGLE-головы, осуществляя предсказание в глубину.&lt;br&gt;&lt;br&gt;Авторы сделали ещё одно улучшение. В прошлых версиях метода в EAGLE-модель подавали хиддены с последнего слоя таргет-модели, а также эмбеддинги токенов, отсэмплированных из них. Исследователи предположили, что в хидденах недостаточно информации, чтобы эффективно предсказывать токены. Вероятно, больше данных содержится в хидденах с промежуточных трансформерных слоёв. В EAGLE-3 авторы конкатенируют хиддены с трёх decoder-слоёв — с третего от начала, третьего от конца и слоя в середине между ними — и уже их передают на вход EAGLE-модели. &lt;br&gt;&lt;br&gt;Суммируя, авторы EAGLE-3:&lt;br&gt;&lt;br&gt;— убрали feature loss;&lt;br&gt;— добавили несколько шагов на обучении и увеличили объём данных;&lt;br&gt;— решили отправлять в EAGLE-модель хиддены с нескольких слоёв.&lt;br&gt;&lt;br&gt;По сравнению с инференсом без использования EAGLE, всё это позволило получить прирост в скорости в 6,5 раза — и без потери качества. Число токенов за одну итерацию увеличилось на 50% по сравнению с EAGLE-2: с 4,05 до 6,13. &lt;br&gt;&lt;br&gt;&lt;em&gt;Разбор подготовил &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Алексей Гликин&lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/+iHXjunqCCbIxYWYy" rel="nofollow noopener noreferrer"&gt;Душный NLP&lt;/a&gt;</content></entry></feed>