<?xml version='1.0' encoding='utf-8'?>
<rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title>Рекомендательная [RecSys Channel]</title><link>https://ml-brand.github.io/RecSysChannel/</link><description>Зеркало Telegram-канала RecSysChannel</description><atom:link href="https://ml-brand.github.io/RecSysChannel/feed.xml" rel="self" type="application/rss+xml" /><lastBuildDate>Sat, 04 Apr 2026 03:25:50 +0000</lastBuildDate><item><title>Generative Recommendation for Large-Scale Advertising</title><link>https://t.me/RecSysChannel/230</link><guid>https://t.me/RecSysChannel/230</guid><pubDate>Tue, 31 Mar 2026 10:35:23 +0000</pubDate><description>&lt;strong&gt;Generative Recommendation for Large-Scale Advertising&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня разбираем &lt;a href="https://arxiv.org/abs/2602.22732" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt;, где авторы из Kuaishou расширяют парадигму &lt;a href="https://t.me/RecSysChannel/79" rel="nofollow noopener noreferrer"&gt;OneRec&lt;/a&gt; на рекламный домен. Они выделяют три проблемы, которые в рекламных рекомендациях проявляются особенно остро по сравнению с обычными LLM. &lt;br&gt;&lt;br&gt;1. Рекламу сложно токенизировать: одно объявление — это сразу видео, текст, продукт, бренд, рекламодатель и бизнес-метаданные. &lt;br&gt;2. Важно не просто генерировать рекомендации — важен порядок объявлений в выдаче и eCPM.&lt;br&gt;3. Всё это должно работать в проде с жёсткими ограничениями по latency. &lt;br&gt;&lt;br&gt;Ответом становится &lt;strong&gt;GR4AD&lt;/strong&gt; (Generative Recommendation for ADdvertising) — генеративная рекламная система, в которой для каждой из этих проблем есть отдельное решение. &lt;br&gt;&lt;br&gt;Нововведения такие:&lt;br&gt;&lt;br&gt;- &lt;strong&gt;UA-SID&lt;/strong&gt; (unified advertisement semantic ID) — единый семантический идентификатор объявления. Объявление прогоняют через мультимодальную модель с instruction tuning для получения эмбеда с учётом прикладной семантики (контент, продукт, рекламодатель и так далее). Потом с помощью &lt;strong&gt;co-occurrence learning&lt;/strong&gt; дообучают эмбеддинги под рекламный домен. Это нужно, чтобы модель лучше улавливала совместимость между рекламными сущностями. Далее полученные эмбеды с помощью &lt;strong&gt;MGMR RQ-KMeans&lt;/strong&gt; квантуют в многоуровневые SID. Первые уровни ловят грубую семантику, следующие — уточняют остаточную информацию. Последний токен — хэш бизнес-ID для борьбы с коллизиями.&lt;br&gt;&lt;br&gt;- &lt;strong&gt;LazyAR&lt;/strong&gt; ускоряет декодер. Самый важный первый токен генерируется честно авторегрессивно, а часть промежуточных слоёв переиспользуется и считается не авторегрессивно. Для сохранения качества на выходы этих слоев навешивается дополнительный MTP-loss.&lt;br&gt;&lt;br&gt;- &lt;strong&gt;VSL+RSPO&lt;/strong&gt; — VSL добавляет в обучение бизнес-сигнал: модель предсказывает не только последовательность SID-токенов, но и дискретизированный eCPM. Добавляют перевзвешивание: более ценные пользователи и более важные действия получают больший вес. RSPO — RL-style компонента для list-wise-оптимизации. Вместо point-wise-обучения модель учат ранжировать список объявлений так, чтобы улучшать NDCG.&lt;br&gt;&lt;br&gt;Ещё можно отметить оптимизации, например &lt;strong&gt;Dynamic Beam Serving&lt;/strong&gt;, который подстраивает beam search под стадию генерации и текущую нагрузку. На ранних шагах beam шире. При высоком QPS — уже. Добавляются TTL-кэши, beam-cache, KV-cache, FP8.&lt;br&gt;&lt;br&gt;Система построена как замкнутый цикл, в котором новые объявления переводятся в UA-SID и попадают в realtime index. При запросе модель генерирует и ранжирует кандидатов, после чего их показывают пользователю. Дальше система собирает reward-сигналы и отправляет их в онлайн-обучение, где обновляются VSL и RSPO. Так, модель постоянно дообучается на живом трафике.&lt;br&gt;&lt;br&gt;Результаты у статьи впечатляющие. UA-SID сам по себе даёт ограниченный прирост к базовому генеративному ранкеру, основной буст происходит от способа обучения: VSL + RSPO заметно поднимают revenue относительно OneRec-V2. Сервисные оптимизации тоже ощутимые: LazyAR почти удваивает QPS без заметной просадки по качеству, а DBS помогает поймать баланс между скоростью и доходом. В A/B-тестах репортят увеличение рекламной выручки до 4,2% по сравнению с сильным бейзлайном на основе DLRM. Модель здорово масштабируется по качеству в зависимости от beam search width и количества параметров.&lt;br&gt;&lt;br&gt;В целом работа выглядит как практичная попытка «приземлить» генеративные рекомендации в рекламу. Главная мысль статьи в том, что для использования LLM в рекламе, нужно учитывать специфику домена — например, свои SID, business-aware-лоссы и serving-оптимизации.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Обзор подготовила ❣ Маргарита Мишустина</description></item><item><title>QARM V2: Quantitative Alignment Multi-Modal Recommendation for Reasoning User Sequence Modeling</title><link>https://t.me/RecSysChannel/229</link><guid>https://t.me/RecSysChannel/229</guid><pubDate>Wed, 25 Mar 2026 08:39:01 +0000</pubDate><description>&lt;strong&gt;QARM V2: Quantitative Alignment Multi-Modal Recommendation for Reasoning User Sequence Modeling &lt;/strong&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;Сегодня разбираем &lt;a href="https://arxiv.org/abs/2602.08559" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; от Kuaishou о том, как использовать LLM для формирования семантических фичей в ранжирующих моделях.&lt;br&gt;&lt;br&gt;В индустрии для ранжирования используют трансформеры. История действий пользователя представляется в виде последовательности айтемов, и модель учится предсказывать на её основе, будет ли релевантен тот или иной новый айтем из числа кандидатов. &lt;br&gt;&lt;br&gt;Когда последовательности становятся длинными, используют двухэтапную схему:&lt;br&gt;&lt;br&gt;1) &lt;strong&gt;General Search Unit&lt;/strong&gt; (GSU) выбирает из истории пользователя айтемы, наиболее близкие к текущему кандидату; &lt;br&gt;2) &lt;strong&gt;Exact Search Unit&lt;/strong&gt; (ESU) точно оценивает релевантность кандидата по этой сжатой истории.&lt;br&gt;&lt;br&gt;Такая схема давно устоялась и хорошо работает. Но в ней всё критически зависит от того, какие именно эмбеддинги используются для айтемов. Классические модели опираются на ID-based-эмбеддинги. Авторы формулируют фундаментальные ограничения такого подхода:&lt;br&gt;&lt;br&gt;- низкая информативность (эмбеддинг не раскрывает семантику);&lt;br&gt;- изолированность знаний;&lt;br&gt;- слабая генерализация без постоянного дообучения;&lt;br&gt;- проблемы long-tail и cold start.&lt;br&gt;&lt;br&gt;LLM-эмбеддинги выглядят как альтернатива: они содержат плотную семантику, обобщают знания и хорошо генерализуют. Но на практике их использование в «зафриженном» виде даёт лишь ограниченный прирост качества.&lt;br&gt;&lt;br&gt;Причина в рассинхроне с задачей рекомендаций:&lt;br&gt;&lt;br&gt;- &lt;strong&gt;Representation Unmatch&lt;/strong&gt; — LLM понимает айтем, но не его релевантность пользователю;&lt;br&gt;- &lt;strong&gt;Representation Unlearning&lt;/strong&gt; — эмбеддинги нельзя обучать end-to-end вместе с моделью.&lt;br&gt;&lt;br&gt;QARM V2 решает эту проблему, адаптируя LLM-эмбеддинги под задачу рекомендаций через механизм &lt;strong&gt;Reasoning Item Alignment&lt;/strong&gt;. Идея подхода в том, чтобы затюнить LLM под генерацию эмбеддингов, одновременно отражающих хорошее понимание айтемов и способных предсказывать их со-встречаемость:&lt;br&gt;&lt;br&gt;1) на основе коллаборативных моделей собираются item-item-пары в качестве таргета для контрастивного обучения;&lt;br&gt;2) пары фильтруются, убирается шум и bias на популярные айтемы;&lt;br&gt;3) для айтемов также генерируются QA-пары в качестве таргета для генерации ответов;&lt;br&gt;4) обучение идёт по схеме «входные данные -&amp;gt; EMB-токены –&amp;gt; генерация ответов + контрастивный лосс».&lt;br&gt;&lt;br&gt;Важно, что контрастивный лосс считается по EMB-токенам, и через них же модель отвечает на заранее подготовленные вопросы. В итоге всё понимание айтема сжимается в компактный эмбеддинг, — одновременно семантический и коллаборативный.&lt;br&gt;&lt;br&gt;Вторая часть пайплайна — построение semantic IDs через квантизацию. Базовый Residual KMeans хорошо ловит грубую семантику, но даёт много коллизий (разные айтемы получают одинаковые коды).&lt;br&gt;&lt;br&gt;Авторы предлагают гибрид, в котором верхние уровни (Residual KMeans) захватывают грубую семантику, а последний (FSQ) помогает различать близкие айтемы и снижает коллизии.&lt;br&gt;&lt;br&gt;Дальше подход встраивается в обычную схему GSU/ESU. Сначала с помощью полученных LLM эмбеддингов из истории пользователя выбираются наиболее близкие кандидату айтемы, а затем уже в ESU используются semantic IDs как признаки для более точного ранжирования.&lt;br&gt;&lt;br&gt;Важно, что эмбеддинги для semantic IDs обучаются end-to-end вместе с ранжирующей моделью, в отличие от зафриженных LLM-эмбеддингов.&lt;br&gt;&lt;br&gt;По результатам всё выглядит ожидаемо «сильным»: стабильные улучшения в офлайн-метриках, заметный буст в cold-start-сценариях, снижение количества коллизий после новой квантизации. Основные бизнес-метрики (CTR, GMV) демонстрируют ощутимые приросты в онлайн-экспериментах.&lt;br&gt;&lt;br&gt;В целом работа показывает, что ключевой эффект даёт не просто использование эмбеддингов из LLM, а их правильный алайнмент под задачу рекомендаций. &lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовила &lt;em&gt;❣&lt;/em&gt; Дарья Тихонович</description></item><item><title>Efficient Sequential Recommendation for Long Term User Interest Via Personalization</title><link>https://t.me/RecSysChannel/228</link><guid>https://t.me/RecSysChannel/228</guid><pubDate>Thu, 19 Mar 2026 10:47:01 +0000</pubDate><description>&lt;strong&gt;Efficient Sequential Recommendation for Long Term User Interest Via Personalization&lt;/strong&gt; &lt;br&gt;&lt;br&gt;Сегодня разберём недавнюю &lt;a href="https://arxiv.org/abs/2601.03479v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; от Meta* на тему сжатия историй в sequential рекомендательных моделях.&lt;br&gt;&lt;br&gt;Авторы исследуют, как сжимать long-term-историю пользователя так, чтобы её можно было эффективно обрабатывать на инференсе и при этом не потерять в качестве. Это не новая архитектура, а скорее фреймворк или метод сжатия истории, который можно применять к разным моделям. Например, в статье рассматриваются &lt;a href="https://arxiv.org/abs/2402.17152" rel="nofollow noopener noreferrer"&gt;HSTU&lt;/a&gt; и &lt;a href="https://arxiv.org/abs/2409.12740" rel="nofollow noopener noreferrer"&gt;HLLM&lt;/a&gt;.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Проблема&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Sequential recommender обычно строится на трансформерной архитектуре, которая страдает от квадратичной сложности механизма аттешнна. Из-за этого обрабатывать длинные последовательности вычислительно дорого, хоть они и приносят стабильный профит.&lt;br&gt;&lt;br&gt;В релевантных работах эту проблему решают в два этапа: сначала long-term-историю сокращают (например, семплируют или кластеризуют события), а затем объединяют с последними событиями и прогоняют через модель. В статье приводят примеры подходов &lt;a href="https://arxiv.org/abs/2411.10057" rel="nofollow noopener noreferrer"&gt;KuaiFormer&lt;/a&gt;, &lt;a href="https://t.me/RecSysChannel/219" rel="nofollow noopener noreferrer"&gt;SIM&lt;/a&gt;, &lt;a href="https://arxiv.org/abs/2407.16357" rel="nofollow noopener noreferrer"&gt;TWIN V2&lt;/a&gt;.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Идея&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Авторы предлагают новый подход — сжимать историю с помощью выучиваемых токенов (personalized experts).&lt;br&gt;&lt;br&gt;Длинную историю разбивают на сегменты — например по сессиям, дням или фиксированному числу событий. Затем каждый сегмент сжимают в несколько токенов-«экспертов», которые используются для дальнейших предсказаний. При этом последний сегмент истории на момент предсказания не сжимается — модель видит его полностью.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Обучение&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Обучение авторегрессивное, используется специальная аттеншн-маска: каждый токен может смотреть на предыдущие токены своего сегмента и на «экспертов» из предыдущих сегментов, при этом сами токены этих сегментов скрыты маской.&lt;br&gt;Модель обучается стандартно на задачу next item prediction, при этом для «экспертов» лосс не считается.&lt;br&gt;&lt;br&gt;На инференсе сегменты обрабатывают последовательно, а key- и value-эмбеддинги сжимающих токенов сохраняются. При предсказании следующего айтема используют только текущий сегмент и сохраненные key и value «экспертов» с предыдущих сегментов. Благодаря этому пропадает необходимость обрабатывать всю long-term-историю как одну длинную последовательность.&lt;br&gt;&lt;br&gt;Интересно, что на обучении появляется лишь небольшой оверхед из-за добавленных токенов, однако на инференсе выигрыш существенный: в экспериментальном сетапе получают примерно четверть от исходной вычислительной стоимости.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Эксперименты&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Они проводятся на двух датасетах:&lt;br&gt;&lt;br&gt;- MerRec — e-commerce датасет из Mercari;&lt;br&gt;- EB-NeRD — новостной датасет из газеты Ekstra Bladet.&lt;br&gt;&lt;br&gt;Метод почти полностью сохраняет качество моделей на полной истории и заметно превосходит варианты, где используется только recent-история. На MerRec метрики даже немного лучше бейзлайна с полной историей.&lt;br&gt;&lt;br&gt;Авторы также показывают, что количество «экспертов» почти не влияет на качество, а сжатое представление long-term-истории можно переиспользовать довольно долго без заметной деградации. Лучше всего сработала такая схема: вставить всех «экспертов» после одного большого претрейн-сегмента.&lt;br&gt;&lt;br&gt;Как оказалось при анализе результатов, «эксперты» часто содержат информацию по небольшому набору айтемов из истории, релевантных таргетному. Например, для айтема “LEGO” среди наиболее важных элементов из истории оказываются другие LEGO-товары.&lt;br&gt;&lt;br&gt;Исходный код доступен на &lt;a href="https://github.com/facebookresearch/PerSRec" rel="nofollow noopener noreferrer"&gt;GitHub&lt;/a&gt;.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Никита Степанов&lt;br&gt;___&lt;br&gt;&lt;em&gt;Компания Meta признана экстремистской; её деятельность в России запрещена.&lt;/em&gt;</description></item><item><title>Айсберг KV-кэшей, или Как эффективно считать трансформеры</title><link>https://t.me/RecSysChannel/226</link><guid>https://t.me/RecSysChannel/226</guid><pubDate>Fri, 13 Mar 2026 08:03:12 +0000</pubDate><description>&lt;strong&gt;Айсберг KV-кэшей, или Как эффективно считать трансформеры &lt;br&gt;&lt;/strong&gt;&lt;br&gt;Не так давно мы разбирали &lt;a href="https://t.me/RecSysChannel/217" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; KVZap от NVIDIA на тему сжатия KV-кэша. В этом посте сделаем шаг назад и посмотрим шире: какие в целом есть проблемы у подхода, почему он становится узким местом в проде и как решаются инфровые челленджи на практике.&lt;br&gt;&lt;br&gt;В какой-то момент все, кто занимается авторегрессионными трансформерами, приходят к  мысли: в каузальном аттеншне прошлые токены не зависят от нового. Значит, K и V для уже увиденных токенов можно посчитать один раз, сохранить и переиспользовать при авторегрессионной генерации. Казалось бы, — вот она, победа.&lt;br&gt;&lt;br&gt;Но дальше всплывает «айсберг». KV-кэш быстро становится гигантским, потому что растёт сразу по нескольким осям: число слоёв, длина контекста, число KV‑голов, head_dim и dtype. Например, если хранить KV в FP16/BF16 (2 байта), то для контекста 8K порядок цифр на одну последовательность получается примерно такой: &lt;br&gt;&lt;br&gt;- 2 ГБ для моделей 30B с GQA (зависит от точной архитектуры); &lt;br&gt;- 4 ГБ для LLaMA‑2‑7B;&lt;br&gt;- 36 ГБ для GPT‑3‑175B. &lt;br&gt;&lt;br&gt;И это ещё до того, как мы вспомним о большом количестве одновременных пользователей. Закономерный вопрос: как такое внедрять в прод?&lt;br&gt;&lt;br&gt;&lt;strong&gt;Где обычно ужимают KV-кэш&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Хорошая новость: оптимизироваться можно почти по любой размерности, используя разные подходы. Например:&lt;br&gt;&lt;br&gt;- по головам — Multi‑Query или Grouped‑Query Attention (меньше K/V-голов при том же числе Q-голов);&lt;br&gt;- по слоям или доступному контексту — Sliding Window Attention (держим только окно последних W-токенов);&lt;br&gt;- по dtype — квантизации;&lt;br&gt;- по head_dim — подходы, вроде Multi Latent Attention;&lt;br&gt;- и отдельный класс — умное сокращение контекста, например KVZip и KVZap.&lt;br&gt;&lt;br&gt;На последнем пункте остановимся подробнее. &lt;br&gt;&lt;br&gt;KVZip/KVZap — это «умное выкидывание» токенов (а точнее, KV-пар) по важности для контекста. KVZip оценивает важность через аттеншн при реконструкции промпта (teacher‑forcing) — но для этого нужен дополнительный прогон. KVZap предсказывает важность по скрытому состоянию и режет по порогу, делая сжатие адаптивным. Главное ограничение подхода — пока нет хорошей реализации, совместимой с Paged Attention (неравномерная длина кэша для голов требует работы с блоками переменной длины), что критично для использования в высоконагруженной системе.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Немного GPU-реальности&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Даже с красивым прунингом остаётся системная проблема: если аллоцировать KV-кэш как один большой непрерывный блок, память со временем фрагментируется. В итоге могут оставаться «дырки», куда уже не помещаются новые большие кэши, хотя суммарно свободной памяти вроде бы достаточно. Из-за этого возникает серьёзная недоутилизация GPU-памяти.&lt;br&gt;&lt;br&gt;Типовое решение — Paged Attention: KV-кэш режут на страницы фиксированного размера и управляют ими через таблицу блоков. Вместо одного большого куска появляются небольшие блоки, которыми проще управлять и переиспользовать между запросами.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Как это используют &lt;br&gt;&lt;/strong&gt;&lt;br&gt;Есть несколько популярных проектов, которые по-разному решают задачу KV-кэша. Разберём некоторые из них.&lt;br&gt;&lt;br&gt;&lt;strong&gt;1) vLLM — цельный inference‑движок вокруг Paged Attention&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Плюсы:&lt;br&gt;- зрелая реализация paged‑подхода;&lt;br&gt;- multi‑GPU (tensor parallel) и коммуникации через NCCL;&lt;br&gt;- опенсорс.&lt;br&gt;&lt;br&gt;Минусы:&lt;br&gt;- сложнее «вклинивать» нестандартные политики работы с KV (не всегда удобно расширять под свои эксперименты);&lt;br&gt;- KV‑кэш в основном локален узлу/серверу (шаринг и распределённое хранение — отдельная задача).&lt;br&gt;&lt;br&gt;&lt;strong&gt;2) LMCache — KV‑кэш как отдельный слой (многоуровневый)&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Плюсы:&lt;br&gt;- явная работа со страницами или блоками и несколькими уровнями кэша (GPU, CPU, SSD, распределённый);&lt;br&gt;- поддержка распределённого хранения KV;&lt;br&gt;- фокус на расширяемости и интеграции;&lt;br&gt;- опенсорс.&lt;br&gt;&lt;br&gt;Минус:&lt;br&gt;- сочетание с оптимизациями внутри узла (NVLink/NVSwitch, tensor parallel) зависит от конкретной интеграции с движком и не всегда «из коробки».&lt;br&gt;&lt;br&gt;В итоге можно сказать, что KV-кэш — важный фактор, который определяет, как модель будет работать в проде. Уже есть подходы, которые помогают сократить объём кэша, но без продуманной архитектуры хранения и управления памятью, проблему они не решают.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Кирилл Маляев</description></item><item><title>RankMixer: Scaling Up Ranking Models in Industrial Recommenders</title><link>https://t.me/RecSysChannel/225</link><guid>https://t.me/RecSysChannel/225</guid><pubDate>Wed, 04 Mar 2026 09:38:58 +0000</pubDate><description>&lt;strong&gt;RankMixer: Scaling Up Ranking Models in Industrial Recommenders &lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня разберём &lt;a href="https://arxiv.org/abs/2507.15551v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; от ByteDance. Авторы предлагают модель RankMixer, новую масштабируемую архитектуру ранжирования для индустриальных рекомендаций.&lt;br&gt;&lt;br&gt;Современные ранжирующие модели часто плохо используют GPU. Многие подходы исторически оптимизировались под CPU, из-за чего GPU-утилизация остаётся низкой. Авторы хотят повысить MFU (Model FLOPs Utilization) — то, насколько эффективно модель использует вычисления.&lt;br&gt;&lt;br&gt;RankMixer позиционируется как продолжение линейки работ по deep learning в рекомендациях: &lt;a href="https://arxiv.org/abs/1606.07792" rel="nofollow noopener noreferrer"&gt;Wide&amp;amp;Deep&lt;/a&gt;, &lt;a href="https://arxiv.org/abs/1703.04247" rel="nofollow noopener noreferrer"&gt;DeepFM&lt;/a&gt;, &lt;a href="https://arxiv.org/abs/2008.13535" rel="nofollow noopener noreferrer"&gt;DCNv2&lt;/a&gt; и других моделей, развивающих feature interactions.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Архитектура&lt;/strong&gt;&lt;br&gt;&lt;br&gt;На вход подаются гетерогенные признаки: профиль пользователя, профиль видео, видеофичи и сигналы взаимодействий. Раньше такие взаимодействия часто учитывались либо неэффективно, либо через простые схемы вроде конкатенаций. Поэтому в RankMixer предложили другую структуру.&lt;br&gt;&lt;br&gt;Сначала все признаки переводятся в token-based-представление, то есть представляются токенами одинаковой размерности. На входе получается матрица T×D, где T — число токенов, а D — их размерность.&lt;br&gt;&lt;br&gt;Дальше токены подаются в RankMixer block, который состоит из двух частей:&lt;br&gt;- Multi-head Token Mixing,&lt;br&gt;- Per-token FFN (PFFN).&lt;br&gt;&lt;br&gt;В Multi-head Token Mixing каждый токен разбивается на H голов, чтобы смешивать разные семантические фрагменты и лучше учитывать гетерогенность признаков.&lt;br&gt;&lt;br&gt;Смешивание происходит через конкатенацию: для каждой головы берётся соответствующая часть всех токенов и собирается новая матрица. Так учитываются взаимодействия и внутри токенов, и между разными группами признаков.&lt;br&gt;&lt;br&gt;Дальше идёт Per-token FFN, где каждый токен обрабатывается индивидуально. По сути это feed-forward-слой, но применяется он отдельно для каждого токена.&lt;br&gt;&lt;br&gt;В PFFN также используют Sparse Mixture-of-Experts (MoE). Это позволяет увеличивать capacity модели без такого же роста флопсов: вместо одного FFN берут набор экспертов, и для каждого токена активируют только часть из них.&lt;br&gt;&lt;br&gt;В статье отдельно обсуждают проблему dying experts, когда работают только несколько доминирующих экспертов. Для борьбы с этим используют routing-стратегию: роутер выбирает несколько экспертов; а также добавляют load balancing losses, чтобы эксперты использовались равномернее.&lt;br&gt;&lt;br&gt;После нескольких блоков выход агрегируется через pooling, и дальше модель предсказывает таргетные сигналы: например, skip, like, completion и другие.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Эксперименты&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В работе есть сравнения по эффективности и качеству. Также авторы провели долгий A/B-эксперимент онлайн в Douyin и Douyin Lite, по итогам которого заменили в проде 16M модель на RankMixer 1B без существенного увеличения времени на инференс.&lt;br&gt;&lt;br&gt;Для офлайн-оценки взяты стандартные метрики AUC и UAUC. Эксперименты провели сначала на рекомендациях видео, а затем и на рекламе.&lt;br&gt;&lt;br&gt;В качестве бейзлайнов сравнивают RankMixer с MLP + feature crossing, DCNv2, а также с более современными моделями (например, AutoInt и HiFormer).&lt;br&gt;&lt;br&gt;&lt;strong&gt;Результаты&lt;br&gt;&lt;/strong&gt;&lt;br&gt;RankMixer выигрывает у бейзлайнов как в варианте около 100M параметров, так и в варианте около 1B параметров. Полученные улучшения статзначимы.&lt;br&gt;&lt;br&gt;Также в работе есть графики по скейлингу: рост AUC сопоставляется с числом параметров. RankMixer показывает более выгодное соотношение между качеством и масштабом модели.&lt;br&gt;&lt;br&gt;В аблейшнах видно, что главный вклад дают два компонента RankMixer block:&lt;br&gt;&lt;br&gt;1) Удаление Multi-head Token Mixing сильно снижает качество.&lt;br&gt;2) Замена Per-token FFN на shared FFN тоже ухудшает метрики.&lt;br&gt;&lt;br&gt;Итоговый вывод авторов — они получили универсальный бэкбон для индустриального ранжирования, который позволяет одновременно улучшить качество рекомендаций и повысить эффективность использования GPU.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовила &lt;em&gt;❣&lt;/em&gt; Василиса Григорьева</description></item><item><title>SilverTorch: A Unified Model-based System to Democratize Large-Scale Recommendation on GPUs</title><link>https://t.me/RecSysChannel/224</link><guid>https://t.me/RecSysChannel/224</guid><pubDate>Fri, 27 Feb 2026 10:40:02 +0000</pubDate><description>&lt;strong&gt;SilverTorch: A Unified Model-based System to Democratize Large-Scale Recommendation on GPUs&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разбираем &lt;a href="https://arxiv.org/abs/2511.14881v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; от Meta* на тему кандидатогенерации на основе GPU. Авторы рассказывают, как именно уносят кандидатогенераторы на GPU и какой профит получают. &lt;br&gt;&lt;br&gt;Индустриальные рекомендательные системы скейлятся на десятки и сотни миллионов айтемов, поэтому приходится строить каскад, где на ранней стадии кандидатов достают из ANN-индекса и дополнительно фильтруют по разным бизнес-правилам.&lt;br&gt;&lt;br&gt;В работе утверждают, что типичный пайплайн «ANN на CPU + фильтрующий сервис + сетевые вызовы между компонентами» дорогой и неэффективный. Сюда прибавляется проблема неконсистентности: юзерная часть двубашенной модели обновляется часто, а документная — редко, потому что перестроение индекса стоит дорого. Это приводит к миссматчу версий и создаёт целых 30% дропа перформанса.&lt;br&gt;&lt;br&gt;В SilverTorch объединяют индексацию и фильтрацию на одной видеокарте и реализуют всё как один PyTorch-граф без пересылок между отдельными сервисами. Для фильтрации вместо обратного индекса используют Bloom-index: строят битовые маски по атрибутам (язык, регион и прочее), транспонируют представление так, чтобы обрабатывать куски по 64 документа за инструкцию и избегать рандомных обращений к памяти. Фильтрацию делают сразу во время ANN-поиска, чтобы топ на выходе ANN-индекса содержал строго айтемы, соответствующие всем бизнес-правилам. Bloom-маску строят только по айтемам из выбранных кластеров — это, по оценке авторов, в 30 раз сократило стоимость стадии фильтрации фичей.&lt;br&gt;&lt;br&gt;Сам ANN-поиск реализован как KNN с кластеризацией (сначала топ центроидов, потом дот-продакты внутри кластеров). Эмбеддинги квантуют в Int8, что в два раза сокращает потребление памяти и сильно поднимает пропускную способность. &lt;br&gt;&lt;br&gt;Высвободившийся бюджет тратят на OverArch scoring layer — нейросеть, которая усложняет функцию матчинга поверх дот-продакта и даёт более высокий recall. Отдельно говорят, что такой дизайн упрощает мультитаск-ретривал: не нужно строить несколько индексов, так как все таски считаются в одной копии индекса, а потом комбинируются value-моделью.&lt;br&gt;&lt;br&gt;По результатам на двух industry-scale-датасетах (10 млн и 80 млн айтемов) авторы получили снижение latency более чем в 5 раз, рост пропускной способности в 23 раза и сокращение костов на сёрвинг в 13 раз. Систему уже внедрили в сотни моделей в продуктах Meta, и она сёрвит миллиарды пользователей.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Николай Савушкин&lt;br&gt;___&lt;br&gt;&lt;em&gt;Компания Meta признана экстремистской; её деятельность в России запрещена.&lt;/em&gt;</description></item><item><title>OpenOneRec Technical Report</title><link>https://t.me/RecSysChannel/223</link><guid>https://t.me/RecSysChannel/223</guid><pubDate>Wed, 18 Feb 2026 08:39:01 +0000</pubDate><description>&lt;strong&gt;OpenOneRec Technical Report&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня кратко пересказываем &lt;a href="https://arxiv.org/abs/2512.24762" rel="nofollow noopener noreferrer"&gt;техрепорт&lt;/a&gt; от Kuaishou о рекомендательной модели, которая должна быть способна не только рекомендовать, но ещё и понимать, что она рекомендует, и уметь это объяснять.&lt;br&gt;&lt;br&gt;Авторы исходят из проблемы, что современные рекомендательные модели учатся и применяются на узком срезе данных, что мешает им приобретать общие знания и масштабироваться, как большим языковым моделям. Для преодоления этого разрыва предлагают бенчмарк, открытый датасет и семейство опенсорсных моделей.&lt;br&gt;&lt;br&gt;&lt;strong&gt;RecIF-Bench&lt;br&gt;&lt;/strong&gt;&lt;br&gt;В бенчмарке три домена: short video, ads и products. Всего около 200 тысяч пользователей, больше 15 миллионов айтемов и почти 120 миллионов взаимодействий. Домены при этом сильно отличаются. &lt;br&gt;&lt;br&gt;В видео у пользователей очень длинные истории с сотнями взаимодействий. В рекламе айтемов и кликов меньше. Products — это отдельный e-commerce-домен со своими паттернами.&lt;br&gt;&lt;br&gt;Для кодирования айтемов используется семантические id, которые добавляются в словарь базовой LLM. История пользователя в виде единой последовательности, а обучение просходит авторегрессивно. Это позволяет обучать архитектуру LLM без изменений по принципу next-token prediction, но в рекомендательном контексте.&lt;br&gt;&lt;br&gt;Кроме логов взаимодействий, датасет содержит три источника информации: пользователь, айтем и само взаимодействие. Пользователь описывается через текстовый User Portrait: демография, история просмотров, поиски, подписки, покупки и т.д. У айтемов есть мультимодальные эмбеддинги и dense captions (для видео). Во взаимодействиях учитывают разные сигналы: лайки, комментарии, просмотры, дизлайки.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Какие задачи проверяют&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Всего выделяют восемь типов задач и распределяют их по четырём уровням. Каждый следующий требует от модели более «общего» поведения. Сначала понимание айтемов и простые рекомендации. Потом условные рекомендации, вроде «предскажи видео, которое лайкнут». И в конце задачи на объяснение рекомендаций.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Как обучают модель&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Обучение во многом похоже на &lt;a href="https://arxiv.org/abs/2510.11639v1" rel="nofollow noopener noreferrer"&gt;OneRec Think&lt;/a&gt;. Сначала делают warm-up для айтемных токенов, потом претрейн на основном датасете с добавлением обычных текстов, чтобы предотвратить катастрофическое забывание языка. Полностью это всё равно не спасает, поэтому дальше идут стадии посттрейнинга.&lt;br&gt;&lt;br&gt;В посттрейне главная стадия — восстановление текстового рассуждения. Модель дистиллируют из замороженной Qwen и обучают не генерировать айтемные токены в обычных текстовых вопросах. В самом конце добавляют RL-стадию, чтобы улучшить рекомендации.&lt;br&gt;&lt;br&gt;Отдельно говорят о масштабировании, что для таких моделей данные нужно скейлить чуть агрессивнее, чем параметры. Это хорошо ложится на общий опыт обучения рекомендательных моделей: относительно небольшие модели учатся на больших датасетах.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Результаты&lt;br&gt;&lt;/strong&gt;&lt;br&gt;На своём бенчмарке модели ожидаемо обгоняют базлайны. Интересно, что есть трейд-офф между обычной 8B и 8B Pro: вторая лучше в рекомендациях, но обычная 8B часто сильнее в задачах, где нужно говорить и объяснять.&lt;br&gt;&lt;br&gt;На Amazon-бенчмарках тоже показывают хорошие цифры, но эти эксперименты по сути нельзя воспроизвести, так как слишком много закрытых деталей и дополнительного дообучения.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; &lt;/em&gt;Иван Артемьев</description></item><item><title>Massive Memorization with Hundreds of Trillions of Parameters for Sequential Transducer Generative Recommenders</title><link>https://t.me/RecSysChannel/219</link><guid>https://t.me/RecSysChannel/219</guid><pubDate>Thu, 12 Feb 2026 09:49:40 +0000</pubDate><description>&lt;strong&gt;Massive Memorization with Hundreds of Trillions of Parameters for Sequential Transducer Generative Recommenders&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Скейлинг рекомендательных моделей — один из ключевых трендов рексистем последних лет. Исследователи Яндекса в рамках подхода &lt;a href="https://t.me/RecSysChannel/137" rel="nofollow noopener noreferrer"&gt;Argus&lt;/a&gt; показывали, что качество моделей сильнее всего растёт при увеличении длины последовательности, которую обрабатывает трансформер. Однако рост до десятков и сотен тысяч событий сопряжен уже с инфраструктурными сложностями, и применение таких моделей в реалтайме за разумное время не представляется возможным.&lt;br&gt;&lt;br&gt;Сегодня рассказываем о &lt;a href="https://arxiv.org/html/2510.22049v1" rel="nofollow noopener noreferrer"&gt;статье&lt;/a&gt;, в которой авторы из Meta* предлагают элегантный двухстадийный фреймворк. Вместо того, чтобы тяжелым трансформером держать в контексте 1 млн событий, можно в офлайне сжать всю lifelong-историю, а в рантайме использовать это сжатое представление. &lt;br&gt;&lt;br&gt;Идея сама по себе не нова, но в близких по духу работах &lt;a href="https://arxiv.org/abs/2006.05639" rel="nofollow noopener noreferrer"&gt;SIM&lt;/a&gt;, &lt;a href="https://arxiv.org/abs/2407.16357" rel="nofollow noopener noreferrer"&gt;TWIN V2&lt;/a&gt; или &lt;a href="https://arxiv.org/abs/2506.02267" rel="nofollow noopener noreferrer"&gt;Transact V2&lt;/a&gt; утилизация lifelong-контекста была сопряжена либо с тривиальным и неэффективным сжатием последовательности, либо с обработкой ограниченного подмножества событий, что в итоге ведёт к сильной просадке качества.&lt;br&gt;&lt;br&gt;В статье сжатие истории проводят так: берётся полная история пользователя, над которой строят квазилинейный аттеншн, и вводят ряд суммаризирующих эмбеддингов — рассматривают до 128 штук. Модифицированный аттеншн помогает обрабатывать сверхдлинные последовательности за разумное время, а нелинейность, введенная с помощью SiLU, позволяет лучше моделировать сложные взаимодействия. Для эффективного сжатия истории авторы также вводят дополнительный reconstructive loss, чтобы из полученных эмбеддингов можно было как можно лучше восстановить исходную последовательность.&lt;br&gt;&lt;br&gt;Эмбеддинги складываются в кэш, который обновляется асинхронно. Во время инференса их берут и строят target attention между сжатыми представлениями и айтемами-кандидатами.&lt;br&gt;&lt;br&gt;Результаты офлайн-экспериментов оказались примерно сопоставимы с &lt;a href="https://arxiv.org/abs/2402.17152" rel="nofollow noopener noreferrer"&gt;HSTU&lt;/a&gt;, вместе с этим скорость инференса при увеличении длины последовательности остаётся практически константной.&lt;br&gt;&lt;br&gt;A/B-тест проводился, скорее всего, на базе Reels, в качестве бейзлайна выступала HSTU-модель. Ключевая внутренняя метрика вовлеченности C-task выросла на 0,5%, а дополнительные метрики удержания — O1 и O2 tasks — на 0,2% и 0,04%. Утверждается, что рост O2 даже на 0,01% — это существенный успех.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Руслан Кулиев&lt;br&gt;___&lt;br&gt;&lt;em&gt;Компания Meta признана экстремистской; её деятельность в России запрещена.&lt;/em&gt;</description></item><item><title>OneRec-Think: In-Text Reasoning for Generative Recommendation</title><link>https://t.me/RecSysChannel/218</link><guid>https://t.me/RecSysChannel/218</guid><pubDate>Wed, 04 Feb 2026 11:02:16 +0000</pubDate><description>&lt;strong&gt;OneRec-Think: In-Text Reasoning for Generative Recommendation&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня обсудим &lt;a href="https://arxiv.org/abs/2510.11639v1" rel="nofollow noopener noreferrer"&gt;работу&lt;/a&gt;, в которой продолжается история с генеративными рекомендациями от Kuaishou. Авторы по-прежнему хотят заменить классический рекомендательный стек одной генеративной моделью, но теперь ещё и добавить туда LLM-ный ризонинг и диалог.&lt;br&gt;&lt;br&gt;OneRec хорошо предсказывает следующий айтем по истории пользователя, но остаётся узкодоменной моделью: у неё нет широкого world knowledge, как у LLM, и нет развитых механизмов следования инструкциям и рассуждения. Поэтому авторы добавляют в OneRec-Think ризонинг, рассчитывая улучшить точность рекомендаций. Причём он используется непосредственно в процессе предсказания следующего айтема.&lt;br&gt;&lt;br&gt;Тут возникают две сложности. Во-первых, LLM изначально не знает, что такое рекомендательные айтемы (видео, треки и прочее). Во-вторых, даже если заставить её «думать», она не умеет думать именно в рекомендательном домене: длинные и шумные истории пользователей ломают красивый ризонинг.&lt;br&gt;&lt;br&gt;Авторы решают эти проблемы в три этапа.&lt;br&gt;&lt;br&gt;Сначала делают &lt;strong&gt;Itemic Alignment&lt;/strong&gt;. В словарь добавляют айтем-токены (3×8К = 24К новых токенов) и учат модель понимать айтем-токены в одном контексте с текстовыми. Делают это аккуратно: сначала замораживают бэкбон и обучают только эмбеддинги новых токенов, чтобы сохранить языковые способности модели, а затем размораживают все параметры и обучают модель совместно. Используют несколько задач, включая интерпретацию пользовательской истории, sequential next-item prediction и декодирование айтемов в текстовые описания.&lt;br&gt;&lt;br&gt;Дальше — &lt;strong&gt;Reasoning Activation&lt;/strong&gt;. Просто взять полную историю и попросить «подумай» не работает: слишком много шума и длинный контекст. Поэтому ризонинг-траектории извлекают хитрее. Берут таргет-айтем и с помощью внешней модели близости айтемов g(·,·) достают top-k (k=10) самых релевантных айтемов из истории пользователя. На этом подмножестве модель способна сгенерировать осмысленное объяснение того, почему пользователь взаимодействовал с таргетным айтемом. Эти объяснения затем используют как SFT-данные: уже на полной истории учат сначала генерировать ризонинг-трейс, а потом — следующий айтем.&lt;br&gt;&lt;br&gt;И финальный этап — &lt;strong&gt;Reasoning Enhancement.&lt;/strong&gt; Модель сэмплит несколько объяснений, а дальше под каждое считают reward — не в бинарной форме «угадал / не угадал», а на основе степени совпадения семантических токенов предсказанных кандидатов с таргетным айтемом. Для этого используется beam search по продолжениям. В результате ризонинг-траектории, ведущие к более точным предсказаниям, получают больший вес и становятся более вероятными.&lt;br&gt;&lt;br&gt;В статье обсуждают, как такую модель можно внедрить при больших RPS. Авторы предлагают схему Think-Ahead: вычислительно тяжёлую часть — генерацию ризонинга и первых шагов декодирования айтем-токенов — считают офлайн и сохраняют для пользователя набор возможных префиксов.&lt;br&gt;&lt;br&gt;В онлайне обычный OneRec ограничивается этим множеством и быстро достраивает финальный айтем. За счёт этого снижается стоимость инференса и одновременно в продакшн-систему переносятся знания LLM, зашитые в ризонинг-префиксы.&lt;br&gt;&lt;br&gt;В результате модель не только генерирует объяснения и учитывает текстовые ограничения, но и сохраняет качество предсказания следующего айтема, что подтверждают онлайн-эксперименты.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Артём Матвеев</description></item><item><title>KVzap: Fast, Adaptive, and Faithful KV Cache Pruning</title><link>https://t.me/RecSysChannel/217</link><guid>https://t.me/RecSysChannel/217</guid><pubDate>Thu, 29 Jan 2026 09:14:01 +0000</pubDate><description>&lt;strong&gt;KVzap: Fast, Adaptive, and Faithful KV Cache Pruning&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня посмотрим на совсем свежую &lt;a href="https://arxiv.org/abs/2601.07891v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; от NVIDIA о сжатии KV-кэша. KV-кэш — это сохраненные K- и V-стейты трансформера для последующей авторегрессивной генерации токенов в декодере. В первую очередь проблема сжатия возникает на стадии генерации в LLM, однако она актуальна и для ускорения инференса рекомендательных моделей, например, имеющих encoder-decoder-архитектуру. &lt;br&gt;&lt;br&gt;Размер KV-кэша линейно зависит от числа слоёв трансформера L, от числа аттеншн-голов H, от длины входной последовательности T и от размерности векторов D. Таким образом, он имеет размерность (2, L, H, T, D), где 2 соответствует хранению K- и V-кэшей в одном тензоре. Сжатие по L-размерности достигается чередованием обычных MHA-слоёв и слоёв со Sliding Window Attention (SWA): &lt;a href="https://openai.com/index/introducing-gpt-oss/" rel="nofollow noopener noreferrer"&gt;GPT-OSS-120B&lt;/a&gt;, &lt;a href="https://arxiv.org/abs/2503.19786" rel="nofollow noopener noreferrer"&gt;Gemma3&lt;/a&gt;, &lt;a href="https://arxiv.org/abs/2510.26692" rel="nofollow noopener noreferrer"&gt;Kimi-Linear&lt;/a&gt;, и др. Для сжатия по размерности H применяют Grouped Query Attention (GQA), в котором одни и те же KV-головы используются в нескольких Q-головах: &lt;a href="https://arxiv.org/abs/2407.21783" rel="nofollow noopener noreferrer"&gt;Llama3&lt;/a&gt;, &lt;a href="https://arxiv.org/abs/2508.06471" rel="nofollow noopener noreferrer"&gt;GLM 4.5&lt;/a&gt;, &lt;a href="https://arxiv.org/abs/2505.09388" rel="nofollow noopener noreferrer"&gt;Qwen3-235B-A22B&lt;/a&gt;. Вдоль размерности D сжатия добиваются с использованием хранения латентных представлений KV-векторов значительно меньшей размерности — Multi-head Latent Attention (MLA): &lt;a href="https://arxiv.org/abs/2405.04434" rel="nofollow noopener noreferrer"&gt;DeepSeek V2&lt;/a&gt;. &lt;br&gt;&lt;br&gt;Текущая SOTA для сжатия вдоль размерности T — &lt;a href="https://arxiv.org/abs/2505.23416" rel="nofollow noopener noreferrer"&gt;KVzip&lt;/a&gt;, который: &lt;br&gt;&lt;br&gt;1. получает входной промпт пользователя; &lt;br&gt;2. просит модель его повторить, аугментируя промпт следующим образом: &lt;em&gt;«user:&lt;/em&gt; &amp;lt;input prompt&amp;gt;&lt;em&gt;. Repeat the previous context exactly. assistant: »&lt;/em&gt;;&lt;br&gt;3. для каждой KV-головы для каждого вектора k_i из input prompt запоминают наибольший по длине повторённого промпта вес аттеншна (а в случае GQA максимум берётся и по группе Q-голов);&lt;br&gt;4. фиксированный процент K_i и v_i, соответствующих наименьшим запомненным весам, удаляются;&lt;br&gt;5. сжатый промпт подаётся модели.&lt;br&gt; &lt;br&gt;Во-первых, такая схема скоринга очень дорога. Во-вторых, она применима только к стадии cache prefilling — стадия cache decoding сохраняется целиком. Последняя проблема особенно актуальна в контексте рассуждающих моделей, которые на стадии декодинга генерируют тысячи токенов. &lt;br&gt;&lt;br&gt;В работе предлагают дистиллировать слегка модифицированные скоры KVzip в легковесный MLP. Для каждого слоя трансформера и каждого входного скрытого состояния MLP предсказывает вектор скоров из H (число KV-голов) компонент, после чего откидываются KV-пары, скоры которых не превосходят некоторый порог. Таким образом, степень сжатия зависит от информативности промпта. Локальный контекст из ближайших 128 токенов, однако, сохраняется полностью. MLP обучается поверх обученной модели на специальном датасете, содержащем целевые скоры KV-пар. &lt;br&gt;&lt;br&gt;Поскольку MLP не добавляет значительной вычислительной сложности и применяется к входным токенам поточечно, KVzap можно использовать как во время prefilling’a, так и во время декодинга. Сжатие prefilling-стадии также становится дешевле. &lt;br&gt;&lt;br&gt;Эвалятся авторы на Qwen3-8B, Llama-3.1-8B-Instruct, и Qwen3-32B, KV-кэш удаётся сжать в 2–4 раза при незначительных потерях качества. &lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Сергей Макеев</description></item><item><title>Orthogonal Low Rank Embedding Stabilization</title><link>https://t.me/RecSysChannel/210</link><guid>https://t.me/RecSysChannel/210</guid><pubDate>Thu, 22 Jan 2026 08:04:13 +0000</pubDate><description>&lt;strong&gt;Orthogonal Low Rank Embedding Stabilization&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня разбираем &lt;a href="https://arxiv.org/abs/2508.07574v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; от авторов из Netflix о стабилизации обучаемых эмбедов пользователя/документа. В двухбашенной архитектуре с поздним связыванием классическая проблема при дообучении — «разворот» пространств эмбеддингов пользователя/документа при сохранении результирующего dot product. Это происходит из-за того, что отдельные координаты эмбедов (например 1-я или i-ная координата вектора документа) не имеют никакого специального смысла, важно лишь их суммарное взаимодействие с соответствующим вектором пользователя. &lt;br&gt;&lt;br&gt;Из-за нестабильности приходится пересчитывать эмбеддинги &lt;strong&gt;всех&lt;/strong&gt; айтемов после каждого этапа дообучения модели, что увеличивает затраты на вычисления. Также необходимо синхронизировать версии пользовательской и документной частей моделей, что зачастую невозможно.&lt;br&gt;&lt;br&gt;Авторы статьи предлагают элегантное решение проблемы, комбинируя две идеи: &lt;br&gt;- эффективное сингулярное разложение матрицы взаимодействий пользователя/документа;&lt;br&gt;- приведение к выбранному референсному пространству с помощью ортогональной задачи Прокруста.&lt;br&gt;&lt;br&gt;Обозначим таблицу эмбеддингов документов как T (размерностью n * e, где n — количество документов, а e — размерность эмбеддингов), а таблицу эмбеддингов пользователей — как W (размерностью m * e, где m — количество пользователей). Тогда их произведение будет иметь смысл матрицы взаимодействий (X=TWᵀ). Сами документные и пользовательские эмбеддинги могут быть нестабильны при обучении: даже небольшие пертурбации в начальных условиях приводят к существенно разным результатам. При этом сингулярное разложение матрицы взаимодействий остаётся единственным с точностью до знаков сингулярных векторов.&lt;br&gt;&lt;br&gt;Однако получить напрямую SVD-разложение матрицы X вычислительно сложно: O(mn²). В статье предлагают воспользоваться тем, что матрица X — это произведение двух низкоранговых матриц TWᵀ, и сделать QR-разложение каждой из них, что линейно по сложности относительно n и m. А затем сделать SVD-разложение уже низкоранговой (e * e) матрицы RₜRwᵀ, SVD(RₜRwᵀ)=UᵣSVᵣᵀ.&lt;br&gt;&lt;br&gt;Кроме самого сингулярного разложения X потребуются ещё и матрицы перехода в новое пространство для T и W (Mₜ и Mw соответственно), такие чтоб TMₜ = US¹ᐟ², а WMw = VS¹ᐟ², что сохранит матрицу взаимодействий X: TMₜ(WMw)ᵀ = USV = TWᵀ. Однако, имея сингулярное разложение RₜRwᵀ, их вычислить несложно: Mₜ = Rwᵀ Vᵣ S⁻¹ᐟ²; Mw = Rₜᵀ Uᵣ S⁻¹ᐟ².&lt;br&gt;&lt;br&gt;Второй шаг — перевести полученное стандартизированное представление эмбеддингов к некому референсному пространству. В качестве такого можно выбрать результат произвольной версии модели (например, первый) и зафиксировать его. &lt;br&gt;&lt;br&gt;Дальше задача сводится к поиску матрицы, отображающей получившееся на очередном шаге дообучения представление в референсное пространство. Хотя такое отображение можно искать среди произвольных матриц, удобно ограничить поиск только среди ортогональных. Формально, имея матрицы Tₖ (текущее пространство) и T₀ (референсное пространство) требуется найти такую ортогональную матрицу R, что RTₖ ~= T₀. Эта задача называется ортогональной задачей Прокруста. &lt;br&gt;&lt;br&gt;Финально, получив матрицы отображения на первом (Mₜ и Mw) и втором (R) шагах, мы имеем преобразование, которое стабилизует пространства эмбеддингов документов (MₜR) и пользователей (MwR). Так как преобразование ортогональное, то значения матрицы взаимодействий не меняются. При этом размерность матрицы — e * e, что делает её хранение и применение очень лёгкой операцией, которую можно добавить последним слоем нейросети.&lt;br&gt;&lt;br&gt;Предложенный в статье способ не зависит от выбранной модели и легко добавляется в любой пайплайн обучения или инференса, что позволяет стабилизировать эмбеды при дообучении. &lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Артём Ваншулин</description></item><item><title>Какие статьи 2025 года перечитывают эксперты Рекомендательной. Часть 2</title><link>https://t.me/RecSysChannel/209</link><guid>https://t.me/RecSysChannel/209</guid><pubDate>Wed, 14 Jan 2026 08:16:20 +0000</pubDate><description>&lt;strong&gt;Какие статьи 2025 года перечитывают эксперты Рекомендательной. Часть 2&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Вместе с авторами канала продолжаем вспоминать самые обсуждаемые статьи о рекомендательных системах за прошедший год.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2502.13581v1" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;ActionPiece: Contextually Tokenizing Action Sequences for Generative Recommendation&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Совместная работа DeepMind и авторов SasRec о токенизации в генеративном ретривале. Каждое взаимодействие пользователя представляется в виде множества контентных фичей айтема, которые потом токенизируются на основе частоты их совстречаемостей — подобно тому, как делается в BPE. Что интересно, мерджиться в один токен могут как фичи одного айтема, так и фичи смежных айтемов. Из приятного — есть открытый репозиторий с кодом.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2507.09331" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Correcting the LogQ Correction: Revisiting Sampled Softmax for Large-Scale Retrieval&lt;/strong&gt;&lt;br&gt;&lt;/a&gt;&lt;br&gt;Статья от исследователей из Яндекса о LogQ-коррекции отличается своей математичностью и обобщаемостью: её результат можно использовать в любой задаче с любой моделью, лишь бы она обучалась на softmax-лосс над большим каталогом. Предложенная корректировка точнее аппроксимирует знаменатель softmax, при этом получается заменой буквально пары строк относительно классической LogQ-коррекции. Рост метрик наблюдается как на закрытых данных, так и на публичных, в чём можно удостовериться, прогнав код из открытого репозитория.&lt;br&gt;&lt;br&gt;&lt;a href="https://www.arxiv.org/abs/2507.15994" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Scaling Recommender Transformers to One Billion Parameters&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Ещё одна статья от Яндекса с рецептом масштабирования рекомендательных трансформеров до 1 миллиарда параметров. Именно в ней представлен подход &lt;a href="https://t.me/RecSysChannel/133" rel="nofollow noopener noreferrer"&gt;ARGUS&lt;/a&gt;. Его внедрение в Яндекс Музыку привело к самому большому одномоментному улучшению платформы от нейросетевых подходов: +2,26% к суммарному времени прослушивания и +6,37% к вероятности лайка.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2507.12704v3" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;PinFM: Foundation Model for User Activity Sequences at a Billion-scale Visual Discovery Platform&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Foundational-модели в LLM — стандарт индустрии: обучать специфичные модели с нуля слишком дорого, поэтому обычно берут универсальную модель и дообучают под задачу. В рекомендациях модели меньше, но для каждой поверхности обучать новые модели с миллиардами эмбеддингов всё равно дорого. Поэтому в Pinterest предложили единую foundational-рекомендательную модель, которую дообучают под разные поверхности. &lt;br&gt;&lt;br&gt;В статье много практических трюков: комбинация InfoNCE-лоссов под близкие задачи, серьёзные инженерные оптимизации (cross-attention с дедупликацией, int4-квантизация эмбеддингов), добавление компактных контентных эмбеддингов на этапе файнтюна. Для cold start предлагают на файнтюне заменять часть айтемов в последовательности на рандомные, а для свежих айтемов использовать агрессивный дропаут. В продакшне это дало рост метрик: сохранения сниппетов +1,2% на главной и +0,72% на странице сниппета, а сохранения свежих айтемов на главной — +5,7%.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Статьи отобрали &lt;em&gt;❣&lt;/em&gt; Сергей Макеев, Руслан Кулиев, Артём Матвеев</description></item><item><title>Какие статьи 2025 года перечитывают эксперты Рекомендательной. Часть 1</title><link>https://t.me/RecSysChannel/208</link><guid>https://t.me/RecSysChannel/208</guid><pubDate>Mon, 12 Jan 2026 09:09:45 +0000</pubDate><description>&lt;strong&gt;Какие статьи 2025 года перечитывают эксперты Рекомендательной. Часть 1&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Прошедший год заметно изменил то, как мы представляли себе рекомендательные системы: границы между кандидатогенерацией, ранжированием и генеративностью начали стираться, а LLM всё чаще становятся частью рекомендательных алгоритмов. Мы собрали важные статьи, к которым эксперты Рекомендательной возвращаются снова и снова. Если вам есть что добавить или с чем поспорить — приходите обсуждать в комментарии!&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2506.13695" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;OneRec Technical Report&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt; и &lt;/strong&gt;&lt;a href="https://arxiv.org/abs/2508.20900" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;OneRec-V2 Technical Report&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Самая хайповая серия статей этого года. Авторы первыми в мире объединили все стадии рекомендательной системы в единую генеративную нейросеть. Адаптировали техники, которые давно и активно применяются в других областях: претрейне, GRPO RL. Модель выкатили на 25% трафика одной из самых больших рекомендательных систем в мире с 400 млн DAU. В OneRec-V2 авторы уже реализуют описанные в первой части идеи ухода от схемы encoder-decoder и улучшения RL-обучения.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2510.11639" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;OneRec-Think: In-Text Reasoning for Generative Recommendation&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Исследователи одними из первых объединяют генеративные рекомендательные технологии и LLM. В статье показаны не только новые способности модели (текстовый интерфейс рекомендаций, ризонинг), но и внедрение в продакшн. Аналогичная работа от Deepmind &lt;a href="https://arxiv.org/abs/2510.07784" rel="nofollow noopener noreferrer"&gt;вышла&lt;/a&gt; чуть раньше, но здесь авторы пошли дальше: добавили ризонинг и усложнили процедуру обучения.&lt;br&gt;&lt;br&gt;&lt;a href="https://www.arxiv.org/abs/2512.09200" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Meta Lattice: Model Space Redesign for Cost-Effective Industry-Scale Ads Recommendations&lt;/strong&gt;&lt;/a&gt; &lt;br&gt;&lt;br&gt;Авторы построили фундаментальную модель, сочетающую различные органические и рекламные поверхности Meta*. Она объединяет ручное признаковое пространство и обработку сырых историй пользователей. Архитектура состоит из последовательных блоков трансформерных и interaction-слоёв. В статье — очень подробное описание и впечатляющие результаты внедрения.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2512.14503" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;RecGPT Technical Report&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt; и &lt;/strong&gt;&lt;a href="https://arxiv.org/abs/2512.14503" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;RecGPT-V2 Technical Report&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;&lt;br&gt;В техрепорте от Taobao рассказывается о создании их рекомендательной системы — на базе множества LLM. RecGPT позволяет хорошо учитывать не только коллаборативный сигнал, но и намерения, которыми руководствуются пользователи при выборе товаров, а также объяснять свои рекомендации на основе контекста и пользовательской истории. Подход получил развитие в техрепорте RecGPT-V2. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2510.07784" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;PLUM: Adapting Pre-trained Language Models for Industrial-scale Generative Recommendations&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;В этой работе авторы из Youtube и Google DeepMind рассматривают возможность переиспользовать предобученные LLM для задачи генеративного ретривала. Предложили два ключевых улучшения: инициализацию трансформера предобученной текстовой моделью, а также продолженный претрейн с использованием доменных данных (метаданных видео и пользовательских историй просмотров). В результатах показывают, что оба изменения независимо улучшают модель по метрикам генерации кандидатов. Статья выделяется тем, что в ней соединяется много современных трендов: RecSys+LLM, SemanticID и генеративная постановка задачи рекомендаций.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;&lt;br&gt;Лучшие статьи отобрали &lt;em&gt;❣&lt;/em&gt; Николай Савушкин, Виктор Януш, Маргарита Мишустина&lt;br&gt;___&lt;br&gt;&lt;em&gt;Meta признана экстремистской организацией, а Facebook и Instagram запрещены на территории РФ&lt;/em&gt;</description></item><item><title>🎉Подводим итоги: лучшее за год в Рекомендательной</title><link>https://t.me/RecSysChannel/207</link><guid>https://t.me/RecSysChannel/207</guid><pubDate>Tue, 30 Dec 2025 08:16:32 +0000</pubDate><description>🎉&lt;strong&gt;Подводим итоги: лучшее за год в Рекомендательной&lt;br&gt;&lt;/strong&gt;&lt;br&gt;У нас в RecSys Channel есть традиция: каждый год мы вспоминаем популярные посты, которые пользователи читали и лайкали больше всего. Так что прямо сейчас предлагаем немного замедлиться и оглянуться назад. Будет интересно узнать, совпадает ли наш топ-5 с публикациями, которые запомнились вам.&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/RecSysChannel/66" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Какие рексис-тренды будут развивать в Яндексе в 2025 году&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;В начале года в рекомендательных системах было полно многообещающих направлений: от масштабирования и семантических айди до графовых нейросетей и использования диффузионок. О том, на какие из них делали ставки в Яндексе, нам рассказала группа исследования перспективных рекомендательных технологий. В новом году ждём новых трендов!&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/RecSysChannel/103" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Исследователи Яндекса выложили в опенсорс Yambda — датасет на 5 млрд событий&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Пост о Yambda — крупнейшем в мире датасете в области рекомендательных систем. Рассказали, зачем он нужен, какие у него ключевые особенности и какие методы оценки использовали наши исследователи. А ещё Александр Плошкин, один из авторов, &lt;a href="https://www.youtube.com/watch?v=hMYdT9fEZUY" rel="nofollow noopener noreferrer"&gt;представил&lt;/a&gt; работу на ACM RecSys ✨Такие моменты точно хочется вспомнить в завершение года.&lt;br&gt; &lt;br&gt;&lt;a href="https://t.me/RecSysChannel/122" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;TransAct V2: Lifelong User Action Sequence Modeling on Pinterest Recommendation&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Руслан Кулиев разобрал статью Pinterest о том, как использовать максимально длинную историю действий в рекомендациях — даже когда у тебя 500 миллионов пользователей, миллиарды пинов и строгие тайминги на инференс. Тут всё как в новогодней сказке: испытания непростые, ограничения жёсткие, но хэппи-энд неизбежен, как сельдь под шубой. &lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/RecSysChannel/193" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;PLUM: Adapting Pre-trained Language Models for Industrial-scale Generative Recommendations&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Одна из недавних публикаций Владимира Байкалова также вошла в число популярных. Это разбор совместной работы от Google DeepMind и YouTube, которая продолжает тему генеративных рекомендаций, начатую в предыдущей статье авторов — TIGER. На этот раз основная идея — использование предобученных больших языковых моделей в рекомендательных пайплайнах (в случае Google — это Gemini). За подробностями приглашаем в разбор.&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/RecSysChannel/133" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Scaling Recommender Transformers to One Billion Parameters&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;В завершение подборки — ещё одна важная для нас работа. Инженеры из группы исследования перспективных рекомендательных технологий выложили на arXiv статью о подходе ARGUS, а в дальнейшем представят работу на конференции KDD’26. В статье описан опыт масштабирования рекомендательных трансформеров, вдохновлённый нашумевшей работой Actions Speak Louder than Words.&lt;br&gt;&lt;br&gt;В новом году ждём развития старых и появления новых рекомендательных трендов. Спасибо, что вы с нами. С наступающим! А впереди у нас — подборки лучших статей от авторов канала.&lt;br&gt;&lt;br&gt;@RecSysChannel</description></item><item><title>GenSAR: Unified Generative Search and Recommendation</title><link>https://t.me/RecSysChannel/206</link><guid>https://t.me/RecSysChannel/206</guid><pubDate>Fri, 26 Dec 2025 13:43:47 +0000</pubDate><description>&lt;strong&gt;GenSAR: Unified Generative Search and Recommendation&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня разбираем &lt;a href="https://arxiv.org/pdf/2504.05730" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; от исследователей из Renmin University of China и Kuaishou Technology, представленную на RecSys&amp;#x27;25. Работа посвящена объединённому моделированию поиска и рекомендаций с использованием генеративного подхода на основе больших языковых моделей.&lt;br&gt;&lt;br&gt;Современные коммерческие платформы (e-commerce, видео, музыка) предлагают одновременно и поиск, и рекомендации. Совместное моделирование этих задач выглядит перспективно, однако авторы выявили ключевой trade-off: улучшение одной задачи часто приводит к деградации другой.&lt;br&gt;&lt;br&gt;Причина кроется в различных информационных требованиях:&lt;br&gt;&lt;br&gt;— &lt;strong&gt;Поиск&lt;/strong&gt; фокусируется на семантической релевантности между запросами и айтемами — традиционные варианты поиска часто основаны на предобученных языковых моделях (BGE, BERT);&lt;br&gt;— &lt;strong&gt;Рекомендации&lt;/strong&gt; сильно зависят от коллаборативных сигналов между пользователями и айтемами — ID-based-рекомендации дают отличные результаты.&lt;br&gt;&lt;br&gt;&lt;strong&gt;GenSAR&lt;/strong&gt; — унифицированный генеративный фреймворк для сбалансированного поиска и рекомендаций.&lt;br&gt;&lt;br&gt;Для каждого айтема берутся два эмбеддинга: семантический (из текста) и коллаборативный (из user-item-взаимодействий). Оба прогоняются через отдельные MLP-энкодеры и приводятся к одной размерности, затем конкатенируются в общий вектор.&lt;br&gt;&lt;br&gt;Объединённый вектор квантуется через общие кодбуки: на каждом уровне выбирается ближайший код, его индекс записывается в идентификатор, а сам код вычитается из текущего вектора. Накопленная последовательность — это shared prefix, содержащий общую информацию обоих эмбеддингов.&lt;br&gt;&lt;br&gt;Далее остаточный вектор делится пополам. Одна половина подаётся в &lt;strong&gt;семантические кодбуки&lt;/strong&gt;, другая — в &lt;strong&gt;коллаборативные&lt;/strong&gt;. В итоге:&lt;br&gt;&lt;br&gt;— &lt;strong&gt;Semantic ID (SID)&lt;/strong&gt; = shared codes + semantic-specific codes;&lt;br&gt;— &lt;strong&gt;Collaborative ID (CID)&lt;/strong&gt; = shared codes + collaborative-specific codes.&lt;br&gt;&lt;br&gt;Лосс состоит из суммы:&lt;br&gt;1) &lt;strong&gt;Reconstruction loss:&lt;/strong&gt; декодеры должны восстановить исходные эмбеддинги по кодам.&lt;br&gt;2) &lt;strong&gt;Loss for residual quantization&lt;/strong&gt;: считается для трёх наборов кодбуков (shared, semantic, collaborative) и включает codebook loss + commitment loss для каждого.&lt;br&gt;&lt;br&gt;Выход модели зависит от задачи:&lt;br&gt;- &lt;strong&gt;Рекомендации&lt;/strong&gt; → CID (коллаборативный сигнал важнее);&lt;br&gt;- &lt;strong&gt;Поиск&lt;/strong&gt; → SID (семантика важнее);&lt;br&gt;Модель различает задачи через task-specific-промпты. Обучение — joint training на смешанных батчах с балансировкой лоссов между задачами.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Оффлайн-эксперименты&lt;/strong&gt; проводились на публичном датасете Amazon и коммерческом датасете Kuaishou. Сравнение с бейзлайнами: SASRec, TIGER (рекомендации), DPR, DSI (поиск), JSR и UniSAR (совместные модели).&lt;br&gt;&lt;br&gt;На Amazon GenSAR показывает +12,9% по Recall@10 для рекомендаций и +12,8% для поиска относительно лучшего бейзлайна UniSAR. На коммерческом датасете Kuaishou прирост составляет +10,4% и +11,7% соответственно.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Ablation study&lt;/strong&gt; подтверждает важность обоих компонентов:&lt;br&gt;— Без CID качество рекомендаций падает на 8,9%;&lt;br&gt;— Без SID качество поиска падает на 14,7%;&lt;br&gt;— Dual-ID подход даёт +12,7% к рекомендациям по сравнению с single-ID.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовили &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; &lt;/em&gt; Михаил Сёмин и Никита Мирошниченко</description></item><item><title>LONGER: Scaling Up Long Sequence Modeling in Industrial Recommenders</title><link>https://t.me/RecSysChannel/205</link><guid>https://t.me/RecSysChannel/205</guid><pubDate>Thu, 18 Dec 2025 08:26:32 +0000</pubDate><description>&lt;strong&gt;LONGER: Scaling Up Long Sequence Modeling in Industrial Recommenders &lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня разбираем &lt;a href="https://arxiv.org/abs/2505.04421v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; от ByteDance, представленную на RecSys&amp;#x27;25. Работа посвящена эффективным end-to-end-рекомендациям на GPU с использованием длинных пользовательских последовательностей (до 10 тыс. событий). Авторы рассматривают кейсы Douyin (китайского TikTok) — как в рекламе, так и в e-commerce.&lt;br&gt;&lt;br&gt;Основная проблема длинных последовательностей — квадратичная сложность аттеншна по длине L. Авторы предлагают архитектуру LONGER, решающую эту задачу.&lt;br&gt;&lt;br&gt;&lt;strong&gt;1) Token Merging.&lt;/strong&gt; Рядом стоящие токены в истории группируются по K штук. Группировка выполняется либо простой конкатенацией, либо через лёгкий внутренний трансформер (InnerTrans). Это уменьшает эффективную длину последовательности с L до L/K. Для типичных настроек (L=2000, d=32) TokenMerge(K=4) снижает FLOPs аттеншна примерно на 40–50% при минимальной потере качества.&lt;br&gt;&lt;br&gt;Авторы аккуратно разбирают TokenMerge и InnerTrans в ablation study:&lt;br&gt;— без Merge (L=2000): FLOPs ≈ 3,73e9;&lt;br&gt;— c Merge (K=8, concat, L=250): FLOPs ≈ 3,03e9, ΔAUC +1,58%, ΔLogLoss −3,48%;&lt;br&gt;— добавление InnerTrans даёт ещё небольшой, но устойчивый буст.&lt;br&gt;&lt;br&gt;Таким образом, TokenMerge не только снижает вычислительные затраты, но и даёт буст по метрикам качества, в сравнении с ванильным вариантом.&lt;br&gt;&lt;br&gt;&lt;strong&gt;2) Global Tokens.&lt;/strong&gt; На вход подаётся конкатенация глобальных токенов и пользовательской истории. Глобальные токены играют роль «якорей» (User Profiles, Context &amp;amp; Cross Features).&lt;br&gt;&lt;br&gt;&lt;strong&gt;3) Тонкости обучения.&lt;/strong&gt; Dense- и sparse-параметры (огромные embedding-таблицы) находятся на GPU-кластере. Обучение в BF16/FP16, часть активаций не хранится, а пересчитывается на backward. На инференсе используется KV Cache Serving.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Эксперименты и результаты&lt;br&gt;&lt;/strong&gt;&lt;br&gt;В офлайне LONGER решает задачу предсказания conversion rate (CVR) на 5,2 млрд примеров (130 дней данных Douyin Ads) на кластере 48 × A100. По сравнению с базовым Transformer даёт +0,21% AUC и −0,39% LogLoss.&lt;br&gt;&lt;br&gt;Онлайн A/B-тесты в Douyin Ads:&lt;br&gt;— Live Streaming: ADSS +1,06%, ADVV +1,17%&lt;br&gt;— Short Video: ADSS +2,10%, ADVV +2,15%&lt;br&gt;— Mall: ADSS +1,82%, ADVV +1,41%&lt;br&gt;&lt;br&gt;Онлайн A/B-тесты в Douyin E-commerce:&lt;br&gt;— Live Streaming: Order/U +7,92%, GMV/U +6654%&lt;br&gt;— Short Video: Order/U +4,61%, GMV/U +5,28%&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Михаил Сёмин</description></item><item><title>MiniOneRec: An Open-Source Framework for Scaling Generative Recommendation [2/2]</title><link>https://t.me/RecSysChannel/204</link><guid>https://t.me/RecSysChannel/204</guid><pubDate>Fri, 12 Dec 2025 08:46:14 +0000</pubDate><description>&lt;strong&gt;MiniOneRec: An Open-Source Framework for Scaling Generative Recommendation [2/2]&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Завершаем разбор &lt;a href="https://arxiv.org/abs/2510.24431" rel="nofollow noopener noreferrer"&gt;статьи MiniOneRec&lt;/a&gt;. В &lt;a href="https://t.me/RecSysChannel/203" rel="nofollow noopener noreferrer"&gt;первой части&lt;/a&gt; обсуждали SFT и семантические ID, а теперь посмотрим, что происходит дальше: RL-дообучение, генерация траекторий и насколько авторы смогли воспроизвести индустриальные результаты на открытых данных.&lt;br&gt;&lt;br&gt;&lt;strong&gt;RL-дообучение: GRPO и генерация траекторий&lt;br&gt;&lt;/strong&gt;&lt;br&gt;После SFT и алайнмента применяется reinforcement learning по аналогии с OneRec — используется GRPO. Модель уже умеет генерировать последовательности семантических токенов, каждая из которых соответствует айтему. Генерируются несколько траекторий (beam search или dynamic sampling), затем по каждой считается награда. Награда включает два компонента: корректность следующего айтема и ранжирование согласно frozen collaborative модели (SASRec в реализации авторов).&lt;br&gt;&lt;br&gt;Чтобы модель генерировала только валидные токены, используется constrained beam search: логиты, не соответствующие существующим айтемам из кодбука, маскируются. То есть стратегия гарантирует, что каждая сгенерированная последовательность соответствует реальному айтему.&lt;br&gt;&lt;br&gt;GRPO здесь в «ванильной» версии: есть ограничение на отклонение от начальной политики, чтобы избежать reward hacking — классического случая, когда модель накручивает награду, но начинает генерировать бесполезные последовательности.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Результаты и масштабирование&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Авторы говорят о законе масштабирования: модели большего размера достигают лучшего качества (меньше лосс). Но есть важный момент: все модели обучаются одинаковое количество эпох на одном и том же датасете. Нет параметризации по количеству данных, а значит это не полноценный закон масштабирования, а скорее наблюдение: «большая модель лучше маленькой». С другой стороны, до этой работы таких результатов на открытых датасетах не было — и это важное подтверждение работоспособности индустриальных подходов вне Kuaishou.&lt;br&gt;&lt;br&gt;В целом, MiniOneRec повторяет ключевые идеи OneRec — но делает это на открытых данных, с полностью доступным кодом и понятными экспериментами. Авторы аккуратно воспроизводят семантическую токенизацию Tiger, SFT поверх LLM, алайнмент между NLP и рекомендациями и RL-дообучение через GRPO. Это первая попытка показать, что индустриальные результаты действительно можно повторить за пределами приватных данных.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Илья Мурзин</description></item><item><title>MiniOneRec: An Open-Source Framework for Scaling Generative Recommendation [1/2]</title><link>https://t.me/RecSysChannel/203</link><guid>https://t.me/RecSysChannel/203</guid><pubDate>Fri, 05 Dec 2025 07:34:01 +0000</pubDate><description>&lt;strong&gt;MiniOneRec: An Open-Source Framework for Scaling Generative Recommendation [1/2]&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня начинаем разбирать неожиданно вышедшую &lt;a href="https://arxiv.org/abs/2510.24431" rel="nofollow noopener noreferrer"&gt;статью MiniOneRec&lt;/a&gt;. В ней использованы подходы из нашумевшей серии техрепортов &lt;a href="https://arxiv.org/abs/2506.13695v1" rel="nofollow noopener noreferrer"&gt;OneRec&lt;/a&gt; от Kuaishou. Авторы MiniOneRec — исследователи из университетов Китая и Сингапура — фактически берут ключевые идеи OneRec, переносят их в минимально жизнеспособный фреймворк и подтверждают, что они действительно работают на открытых данных. Это выглядит как попытка «повторить OneRec», но в академии и без доступа к приватным датасетам. И действительно, LLM-подходы в NLP работают слишком хорошо, чтобы не пытаться перенести их в другие домены — в том числе в рекомендации.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Семантические ID и подготовка данных&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Первое препятствие, которое сразу появляется в рекомендациях, — огромный каталог документов. Нельзя просто взять LLM и обучить её поверх ID в десятки или сотни миллионов: embedding/de-embedding-слои и softmax станут непригодными. Поэтому MiniOneRec, как и OneRec, используют семантические ID из работы &lt;a href="https://arxiv.org/abs/2305.05065" rel="nofollow noopener noreferrer"&gt;TIGER&lt;/a&gt;.&lt;br&gt;&lt;br&gt;Суть простая: каждый документ кодируется короткой последовательностью токенов. Из исходного текста (название + описание) получают эмбеддинг: текст прогоняется через замороженную Qwen3-Embedding-4B, затем hidden states последнего слоя усредняются (mean pooling) в один вектор, который и подаётся в трёхуровневую RQ-VAE-кластеризацию. На каждом уровне отнимается ближайший из 256 центроид (получается semantic_id_0), формируется остаток, который проходит ту же процедуру кластеризации следующего уровня — в итоге документ получает трёхтокенную семантическую подпись. Это резко уменьшает словарь: вместо миллионов ID становится 3x256 дополнительных к словарю токенов. У Tiger и OneRec эта идея ключевая, и MiniOneRec полностью повторяет её.&lt;br&gt;&lt;br&gt;Авторы также отмечают проблему коллапса кластеров (слишком много документов в одном кластере), поэтому в коде используют не случайную инициализацию, а RQ k-means из оригинального OneRec. Это увеличивает энтропию кластеров и улучшает токенизацию.&lt;br&gt;&lt;br&gt;&lt;strong&gt;SFT и перенос NLP в рекомендации&lt;br&gt;&lt;/strong&gt;&lt;br&gt;После токенизации авторы делают SFT поверх предобученной LLM (берут Qwen). В случае с академией это более чем оправдано: экономятся ресурсы, не нужно тренировать архитектуру с нуля и сразу есть сильный старт. Истории пользователя подаются в виде последовательностей семантических токенов, а модель учится предсказывать следующий айтем.&lt;br&gt;&lt;br&gt;В этот процесс также привносят новизну вида алайнмента между NLP и рекомендациями. Авторы подмешивают в обучение разные форматы примеров, с тем чтобы перенести world knowledge модели на новые токены.&lt;br&gt;&lt;br&gt;Получается несколько типов задач:&lt;br&gt;&lt;br&gt;- история на естественном языке — нужно предсказать следующий айтем в виде семантических токенов;&lt;br&gt;&lt;br&gt;- история в виде семантических токенов — нужно предсказать текстовое описание следующего айтема;&lt;br&gt;&lt;br&gt;- просто перевод айтема между двумя представлениями — из текста в семантические токены и наоборот.&lt;br&gt;&lt;br&gt;Этот шаг даёт самый большой прирост качества. В аблейшенах видно, что это важнее, чем стартовать со случайных весов. Вместе с тем сама идея достаточно проста: смешивать рекомендации с задачами NLP, чтобы модель лучше экстраполировала знания. Это похоже на недавнюю работу от Google — PLUM, хотя авторы на неё не ссылаются (возможно результаты получены параллельно).&lt;br&gt;&lt;br&gt;В &lt;a href="https://t.me/RecSysChannel/204" rel="nofollow noopener noreferrer"&gt;следующей части&lt;/a&gt; обзора расскажем о RL-дообучении, масштабировании и результатах.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Илья Мурзин</description></item><item><title>OneTrans: Unified Feature Interaction and Sequence Modeling with One Transformer in Industrial Recommender</title><link>https://t.me/RecSysChannel/202</link><guid>https://t.me/RecSysChannel/202</guid><pubDate>Wed, 26 Nov 2025 09:12:01 +0000</pubDate><description>&lt;strong&gt;OneTrans: Unified Feature Interaction and Sequence Modeling with One Transformer in Industrial Recommender&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разберём &lt;a href="https://arxiv.org/abs/2510.26104" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; о OneTrans — нейросетевом ранкере от TikTok. Его можно было бы назвать аналогом &lt;a href="https://arxiv.org/abs/2402.17152" rel="nofollow noopener noreferrer"&gt;HSTU&lt;/a&gt; от Meta* или &lt;a href="https://arxiv.org/abs/2306.00248" rel="nofollow noopener noreferrer"&gt;TransAct&lt;/a&gt; от Pinterest, но ни на одну из этих работ авторы не ссылаются, упоминают только &lt;a href="https://t.me/RecSysChannel/80" rel="nofollow noopener noreferrer"&gt;Wukong&lt;/a&gt; и &lt;a href="https://arxiv.org/abs/2507.15551" rel="nofollow noopener noreferrer"&gt;RankMixer&lt;/a&gt;.&lt;br&gt;&lt;br&gt;Исследователи называют свою разработку единой ранжирующей моделью в рамках каскадного рекомендательного стека, которая заменяет финальный ранкер за счёт того, что совмещает sequence-моделирование и взаимодействие признаков (feature interaction).&lt;br&gt;&lt;br&gt;Классический подход к финальному ранжированию, ставший стандартом индустрии, обычно предполагает, что историю пользователя обрабатывают отдельно от обработки ручных счётчиков. Сначала входную последовательность событий пропускают через Sequence Modeling Block, где вытаскивают и сжимают информацию о пользователе, необходимую для построения рекомендаций. Потом сжатое представление попадает в Interaction-блок. Параллельно набор Non-Seq-фичей (например, ручные счëтчики) конкатенируют или каким-то другим способом подают в тот же Interaction-блок.&lt;br&gt;&lt;br&gt;OneTrans одновременно моделирует и последовательные, и Non-Seq-входы внутри единой модели OneTrans. Архитектура ранкера — на схеме: последовательности (голубые блоки S на схеме) и non-seq (NS, оранжевые) айтемы токенизируют по отдельности. Блоки поведения пользователей разделяют специальными блоками [SEP], после чего единую последовательность подают на вход OneTrans Pyramid Stack. Внутри этой пирамиды последовательность S итеративно сжимают до тех пор, пока её длина не совпадёт с NS.  &lt;br&gt;&lt;br&gt;OneTrans Block — казуальный трансформер с RMSNorm, Mixed Causal Attention и Mixed FFN. Под Mixed авторы понимают смешанную параметризацию: у S-токенов общие QKV/FFN-матрицы, а каждый NS получает свои токен-специфичные веса.&lt;br&gt;&lt;br&gt;По результатам экспериментов на индустриальных датасетах, OneTrans эффективно масштабируется с ростом параметров: систематиически обгоняет сильные бейзлайны и показывает рост на 5,68% per-user GMV в онлайн-A/B-тестах.&lt;br&gt;&lt;br&gt;&lt;em&gt;*Компания Meta, владеющая Instagram, признана экстремистской; её деятельность в России запрещена.&lt;/em&gt;&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Артём Матвеев</description></item><item><title>Balancing Fine-tuning and RAG: A Hybrid Strategy for Dynamic LLM Recommendation Updates</title><link>https://t.me/RecSysChannel/201</link><guid>https://t.me/RecSysChannel/201</guid><pubDate>Thu, 20 Nov 2025 08:23:01 +0000</pubDate><description>&lt;strong&gt;Balancing Fine-tuning and RAG: A Hybrid Strategy for Dynamic LLM Recommendation Updates&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разберём &lt;a href="https://arxiv.org/abs/2510.20260" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; от компании Google DeepMind, главный фокус которой в последнее время — LLM в рекомендациях. У рекомендательных моделей есть ряд преимуществ относительно более традиционных рексистем: богатое понимание мира, ризонинг, способность объяснять, почему был порекомендован тот или иной объект, и многое другое. Но это не отменяет слабые места, например, проблему динамики в интересах пользователей и корпусе айтемов. Именно этот аспект авторы разбирают в статье. &lt;br&gt;&lt;br&gt;Эксперименты проводятся в YouTube Shorts. Авторы выясняют: нужно ли вообще обновлять рекомендательную LLM в таком домене, или со своим знанием мира она и так справится. Отвечают интересным экспериментом: кластеризуют тематики шортсов и по логам пользователей собирают тройки (c1, c2, c_next) кластеров, с которыми кто-то последовательно провзаимодействовал. Делают так отдельно для нескольких месяцев, после чего для всех пар (c1, c2) собирают топ-5 переходов в c_next для каждого месяца i: {c_next_1, …, c_next_5}_i. Далее для пар (c1, c2) считают IoU множеств переходов за соседние месяцы (i vs. i+1) и получают низкое значение 0,17, что подчеркивает высокую изменчивость паттернов пользователей во времени. Отсюда возникает необходимость постоянного обновления рекомендательной LLM.&lt;br&gt;&lt;br&gt;В статье сравниваются два метода: fine-tuning и RAG. Первый обновляет веса модели через дообучение на новом трафике. Второй, грубо говоря, усиливает промпт недостающей информацией о пользователе и домене, при этом никак не влияет на саму модель. &lt;br&gt;&lt;br&gt;&lt;strong&gt;Fine-tuning.&lt;/strong&gt; Модель дообучается предсказывать следующий кластер, с которым провзаимодействовало большинство пользователей: (c_1, c_2, …, c_n) → c_{n+1}. Описания кластеров поступают в LLM в словесной форме. Из минусов метода — сложность, возможность переобучения и высокие вычислительные затраты. Из-за последнего дообучение происходит лишь ежемесячно. &lt;br&gt;&lt;br&gt;&lt;strong&gt;RAG. &lt;/strong&gt;Точно так же представляет историю в виде последних взаимодействий с кластерами (обновленные интересы пользователя), но ещё и добавляет в промпт наиболее популярное продолжение для этой последовательности взаимодействий (обновленные реалии домена). Поскольку множество всевозможных историй вида (c_1, c_2, …, c_k) невелико и конечно, инференс производится несколько раз в неделю, а предпосчитанные кандидаты для каждой истории достаются в реальном времени лукапом. &lt;br&gt;&lt;br&gt;В офлайн-эксперименте проверяют, нужен ли RAG и стоит ли пересчитывать кандидатов раз в несколько дней. Оказывается, что на оба вопроса ответ положительный. В A/B-тесте отчитываются о приростах Satisfied User Outcomes, Satisfaction Rate и об уменьшении Dissatisfaction Rate и Negative Interaction. &lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил ❣ Сергей Макеев</description></item><item><title>CIKM’25 в разгаре: интересные статьи с третьего дня конференции</title><link>https://t.me/RecSysChannel/198</link><guid>https://t.me/RecSysChannel/198</guid><pubDate>Thu, 13 Nov 2025 10:25:03 +0000</pubDate><description>&lt;strong&gt;CIKM’25 в разгаре: интересные статьи с третьего дня конференции&lt;/strong&gt;&lt;br&gt;&lt;br&gt;По наблюдению наших инженеров, в этом году хорошие доклады на CIKM распределены крайне неравномерно: в одни тайм-слоты интересного мало, зато в другие несколько любопытных работ представляют параллельно. О том, что запомнилось 12 ноября, рассказал разработчик службы рекомендательных технологий Яндекса Иван Артемьев.&lt;br&gt;&lt;br&gt;&lt;blockquote&gt;Первая половина дня была более спокойной, зато вторая — очень насыщенной, так что пришлось делиться на группы и бегать между комнатами.&lt;br&gt;&lt;br&gt;В первой половине была одна запоминающаяся статья — &lt;a href="https://arxiv.org/abs/2508.10584" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;DAS: Dual-Aligned Semantic IDs Empowered Industrial Recommender System&lt;/strong&gt;&lt;/a&gt;. Авторы прямо во время обучения семантических ID замешивают коллаборативный сигнал. В дополнении раскладывали на семантики не только айтемы, но и пользователей — и применяли пользовательские ID в рекомендательной системе.&lt;br&gt;&lt;br&gt;Во второй половине дня было три классных работы.&lt;br&gt;&lt;br&gt;⚫️&lt;a href="https://arxiv.org/abs/2508.20400v1" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;MPFormer: Adaptive Framework for Industrial Multi-Task Personalized Sequential Retriever&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;В статье учат кандидатогенератор, который умеет предсказывать кандидатов для разных таргетов (лайки, клики и прочее) и при этом персонализировано распределяет бюджет на них.&lt;br&gt;&lt;br&gt;⚫️&lt;a href="https://arxiv.org/abs/2508.11977" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;TBGRecall: A Generative Retrieval Model for E-commerce Recommendation Scenarios Taming Ultra-Long Behavior Sequence in Session-wise Generative Recommendation&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;⚫️&lt;a href="https://dl.acm.org/doi/10.1145/3746252.3761564" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Taming Ultra-Long Behavior Sequence in Session-wise Generative Recommendation&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;В этих двух работах обучают кандидатогенератор для задачи генерации сессий. При этом в последней — добавляют очень большую историю (до 100 000 айтемов) в сжатом виде, чтобы учитывать долгосрочные интересы пользователей. &lt;/blockquote&gt;&lt;br&gt;&lt;br&gt;@RecSysChannel</description></item><item><title>CIKM’25: начинаем репортаж с конференции в Сеуле</title><link>https://t.me/RecSysChannel/194</link><guid>https://t.me/RecSysChannel/194</guid><pubDate>Mon, 10 Nov 2025 13:30:39 +0000</pubDate><description>&lt;strong&gt;CIKM’25: начинаем репортаж с конференции в Сеуле&lt;br&gt;&lt;/strong&gt;&lt;br&gt;В эти дни в Южной Корее проходит международная конференция CIKM 2025, на которую отправилась часть команды рекомендательных технологий Яндекса.&lt;br&gt;&lt;br&gt;&lt;a href="https://cikm2025.org/" rel="nofollow noopener noreferrer"&gt;CIKM&lt;/a&gt; менее известна широкой аудитории, чем, например, RecSys, но тоже регулярно собирает интересные работы в области информационного поиска, анализа данных и рекомендательных систем.&lt;br&gt;&lt;br&gt;Так, в программе этого года заявлены доклады от Pinterest (&lt;a href="https://arxiv.org/abs/2506.02267" rel="nofollow noopener noreferrer"&gt;TransAct V2&lt;/a&gt;, &lt;a href="https://arxiv.org/html/2504.10507v1" rel="nofollow noopener noreferrer"&gt;PinRec&lt;/a&gt;), Kuaishou (&lt;a href="https://arxiv.org/abs/2411.11739" rel="nofollow noopener noreferrer"&gt;QARM&lt;/a&gt;, &lt;a href="https://arxiv.org/abs/2505.13894" rel="nofollow noopener noreferrer"&gt;Pantheon&lt;/a&gt;) и Meituan (&lt;a href="https://arxiv.org/abs/2505.19755" rel="nofollow noopener noreferrer"&gt;EGA-V1&lt;/a&gt;). С нетерпением ждём подробностей от наших инженеров.&lt;br&gt;&lt;br&gt;Кроме туториалов и воркшопов, будет AnalytiCup 2025 — конкурсный трек с задачами по анализу данных. В этом году его проводят Alibaba International и FinVolution.&lt;br&gt;&lt;br&gt;Впечатлениями от первого дня конференции поделился Николай Савушкин, руководитель службы рекомендательных технологий:&lt;br&gt;&lt;br&gt;&lt;blockquote&gt;Отличное начало — сильные доклады от Pinterest и живое общение с участниками. В конце дня были интересные выступления от eBay и Google. От eBay докладывала русскоязычная исследовательница, пообщались после её презентации о ресёрче в компании. Основная программа стартует завтра.&lt;/blockquote&gt;&lt;br&gt;&lt;br&gt;Продолжим держать вас в курсе! А пока несём немного атмосферных фото из Сеула.&lt;br&gt;&lt;br&gt;@RecSysChannel</description></item><item><title>PLUM: Adapting Pre-trained Language Models for Industrial-scale Generative Recommendations</title><link>https://t.me/RecSysChannel/193</link><guid>https://t.me/RecSysChannel/193</guid><pubDate>Fri, 07 Nov 2025 11:51:48 +0000</pubDate><description>&lt;strong&gt;PLUM: Adapting Pre-trained Language Models for Industrial-scale Generative Recommendations&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня разбираем совместную &lt;a href="https://arxiv.org/abs/2510.07784" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; Google DeepMind и YouTube. Об этой работе было известно заранее — на конференции RecSys авторы проекта, включая &lt;a href="https://scholar.google.com/citations?user=VuWl-KUAAAAJ&amp;amp;hl=en" rel="nofollow noopener noreferrer"&gt;Ed Chi&lt;/a&gt; и &lt;a href="https://scholar.google.com/citations?user=20Y73oIAAAAJ&amp;amp;hl=en" rel="nofollow noopener noreferrer"&gt;Lichan Hong&lt;/a&gt;, упоминали, что готовится статья о генеративных рекомендациях. Через пару недель после конференции она действительно вышла. &lt;br&gt;&lt;br&gt;Исследование продолжает трек генеративных рекомендаций, заданный предыдущей работой авторов &lt;a href="https://arxiv.org/pdf/2305.05065" rel="nofollow noopener noreferrer"&gt;TIGER&lt;/a&gt;. На этот раз основная идея — использование предобученных больших языковых моделей в рекомендательных пайплайнах (в случае Google — это Gemini). Простая LLM из коробки не подходит: модель не знает ни о корпусе айтемов, ни о пользовательских поведенческих сценариях, что приводит к плохим результатам. Чтобы исправить это, команда предлагает фреймворк PLUM, включающий три стадии: item tokenization, continued pre-training и task-specific fine-tuning. Кратко разберём каждую из них.&lt;br&gt;&lt;br&gt;&lt;strong&gt;1) Item tokenization.&lt;/strong&gt; За основу взята работа &lt;a href="https://arxiv.org/pdf/2305.05065" rel="nofollow noopener noreferrer"&gt;TIGER&lt;/a&gt;. В ней семантические идентификаторы (SIDs) формировались через RQ-VAE поверх текстового описания товара (эксперименты были на открытых датасетах Amazon). В PLUM к этому подходу добавляют коллаборативный сигнал и мультимодальные контентные представления. Используются уже готовые аудио-, видео- и текстовые эмбеддинги YouTube, которые конкатенируются и проходят через энкодер RQ-VAE.&lt;br&gt;&lt;br&gt;Новые предложенные компоненты:&lt;br&gt;&lt;br&gt;— &lt;strong&gt;Multi-Resolution Codebooks&lt;/strong&gt;: число идентификаторов в кодбуках уменьшается от слоя к слою, чтобы верхние уровни разделяли крупные семантические категории, а нижние — более гранулярные признаки.&lt;br&gt;— &lt;strong&gt;Progressive Masking:&lt;/strong&gt; модель обучается восстанавливать не полный набор SIDs, а его префикс.&lt;br&gt;&lt;br&gt;Ключевая вещь в архитектуре — дополнительный contrastive learning на RQ-VAE, который вводит коллаборативный сигнал прямо в процесс токенизации. Берутся пары айтемов, встречавшихся рядом в пользовательской истории как позитивные пары, обучается с помощью InfoNCE по батчу. Так коллаборативный сигнал тоже участвует в формировании кодбуков без отдельной стадии дообучения как, например, в OneRec. В итоге SIDs начинают отражать не только контентную информацию об айтемах, но и коллаборативные пользовательские связи между ними.&lt;br&gt;&lt;br&gt;&lt;strong&gt;2) Continued Pre-Training (CPT).&lt;/strong&gt; Здесь языковая модель дообучается с увеличенным словарём, в который, помимо изначальных токенов, встроены токены айтемов. Модель обучается на смешанной задаче (supervised + self-supervised). Цель этой стадии — заставить LLM встроить в общее семантическое пространство представления токенов и SIDs.&lt;br&gt;&lt;br&gt;&lt;strong&gt;3) Task-Specific Fine-Tuning.&lt;/strong&gt; Это полноценное обучение на задачу генеративного ретривала: модель предсказывает релевантные айтемы в пользовательских историях (обучение на next token prediction).&lt;br&gt;&lt;br&gt;В целом идея PLUM строится на прямой аналогии между словами в языковых моделях и айтемами в RecSys: если в NLP слова токенизируются для работы с огромным словарём, то в рекомендациях можно аналогично токенизировать айтемы.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Эксперименты и результаты&lt;/strong&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;Основная модель — Mixture-of-Experts с ~900 млн активных параметров (всего 4,2 млрд). &lt;br&gt;&lt;br&gt;В онлайн-A/B-тестах PLUM показывает рост ключевых метрик: CTR и вовлечённости пользователей, особенно в коротких видео (YouTube Shorts). Аблейшены подтверждают, что важны все предложенные компоненты.&lt;br&gt;&lt;br&gt;В работе показывают законы масштабирования для предложенного фреймворка: при увеличении размера моделей при разном фиксированном вычислительном бюджете ошибки на обучении и валидации снижаются, но самые большие модели (около 3 млрд активных параметров, 20 млрд всего) пока упираются в ограничения вычислительных ресурсов. Исследователям не хватило времени, данных и мощностей, чтобы хорошо обучить модели такого размера, однако инженеры считают, что при дальнейшем масштабировании качество может вырасти ещё больше.&lt;br&gt;&lt;br&gt;Финальная PLUM-модель дообучается ежедневно на ~0,25 млрд примеров, тогда как предыдущие LEM (Large Embedding Models) подходы требовали многомиллиардных датасетов.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Владимир Байкалов</description></item><item><title>TBGRecall: A Generative Retrieval Model for E-commerce Recommendation Scenarios</title><link>https://t.me/RecSysChannel/192</link><guid>https://t.me/RecSysChannel/192</guid><pubDate>Thu, 30 Oct 2025 09:17:01 +0000</pubDate><description>&lt;strong&gt;TBGRecall: A Generative Retrieval Model for E-commerce Recommendation Scenarios&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Разбираем &lt;a href="https://arxiv.org/pdf/2508.11977" rel="nofollow noopener noreferrer"&gt;работу&lt;/a&gt; Alibaba, архитектурно напоминающую &lt;a href="https://arxiv.org/pdf/2302.07589" rel="nofollow noopener noreferrer"&gt;ARGUS&lt;/a&gt;, используемый в Рекламе Яндекса. Модель TBG Recall, описанная в статье, генерирует кандидатов для главной страницы Taobao, крупнейшего e-commerce-сервиса компании.&lt;br&gt;&lt;br&gt;Во многих работах для рекомендаций применяются генеративные и последовательные модели, но они предполагают, что история пользователя — это строгая последовательность событий. В e-commerce всё иначе: пользователь делает запрос и получает «пачку» товаров, потом ещё одну — внутри таких пачек никакой упорядоченности нет, поэтому обычные sequence-based-подходы здесь работают не совсем корректно.&lt;br&gt;&lt;br&gt;В качестве решения авторы вводят предсказание следующей сессии, где сессия понимается как один запрос пользователя. Модель учится предсказывать, какие товары пользователь увидит в следующей выдаче.Также в работе используют incremental training, чтобы регулярно обновлять модель на свежих данных без перерасхода GPU.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Архитектура&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Как уже сказали, в основе TBGRecall — next session prediction: история пользователя кодируется в вектор и сравнивается с векторами кандидатов через ANN-индекс, как в классических двухбашенных моделях. Слово «генеративная» в названии относится не к инференсу, а к способу обучения — авторегрессионному.&lt;br&gt;&lt;br&gt;В начале каждой сессии стоит контекстный токен — обобщённое описание запроса. При инференсе он формируется из текущего контекста пользователя и напрямую влияет на итоговый вектор, с которым рекомендательная система делает запрос в индекс. По нашим наблюдениям, контекстные токены дают почти двукратный прирост качества — особенно в сервисах вроде Поиска и Рекламы, где контекст крайне важен.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Кодирование и обучение&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Каждое событие описывается набором признаков: Item ID, Action, SideInfo (ID продавца или категория), Context и Timestamp. Вход модели — сумма этих векторов. Сначала они проходят через tower-модули, а затем через HSTU-блоки. Для контекстных и айтемных токенов используются отдельные tower-модули — небольшие проекции, без которых качество падает (что совпадает с нашим опытом в ARGUS).&lt;br&gt;&lt;br&gt;Основная схема обучения — session-wise autoregressive approach с маской внимания, которая не позволяет айтемам внутри одной сессии «видеть» друг друга. Также применяется session-wise ROPE (sw-ROPE) — позиционные эмбеддинги, нумерующие сессии. Мы пока не видели стабильного выигрыша от подобных схем, но идея любопытная.&lt;br&gt;&lt;br&gt;Лосс состоит из трёх частей:&lt;br&gt;1. Lnce — воспроизводит логирующую политику, учит отличать реальные айтемы в сессии от случайных негативов.&lt;br&gt;2. Lclick — отличает кликнутые айтемы от показанных.&lt;br&gt;3. Lpay — отличает купленные от всех прочих.&lt;br&gt;&lt;br&gt;Все три компоненты считаются по разным продуктовым сценариям и взвешиваются по числу сессий в них. Отдельного претрейна или fine-tune-фазы, как в ARGUS, нет — всё обучение проходит за один этап.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Инференс и результаты&lt;br&gt;&lt;/strong&gt;&lt;br&gt;В проде модель работает не в реальном времени: кандидаты пересчитываются асинхронно и обновляются с небольшой задержкой. Авторы считают, что контекст пользователя меняется нечасто, поэтому такая схема не вредит качеству.&lt;br&gt;&lt;br&gt;На закрытом датасете (около 2 трлн записей) TBGRecall превзошёл собственный dual-tower baseline компании. В A/B-тестах модель показала +0,5% по числу транзакций и +2% по обороту. Новый кандидат-генератор теперь отвечает за 24% показов на поверхности Guess You Like — одной из ключевых страниц Taobao.&lt;br&gt;&lt;br&gt;В целом, TBGRecall — это шаг от классической двухбашенной архитектуры к генеративному обучению. Контекстные токены дают сильный прирост, MoE и SW-ROPE работают стабильно, а near-line-инференс показывает себя лучше, чем ожидалось.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Николай Савушкин</description></item><item><title>OnePiece: Bringing Context Engineering and Reasoning to Industrial Cascade Ranking System [2/2]</title><link>https://t.me/RecSysChannel/191</link><guid>https://t.me/RecSysChannel/191</guid><pubDate>Thu, 23 Oct 2025 08:05:54 +0000</pubDate><description>&lt;strong&gt;OnePiece: Bringing Context Engineering and Reasoning to Industrial Cascade Ranking System [2/2]&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Продолжаем разбор &lt;a href="https://arxiv.org/abs/2509.18091" rel="nofollow noopener noreferrer"&gt;техрепорта&lt;/a&gt; от Shopee. Так чем же интересен reasoning? &lt;br&gt;&lt;br&gt;Авторы берут hidden state из последнего блока backbone, подают на вход в декодер с блочно-каузальным attention. По словам авторов, блоки позволяют учитывать больше информации о каждом токене. &lt;br&gt;&lt;br&gt;Блоки в итоге учатся на разные таски: &lt;br&gt;— Retrieval: binary-cross-entropy loss (будет клик или не будет, добавят товар в корзину или нет, купят ли) и bidirectional contrastive learning (симметричный User to Item и Item to User).&lt;br&gt;— Ranking: вместо BCL используют set contrastive learning на успешных случаях, чтобы расширить границы положительных и отрицательных исходов. &lt;br&gt;&lt;br&gt;Для тренировки моделей авторы воспроизводят ежедневное онлайн-дообучение, которое ждёт систему в проде. Данные упорядочены между собой по дням, но внутри них семплы пошаффлены. Результат за каждый день сохраняется и оценивается по итогам следующего. Период данных для обучения — месяц.&lt;br&gt;&lt;br&gt;Сделав вход модели более информативным, а также добавив многошаговый reasoning, авторы улучшили результаты работы модели. Внедрение нового фреймворка в основной сценарий персонализированного поиска помогло добиться +2% GMV/UU и +2,90% дохода от рекламы.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Виктор Януш</description></item><item><title>OnePiece: Bringing Context Engineering and Reasoning to Industrial Cascade Ranking System [1/2]</title><link>https://t.me/RecSysChannel/190</link><guid>https://t.me/RecSysChannel/190</guid><pubDate>Tue, 21 Oct 2025 08:33:07 +0000</pubDate><description>&lt;strong&gt;OnePiece: Bringing Context Engineering and Reasoning to Industrial Cascade Ranking System [1/2]&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разберём очередной &lt;a href="https://arxiv.org/abs/2509.18091" rel="nofollow noopener noreferrer"&gt;техрепорт&lt;/a&gt; от Shopee — маркетплейса, популярного в Южной Америке и Азии. Авторы представляют новый фреймворк OnePiece, где адаптируют LLM и к retrieval, и к ранжированию. &lt;br&gt;&lt;br&gt;Идеи, на которых основан подход, простые, но интересные: &lt;br&gt;&lt;br&gt;— Structured context engineering: обогатить историю взаимодействия с пользователями.&lt;br&gt;— Block-wise latent reasoning. Авторы в некотором роде придумали, как прикрутить к рекомендательным системам reasoning от LLM.&lt;br&gt;— Progressive multi-task training: прогрессивно усложнять обучающие задачи для учёта фидбека.&lt;br&gt; &lt;br&gt;По названию материала можно было бы подумать, что речь пойдёт про одностадийную модель, но нет. Как заведено в современных рекомендательных системах, стадии две: retrieval и ranking. &lt;br&gt;&lt;br&gt;В основе модели — энкодер с трансформером. Размеры в статье не приводят, но по косвенным признакам, модель не очень большая. &lt;br&gt;&lt;br&gt;Подробности можно рассмотреть на схеме. Начнём с retrieval. Вход стандартный: история взаимодействий, описание контекста через пользовательские фичи. Из интересного — preference anchors, которые помогают собрать топы товаров по количеству покупок, добавлению в корзину или кликов. Можно сказать, что это аналог RAG (от LLM) для рекомендашек. &lt;br&gt;&lt;br&gt;Для стадии ранжирования — то же самое, плюс множество кандидатов, как в подходе с target-aware-трансформером.&lt;br&gt;&lt;br&gt;Представление входов довольно стандартное. Товары описываются набором ID: название, магазин, категория. Запросы представлены мешком слов. Токены получаются с помощью MLP над конкатенацией эмбеддингов. &lt;br&gt;&lt;br&gt;Если не использовать маскирование, получится полный attention между всеми кандидатами. Чтобы сэкономить compute и избежать артефактов в зависимостях, авторы выбрали промежуточный вариант: делят кандидатов на рандомные группы и подают на вход по одной.&lt;br&gt;&lt;br&gt;Backbone тоже стандартный и не стоит отдельного внимания. А вот reasoning интересный. Почему? Расскажем в следующем посте!&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Виктор Януш</description></item><item><title>Kuaishou: обзор ключевых статей и техрепортов</title><link>https://t.me/RecSysChannel/181</link><guid>https://t.me/RecSysChannel/181</guid><pubDate>Tue, 14 Oct 2025 09:31:56 +0000</pubDate><description>&lt;strong&gt;Kuaishou: обзор ключевых статей и техрепортов&lt;/strong&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;Собрали в карточках краткие описания семи больших работ Kuaishou, включая те, на основе которых вырос OneRec и его продолжения.&lt;br&gt;&lt;br&gt;Материал поможет быстро сложить в голове картину того, как компания шаг за шагом пришла к созданию первых генеративных рекомендательных систем в индустрии.&lt;br&gt;&lt;br&gt;Ссылки на работы, упомянутые в посте:&lt;br&gt;&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2502.18965?utm_source=chatgpt.com" rel="nofollow noopener noreferrer"&gt;OneRec: Unifying Retrieve and Rank with Generative Recommender and Iterative Preference Alignment&lt;/a&gt;&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2506.13695?utm_source=chatgpt.com" rel="nofollow noopener noreferrer"&gt;OneRec Technical Report&lt;/a&gt;&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2508.20900?utm_source=chatgpt.com" rel="nofollow noopener noreferrer"&gt;OneRec-V2 Technical Report&lt;/a&gt;&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2411.11739?utm_source=chatgpt.com" rel="nofollow noopener noreferrer"&gt;QARM: Quantitative Alignment Multi-Modal Recommendation at Kuaishou&lt;/a&gt;&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2407.16357?utm_source=chatgpt.com" rel="nofollow noopener noreferrer"&gt;TWIN V2: Scaling Ultra-Long User Behavior Sequence Modeling for Enhanced CTR Prediction at Kuaishou&lt;/a&gt;&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2505.13894?utm_source=chatgpt.com" rel="nofollow noopener noreferrer"&gt;Pantheon: Personalized Multi-objective Ensemble Sort via Iterative Pareto Policy Optimization&lt;/a&gt;&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2508.14646?utm_source=chatgpt.com" rel="nofollow noopener noreferrer"&gt;OneLoc: Geo-Aware Generative Recommender Systems for Local Life Service&lt;/a&gt;&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Обзор подготовил &lt;em&gt;❣&lt;/em&gt; Владимир Байкалов</description></item><item><title>PinRec: Outcome-Conditioned, Multi-Token Generative Retrieval for Industry-Scale Recommendation Systems</title><link>https://t.me/RecSysChannel/180</link><guid>https://t.me/RecSysChannel/180</guid><pubDate>Thu, 09 Oct 2025 08:33:00 +0000</pubDate><description>&lt;strong&gt;PinRec: Outcome-Conditioned, Multi-Token Generative Retrieval for Industry-Scale Recommendation Systems&lt;/strong&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;Сегодня разбираем &lt;a href="https://arxiv.org/abs/2504.10507v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; от Pinterest о модели PinRec. В индустрии существуют два основных подхода к transformer-based retrieval. Первый — классическая двухбашенная схема: трансформер анализирует пользовательскую историю и сжимает её в эмбеддинг, с которым затем обращаемся к HNSW-индексу, построенному на айтемных эмбеддингах. Второй подход — появившиеся относительно недавно генеративные модели, в которых трансформер порождает непосредственно список айтемов, релевантных для данного юзера, например генерируя их в виде последовательностей семантических айдишников. &lt;br&gt;&lt;br&gt;В модели PinRec авторы совмещают обе парадигмы и получают нечто среднее: с одной стороны, трансформер генерирует последовательность, однако это последовательность не айтемных идентификаторов, а сырых эмбеддингов, с каждым из которых затем ходим в HNSW-индекс для поиска ближайших айтемных эмбеддингов. &lt;br&gt;&lt;br&gt;В базовой версии модель представляет собой трансформер с каузальной маской, авторегрессивно предсказывающий каждый следующий айтем, с которым провзаимодействовал пользователь, при условии его предыдущей истории. Учится модель на sampled softmax loss с logQ-коррекцией и mixed-negative sampling (используются in-batch и random-негативы). На инференсе предсказываем по истории пользователя эмбеддинг следующего айтема, дописываем его в сыром виде в конец истории и повторяем такой процесс несколько раз — в результате генерируем последовательность эмбеддингов и от каждого из них набираем ближайшие айтемы в HNSW-индексе.&lt;br&gt;&lt;br&gt;Помимо указанного совмещения парадигм ключевые новшества статьи — это две идеи, навешиваемые поверх базовой версии модели.&lt;br&gt;&lt;br&gt;Во-первых, авторы предлагают способ, при помощи которого можно обуславливать генерацию на желаемые действия пользователя — не прибегая к SFT и RL. При предсказании следующего айтема будем давать модели информацию о действии, совершенном юзером с этим айтемом. А именно, будем конкатить выход из трансформера, сжимающий предыдущую историю, с эмбеддингом действия и уже из этого конката предсказывать следующий айтем. Такая схема позволяет на инференсе подставить эмбеддинг нужного нам действия и предсказать наиболее вероятные айтемы при условии этого действия.  &lt;br&gt;&lt;br&gt;Во-вторых, авторы замечают, что взаимодействия пользователя с айтемами в сервисе совершенно не обязательно имеют строго последовательную логику и жёсткую очередность. А задача next item prediction как раз предполагает, что для каждой предыстории есть ровно один верный предикт — тот айтем, с которым пользователь провзаимодействовал следующим.&lt;br&gt;&lt;br&gt;В статье предлагается изменить постановку задачи: важно угадать не в точности следующий айтем, а хотя бы один из будущих айтемов в некотором временном окне. Для этого вводится такая модификация лосса — обычный sampled softmax loss посчитаем по всем айтемам в этом окне и затем возьмём минимум из полученных значений. Тогда и на инференсе можно предсказывать не по одному эмбеддингу за раз, а сразу целыми окнами. В статье утверждается, что это повышает и качество, и разнообразие кандидатов, а за счёт генерации целыми окнами значительно ускоряет инференс.&lt;br&gt;&lt;br&gt;Авторы репортят, что описываемая ими модель внедрена как один из кандидатогенераторов в Pinterest на весь их внушительный industrial scale. При этом получены значимые приросты онлайн-метрик: на поверхности homefeed +0,28% fulfilled sessions, +0,55% timespent и +3,33% кликов.&lt;br&gt;&lt;br&gt;Помимо архитектурных идей статья содержит интересные детали сервинга модели в продакшене (используется Triton Inference Server с Python-бэкендом). Также авторы сравнивают в своём сетапе трансформер с архитектурой HSTU (не в пользу последней), проводят эксперименты со скейлингом трансформера вплоть до миллиарда параметров и репортят, что добавление в модель таблицы id-based-эмбеддингов с 10 миллиардами параметров докидывает +14% к recall@10 поверх только контентных эмбеддингов.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Сергей Лямаев</description></item><item><title>Подборка статей с RecSys 2025</title><link>https://t.me/RecSysChannel/175</link><guid>https://t.me/RecSysChannel/175</guid><pubDate>Thu, 02 Oct 2025 09:04:46 +0000</pubDate><description>&lt;strong&gt;Подборка статей с RecSys 2025&lt;/strong&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;Делимся ещё несколькими работами, которые показались любопытными инженерам Яндекса. В сегодняшней подборке: диффузионки, которые генерируют целые плейлисты, борьба с cold start, обучение семантических ID на все задачи сразу и презентация с иллюстрациями из мультика «Холодное сердце».&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/html/2408.06883v2" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Prompt-to-Slate: Diffusion Models for Prompt-Conditioned Slate Generation&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;Авторы представили DMSG — диффузионную модель для генерации целых наборов контента (плейлисты, корзины товаров) по текстовому запросу. Ключевая идея: вместо ранжирования отдельных элементов сеть учится порождать весь слейт целиком.&lt;br&gt;&lt;br&gt;Каждый объект каталога кодируется вектором-эмбеддингом. Слейт фиксированной длины представляют как конкатенацию этих векторов. Текстовый промпт кодируется трансформером и подаётся в Diffusion Transformer через cross-attention. Диффузионная часть пошагово «разшумляет» случайный вектор в латент слейта. Готовые латенты проецируются в ближайшие объекты каталога с фильтрацией дублей.&lt;br&gt;&lt;br&gt;Такой подход даёт согласованность набора, стохастичность и разнообразие (несколько валидных слейтов для одного промпта). В экспериментах на музыкальных плейлистах и e-commerce-бандлах модель показала до +17% по NDCG и +6,8% взаимодействий в онлайне.&lt;br&gt;&lt;br&gt;&lt;a href="https://dl.acm.org/doi/10.1145/3705328.3748122" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Not All Impressions Are Created Equal: Psychology-Informed Retention Optimization for Short-Form Video Recommendation&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Хорошая идея для рексистем с плотным пользовательским сигналом. В таргет ставится  ретеншн (вернётся ли пользователь в сервис завтра), а в текущей сессии выделяются пиковый и последний документы — психологически именно они запоминаются и влияют на решение вернуться. Для поиска пика используют как положительные, так и отрицательные взаимодействия в сессии. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2508.10478" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Semantic IDs for Joint Generative Search and Recommendation&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Довольно простая, но, скорее всего, рабочая мысль — учить семантические ID документов сразу на все задачи. По сути то же, что и обучение многоголовых сетей, только применительно не к эмбедам, а к семантической токенизации документов.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2507.19473" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Let it Go? Not Quite: Addressing Item Cold Start in Sequential Recommendations with Content-Based Initialization&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы сначала учат эмбеддинги документов только на контенте, а затем доучивают на ID, контролируя, чтобы норма изменения эмбеддинга оставалась малой. Говорят, это хорошо работает на «холодных» документах, и при этом на «горячих» качество почти не проседает. А ещё в презентации статьи были шикарные иллюстрации с героями из мультика «Холодное сердце». &lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Статьи выбрали &lt;em&gt;❣&lt;/em&gt; Александр Шуваев и Андрей Мищенко</description></item><item><title>Новые впечатления с RecSys 2025</title><link>https://t.me/RecSysChannel/171</link><guid>https://t.me/RecSysChannel/171</guid><pubDate>Fri, 26 Sep 2025 12:05:33 +0000</pubDate><description>&lt;strong&gt;Новые впечатления с RecSys 2025&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Продолжаем смотреть на конференцию RecSys глазами инженеров Яндекса. Сегодня подсветим три интересные работы и вдохновляющий keynote от Xavier Amatriain.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/html/2508.04711v1" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Scaling Generative Recommendations with Context Parallelism&lt;br&gt;on Hierarchical Sequential Transducers&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Авторы рассказали, как наращивают длину пользовательской истории при обучении HSTU-моделей. Оказалось, что использование истории длиной более 10 К событий всё ещё даёт прирост продуктовых метрик. Работа исключительно инженерная, но полезная для масштабирования используемых длин в истории.&lt;br&gt;&lt;br&gt;Исследователи используют подход context parallelism: шардинг q/k/v по длине последовательностей в батче на P частей. При вычислении аттеншна ключи и значения нужно агрегировать со всех частей. Вместо стандартной схемы all-gather предлагают использовать all-to-all, чтобы пересылать только нужные блоки. Как итог, память под активации и KV-кэш на каждом GPU снизилась в ~1/P, а поддерживаемая длина истории выросла с 3 K до 16 K токенов.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2509.02942" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;RankGraph: Unified Heterogeneous Graph Learning for&lt;br&gt;Cross-Domain Recommendation&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;На конференции прозвучало несколько докладов о графовых нейросетях (GNN), но особенно выделился этот. В онлайновых A/B-тестах решение показало рост продуктовых метрик: +0,92% к кликам и +2,82% к конверсиям.&lt;br&gt;&lt;br&gt;Для построения графа используются все доступные поверхности — лента, видео, рекламные объявления. Формируется единый гетерогенный граф, включающий пользователей и айтемы из разных доменов. Модель основана на RGCN (Relational Graph Convolutional Network) и обучается на contrastive-лоссы (triplet loss и InfoNCE). Для каждого отношения (типа ребра) агрегируются сообщения от соседей этого типа; затем результаты объединяются через «mixer» и обновляют представление узла.&lt;br&gt;&lt;br&gt;Ключевой момент — сохранение самопетель (self-loop), чтобы прежнее представление узла также учитывалось при обновлении. Модель используется как для кандидат-генерации (user-to-item и item-to-item), так и как источник эмбеддингов пользователей и объектов, которые затем передаются в другие доменные модели в качестве фичей.&lt;br&gt;&lt;br&gt;&lt;a href="https://dl.acm.org/doi/10.1145/3705328.3748116" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Scaling Retrieval for Web-Scale Recommenders: Lessons from Inverted Indexes to Embedding Search&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;LinkedIn поделились историей эволюции своей retrieval-системы. Начинали, как многие, с инвертированных индексов: решение быстрое и объяснимое, но требует ручного тюнинга (query expansion, переписывание запросов). Сверху добавили ML — learning to retrieve, графовые методы, атрибутные связи. Это помогало, но ограничения оставались: много ручной работы, оффлайн-билд индекса раз в неделю, больно интегрировать эмбеддинги.&lt;br&gt;&lt;br&gt;Следующий шаг — embedding-based retrieval на ANN внутри старой системы. Но с такой архитектурой тяжело экспериментировать: квантование портило качество, CPU не тянуло, итерации шли медленно.&lt;br&gt;&lt;br&gt;Решение — построить с нуля GPU retrieval-систему. Теперь это огромные sparse/dense матрицы в GPU-памяти без «костыльного» ANN. KNN считается честно и быстро, а терм-поиск и эмбеддинги можно гибко комбинировать. Внедрили множество оптимизаций: кастомные CUDA-кернелы, bfloat16, батчинг, шардирование по регионам.&lt;br&gt;&lt;br&gt;Результаты: –75% инфраструктурных затрат и +30% к скорости экспериментов. В продакшене на кейсе job-matching это дало +4,6% к числу поданных заявок и +5,8% к budget utilization в промовакансиях.&lt;br&gt;&lt;br&gt;Главный инсайт: inverted index хороши для классического поиска, но в современных ML-рексис они быстро достигают потолка. GPU-based EBR (Embedding-Based Retrieval) даёт гибкость и multi-objective-оптимизацию уже на этапе retrieval, а значит — приносит больше пользы для бизнеса.&lt;br&gt;&lt;br&gt;Напоследок — впечатление от &lt;a href="https://amatria.in/recsys25.html" rel="nofollow noopener noreferrer"&gt;выступления Xavier Amatriain&lt;/a&gt;, посвящённого комплексному подходу к развитию рекомендательных систем:&lt;br&gt;&lt;br&gt;&lt;em&gt;Главный тезис: нельзя сильно вырасти, если сосредотачиваться на улучшении одной метрики. Развитие должно охватывать сразу несколько уровней — пользовательский опыт, в том числе с применением генеративного AI, алгоритмический стек рекомендаций и сам продукт.&lt;/em&gt;&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Заметки собрали &lt;em&gt;❣&lt;/em&gt; Александр Шуваев, Влад Тыцкий, Артём Ваншулин</description></item><item><title>Продолжаем делиться работами с RecSys 2025</title><link>https://t.me/RecSysChannel/162</link><guid>https://t.me/RecSysChannel/162</guid><pubDate>Thu, 25 Sep 2025 16:47:57 +0000</pubDate><description>&lt;strong&gt;Продолжаем делиться работами с RecSys 2025&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Второй день конференции запомнился нам не только выступлением Александра Плошкина с oral&amp;#x27;ом о датасете &lt;a href="https://t.me/RecSysChannel/103" rel="nofollow noopener noreferrer"&gt;Yambda&lt;/a&gt;, но и интересными статьями. Некоторые из них собрали в этом посте.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2505.04421" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;LONGER: Scaling Up Long Sequence Modeling in Industrial Recommenders&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы из ByteDance обучают модель в неавторегрессивном режиме на 10 000 событий, используя 10 000 GPU. Поскольку исследователи не связаны авторегрессивной схемой обучения (HSTU, Argus), они используют глобальные токены с эмбеддингом пользователя, счётчиками и т. п. Также применяется target-aware-подход: эмбеддинг целевого товара подаётся как глобальный токен.&lt;br&gt;&lt;br&gt;В первом слое задействован cross-attention: в запросах (query) — глобальные токены и последние события, в ключах (key) — вся последовательность. Таким образом, последовательность сжимается до числа query-токенов на выходе слоя cross-attention. Далее идут стандартные слои self-attention с каузальной маской. Каузальная маска нужна, чтобы на инференсе переиспользовать KV-кэш.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2504.02137" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Enhancing Embedding Representation Stability in Recommendation Systems with Semantic ID&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Исследователи рассказали, как применяют семантический ID для повышения стабильности рекламных моделей. В рекламе крайне неравномерное распределение айтемов в датасете, к тому же они быстро меняются (примерно половина корпуса обновляется за шесть дней). Поэтому модели с обычными или случайными ID со временем деградируют.&lt;br&gt;&lt;br&gt;Как решение предложен семантический ID, который создаётся на основе контента объявления (текста и картинок). В продакшене он генерируется из шести уровней иерархии (codebooks), из которых составляется префикс разной длины. Это позволяет похожим по смыслу объявлениям «обмениваться знаниями» и улучшает офлайн-метрики для новых айтемов и для хвоста распределения. Наибольший выигрыш виден в моделях, анализирующих историю взаимодействий пользователя.&lt;br&gt;&lt;br&gt;Чтобы оценить влияние на стабильность, замеряют изменение скора модели при замене ID на его точную копию. В онлайне показано, что использование семантического ID снижает изменение скора на 43%. Итог: рост целевой метрики на 0,15%.&lt;br&gt;&lt;br&gt;&lt;a href="https://dl.acm.org/doi/10.1145/3705328.3748132" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Generalized User Representations for Large-Scale Recommendations and Downstream Tasks&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Интересный постер от Spotify. Авторы дообучают модели с дневным и даже более коротким интервалом. Для аудио и коллаборативных эмбеддингов используются одинаковые по размерности векторы — всего 80. При этом исследователи отмечают, что без стабилизации выходных эмбедов (как для аудио, так и для коллаборативных) система вообще не работала.&lt;br&gt;&lt;br&gt;Отдельно видно, что старых пользователей специально не обрабатывают: модель всё ещё пытается восстанавливать очень давний онбординг, хотя это иногда даёт негативный эффект. Вероятно, основной акцент сделан на работу с холодными пользователями.&lt;br&gt;&lt;br&gt;Любопытно, что для обучения используется автоэнкодер, причём его тренируют ежедневно всего на одном дне данных. Для аудиоэмбедов применяется трансформер-энкодер с выборкой из истории, чтобы оставить только наиболее релевантные треки.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Работами поделились &lt;em&gt;❣&lt;/em&gt; Александр Шуваев, Пётр Зайдель, Даниил Бурлаков</description></item><item><title>Что обсуждают на RecSys 2025</title><link>https://t.me/RecSysChannel/160</link><guid>https://t.me/RecSysChannel/160</guid><pubDate>Wed, 24 Sep 2025 15:15:01 +0000</pubDate><description>&lt;strong&gt;Что обсуждают на RecSys 2025&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Прямо сейчас в Праге проходит 19-я международная конференция о рекомендательных системах. По традиции, делимся с вами самым интересным. Вот как прошли воркшопы, на которых побывали наши коллеги.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Practical Bandits: An Industry Perspective&lt;/strong&gt;&lt;br&gt;&lt;em&gt;Этот доклад мы услышали на воркшопе CONSEQUENCES’25. Сначала спикеры разобрали различия между off-policy- и on-policy-стратегиями и подробно рассказали, что такое importance weighting, Inverse Propensity Scoring (IPS) и для чего они используются. А потом перешли к сбору данных:&lt;br&gt;&lt;br&gt;— Показали методы сбора: ε-greedy, softmax и гибридный подход. &lt;br&gt;— Ввели effective sample size — оценку того, сколько данных нужно собрать.&lt;br&gt;— Уточнили, какие данные необходимо логировать: контекст, все возможные и выбранные действия, награду и распределение вероятностей.&lt;br&gt;&lt;br&gt;После этого перешли к тому, что делать, если некоторые действия блокируются (например, из-за бизнес-логики) и как выявлять смещение с помощью control variates.&lt;br&gt;&lt;br&gt;Отдельно отметили проблему symbiosis bias — явление, когда разные политики начинают зависеть друг от друга из-за обучения на всех данных что есть. А завершили всё обсуждением большой кардинальности множества действий и решениям проблем, которые из-за этого возникают.&lt;br&gt;&lt;/em&gt;&lt;br&gt;&lt;strong&gt;Gen AI for E-commerce&lt;/strong&gt;&lt;br&gt;&lt;em&gt;Докладов было много. Несколько спикеров поделились опытом того, как используют LLM в E-com: генерируют фичи для классического ML, пишут заголовки для e-mail-рассылок, создают поисковые саджесты, размечают данные для active learning, собирают системы из нескольких агентов, чтобы генерировать тексты, привлекающие пользователей. &lt;br&gt;&lt;br&gt;Доклады интересные, где-то перекликаются с тем, что мы пробуем делать в Яндекс Go. Но ни в одном из выступлений не услышал, как применение LLM бустит метрики, связанные с деньгами — в лучшем случае менялись прокси-метрики. &lt;br&gt;&lt;br&gt;Как я понял (и уточнил на стендах), самое популярное решение — не хостить LLM самим, а ходить в API готовых ИИ и платить за токены. Было весело, когда у докладчика, который рассказывал про LLM для active learning, спросили, сколько они потратили на OpenAI API — в выступлении упоминалось 1+ млн запросов. &lt;br&gt;&lt;br&gt;Немного удивило, что существенная часть докладчиков не тестировала свои решения в A/B, только планирует сделать это в будущем.&lt;br&gt;&lt;/em&gt;&lt;br&gt;На конференции в этом году — не протолкнуться. Кому-то даже пришлось обедать на лестнице. Кто знает, может, именно эти воркшопы коллеги обсуждают за трапезой 👀&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Суммаризировали для вас воркшопы &lt;em&gt;❣&lt;/em&gt; Михаил Сёмин и Алексей Ельчанинов&lt;br&gt;Сгенерировал фото &lt;em&gt;❣&lt;/em&gt; Андрей Мищенко</description></item><item><title>RecSys 2025: интересные статьи первого дня</title><link>https://t.me/RecSysChannel/148</link><guid>https://t.me/RecSysChannel/148</guid><pubDate>Tue, 23 Sep 2025 09:01:01 +0000</pubDate><description>&lt;strong&gt;RecSys 2025: интересные статьи первого дня&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Вчера в Праге стартовала конференция RecSys 2025. Первый день был посвящён в основном воркшопам. В промежутках можно было посмотреть постеры и пообщаться с авторами. Именно этим занимались инженеры Яндекса, которые уже разобрали несколько интересных работ.&lt;br&gt;&lt;br&gt;&lt;a href="https://dl.acm.org/doi/10.1145/3705328.3748109" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;In-Context Learning for Addressing User Cold-Start in Sequential Movie Recommenders&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы из Amazon используют sequential models (модели, основанные на цепочке событий пользователя) для задачи рекомендации видео, так как такие модели дают лучшее качество. В своих подходах указывают Recformer, SASRec, GRU4Rec, Tiger, Liger. Однако подобные модели чувствительны к проблеме холодного старта. Когда у пользователя ещё нет никакой истории, что ему показать? По данным авторов, таких пользователей — большинство: 47%, а еще 46% — имеют длину истории до пяти событий.&lt;br&gt;&lt;br&gt;В качестве решения исследователи предлагают добавить к реальной истории пользователя выдуманную LLM (imaginary interactions). Её получают с помощью специально подготовленного промпта. Причём утверждают, что не так страшно, если модель сгаллюцинирует и вернёт несуществующие фильмы, так как это не финальная последовательность. Затем происходит объединение выдуманной истории с реальной. В работе используют два подхода:&lt;br&gt;&lt;br&gt;— early fusion — просто объединяют выдуманную историю с реальной (последняя — реальная), формируя одну длинную последовательность;&lt;br&gt;— late fusion — генерируют k последовательностей независимо, каждую продолжают реальной, а потом делают avg pooling над эмбедами.&lt;br&gt;&lt;br&gt;В экспериментах авторы репортят два датасета: публичный the MovieLens 1M и проприетарный the Amazon Proprietary. Early fusion лучше себя показал на публичном датасете, причём бустит он именно «холодных» пользователей, тогда как на более «горячих» его влияние пропадает. А вот на проприетарном датасете лучше сработала late fusion. Это объясняют тем, что подход добавляет разнообразия выдаче.&lt;br&gt;&lt;br&gt;Следующие шаги:&lt;br&gt;— из k произвольных фильмов заданного жанра предложить LLM выбрать подходящий;&lt;br&gt;— добавить RAG;&lt;br&gt;— собирать информацию для «холодных» пользователей путём опроса.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/html/2508.18442v1" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;DenseRec: Revisiting Dense Content Embeddings for Sequential Transformer-based Recommendation&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Основные идеи:&lt;br&gt;— SASRec хорошо работает, но плохо справляется с cold items. Надо поправить эту проблему (другие подходы, например, semantic IDs требуют сильного изменения всего пайплайна).&lt;br&gt;— Предлагается использовать контентные фичи. Но замена «в лоб» просаживает качество.&lt;br&gt;— Предлагается выучить модель, которая будет работать поверх всё той же embedding table по ID в части случаев, но также научиться переводить в это пространство контентные фичи.&lt;br&gt;— Формально при обучении подбрасывают монетку для каждой позиции в последовательности айтемов, с вероятностью p берут эмбед из таблицы эмбеддингов, с вероятностью (1-p) берут конктентные фичи и с помощью простой модели (в данном случае — линейной проекции) переводят контентные эмбеды в пространство обычных.&lt;br&gt;— При инференсе для знакомых ID всегда используют таблицу эмбедов, для новых — конкретные фичи и линейный слой проекции.&lt;br&gt;— В экспериментах на датасете Amazon авторы показывают значимое улучшение метрик, причём основной прирост — не на «холодных» документах. Авторы объясняют это тем, что подход обучения с использованием контентных фичей не только улучшает их представление (new items as target), но и улучшает качество самой последовательности (new items in the sequence).&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Статьи заметил &lt;em&gt;❣&lt;/em&gt; Артём Ваншулин</description></item><item><title>Large Foundation Model for Ads Recommendation</title><link>https://t.me/RecSysChannel/147</link><guid>https://t.me/RecSysChannel/147</guid><pubDate>Wed, 17 Sep 2025 12:12:20 +0000</pubDate><description>&lt;strong&gt;Large Foundation Model for Ads Recommendation&lt;/strong&gt;&lt;br&gt;&lt;strong&gt; &lt;br&gt;&lt;/strong&gt;Сегодня разбираем свежую &lt;a href="https://arxiv.org/html/2508.14948v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; Tencent с интригующим названием, содержащим слова large и foundation. Обращает на себя внимание и список авторов: он очень длинный, что обычно указывает на масштабный внутренний проект, важный для компании.&lt;br&gt;&lt;br&gt;В работе предлагают инкорпорировать большую вычислительно дорогую foundation-модель в более компактные CTR-модели ранжирования. Но авторов не устраивает простое подключение выходов в качестве эмбеддингов или скалярных признаков. Инженеры хотят использовать знания большой модели более умным способом, сохраняя эффективность в проде.&lt;br&gt;&lt;br&gt;Авторы пишут, что обычно большие foundation-модели используют только user-представления, игнорируя другие важные сигналы. Предлагается перенести в downstream-модель все три вида: user-, item- и user-item-представления.&lt;br&gt;&lt;br&gt;Напрямую работать с сырыми кросс-представлениями невозможно: они жёстко привязаны к конкретным парам user–item, и для каждой такой пары пришлось бы вычислять большую модель в онлайне. Именно этого авторы стараются избежать, предлагая обновлять и хранить агрегированные user- и item-векторы асинхронно.&lt;br&gt;&lt;br&gt;Интересная находка: лучшие результаты даёт не использование последнего слоя модели, а извлечение представлений из предпоследнего, хотя замеры противоречивые — на графиках виден шум.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Архитектура Triple Tower&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Для обучения используется так называемый triple tower design:&lt;br&gt;— user-башня,&lt;br&gt;— item-башня,&lt;br&gt;— mix-tower для их взаимодействия.&lt;br&gt;&lt;br&gt;При этом архитектура разделена на две ветви (dual-branch design): одна обучается на органическом контенте (просмотры, лайки, комментарии), другая — на рекламных сэмплах (клики, конверсии). User- и item-вектора остаются общими, а cross-вектор извлекается только из рекламной ветви, так как он ближе к целевым downstream-задачам.&lt;br&gt;&lt;br&gt;Авторы описывают три способа интеграции foundation-модели в downstream CTR-модель: добавление представлений в качестве новых фичей, подключение блока обработки внутри архитектуры, использование всей большой модели для генерации кандидатов.&lt;br&gt;&lt;br&gt;Простое добавление эмбеддингов в downstream-модель работает плохо: пробовали и линейные проекции, и alignment-лоссы, но улучшений не добились. Вместо этого применяют другой приём: каждую входную фичу комбинируют с представлением из foundation-модели с помощью покомпонентного умножения и нелинейности. Таким образом, user-item-вектор встраивается в модель уже на уровне входных признаков.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Эксперименты и результаты&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Валидацию делали только на внутренних данных Tencent: больших датасетах с рекламными и органическими действиями, онлайн-A/B-тестах. Авторы пишут что систему внедрили уже в десяти с лишним продуктах экосистемы и получили рост GMV на 2,45% по всей платформе.&lt;br&gt;&lt;br&gt;&lt;em&gt;Больше о внедрении фундаментальных моделей применительно к экосистеме Яндекса можно узнать в канале руководителя службы рекомендательных технологий Николая Савушкина — &lt;/em&gt;&lt;em&gt;@light_from_black_box&lt;/em&gt;&lt;em&gt;.&lt;/em&gt;&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Николай Савушкин</description></item><item><title>RecGPT Technical Report, 2/2</title><link>https://t.me/RecSysChannel/146</link><guid>https://t.me/RecSysChannel/146</guid><pubDate>Mon, 08 Sep 2025 09:01:49 +0000</pubDate><description>&lt;strong&gt;RecGPT Technical Report, 2/2 &lt;br&gt;&lt;/strong&gt;&lt;br&gt;В первой части разбора &lt;a href="https://t.me/RecSysChannel/145" rel="nofollow noopener noreferrer"&gt;рассказали&lt;/a&gt; об идее и результатах RecGPT. Теперь — детали реализации. Как мы уже упомянули, система состоит из четырёх ключевых компонентов.&lt;br&gt;&lt;br&gt;&lt;strong&gt;User Interest Mining&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Главная трудность оказалась в том, что у пользователей слишком длинные истории — в среднем больше 37 тысяч событий, что не помещается в контекст LLM. Авторы придумали механизм сжатия истории: они оставляют только самые информативные события — покупки, добавления в корзину, избранное, поисковые запросы, просмотр отзывов и подробных описаний. Все эти данные дополнительно агрегируются по времени: ближайшие дни учитываются подробно, а более старые периоды объединяются сначала в месяцы, а затем и в годы. Так история превращается в понятный текстовый нарратив, который можно подать на вход модели.&lt;br&gt;&lt;br&gt;Параллельно Alibaba разработали task alignment framework. Они сформулировали 16 задач — от простых (например, определить категорию товара по запросу) до более сложных (выделение ключевых характеристик, определение релевантности). LLM обучали постепенно, чтобы адаптировать её к специфике рекомендательного домена. &lt;br&gt;&lt;br&gt;Вдобавок сделали self-training evolution: модели генерировали гипотезы, которые затем фильтровали, чтобы убрать галлюцинации или слишком общие интересы, и использовали отобранное для дообучения. В итоге система научилась извлекать из истории осмысленные интересы, а 98% пользователей теперь помещаются в лимит контекста и на каждого удаётся предсказать в среднем 16 интересов.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Tag Prediction&lt;/strong&gt;&lt;br&gt;&lt;br&gt;На основе предсказанных интересов следующая модель формирует так называемые теги — текстовые описания того, что пользователь, возможно, захочет купить. Это не конкретные товары, а их обобщённые характеристики: например, «outdoor waterproof hiking boots». К тегам есть требования: они должны опираться на историю и интересы пользователя, быть конкретными, свежими и релевантными сезону. В среднем нужно получить не меньше пятидесяти тегов.&lt;br&gt;&lt;br&gt;Для обучения используют два шага. Сначала pre-alignment, когда из названий товаров в истории составляются кандидаты для тегов. Затем self-training: система дообучается на собственных же генерациях, но перед этим данные чистят и перебалансируюют. Это нужно, чтобы популярные категории не полностью доминировали и модель не теряла разнообразие. Такой подход оказался эффективным: вырос hit rate — совпадения между предсказанными тегами и реальными товарами, которые позже были куплены или просмотрены.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Item Retrieval&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Следующий этап — сопоставление тегов с конкретными товарами. Здесь Alibaba разработали архитектуру с тремя башнями: пользовательской, товарной и теговой. Она учитывает как семантическую близость, так и коллаборативные сигналы. Для обучения используют выборку с положительными и отрицательными примерами: система учится различать товары из нужной категории и из посторонних. На этапе инференса представления из разных башен объединяются, что позволяет более точно матчить интересы и товары.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Personalized Explanation&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Наконец, один из самых заметных элементов — генерация объяснений. Вместо того чтобы каждый раз формировать объяснение заново для пары «пользователь-товар», в Alibaba сделали ставку на связку «интерес-товар». Это экономит ресурсы и сохраняет персонализацию. Датасет для обучения объяснений собирали через другую LLM и фильтровали от галлюцинаций. Дополнительный self-training помог адаптировать модель к новым ситуациям. В итоге рекомендации сопровождаются короткими и понятными комментариями вроде «Мы показали вам этот товар, потому что вы недавно искали похожие вещи для путешествий».&lt;br&gt;&lt;br&gt;В итоге, RecGPT — это не просто «LLM в рексистеме», а целый пайплайн: от сжатия пользовательской истории и извлечения интересов до генерации тегов, матчинга и интерпретируемых объяснений.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Виктор Януш</description></item><item><title>RecGPT Technical Report, 1/2</title><link>https://t.me/RecSysChannel/145</link><guid>https://t.me/RecSysChannel/145</guid><pubDate>Fri, 05 Sep 2025 09:06:11 +0000</pubDate><description>&lt;strong&gt;RecGPT Technical Report, 1/2 &lt;/strong&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;Сегодня начинаем разбор недавнего &lt;a href="https://arxiv.org/pdf/2507.22879" rel="nofollow noopener noreferrer"&gt;техрепорта&lt;/a&gt; от Alibaba о новом подходе к рекомендациям RecGPT. В нём авторы предлагают по максимуму задействовать большие языковые модели.&lt;br&gt;&lt;br&gt;Классические рекомендательные системы учатся в основном на логах кликов. Такой подход приводит к ряду ограничений: формируются «пузыри», когда пользователю постоянно показывают одно и то же; сложно работать с длинным хвостом товаров; возникают разные bias&amp;#x27;ы (например, популярности). Но главное — при таком обучении теряется семантическая информация, а люди выбирают товары не только на основе кликов, а исходя из более сложных мотивов и контекстов.&lt;br&gt;&lt;br&gt;В качестве решения Alibaba предлагают использовать LLM с ризонингом, чтобы модель не просто фиксировала клики, а пыталась понять, почему пользователь может захотеть тот или иной товар. &lt;br&gt;&lt;br&gt;Но и тут свои сложности:&lt;br&gt;&lt;br&gt;— LLM нужно адаптировать к конкретному домену;&lt;br&gt;— важно укладываться в ограничения по времени отклика и вычислительным ресурсам;&lt;br&gt;— по-прежнему сложно интегрироваться в индустриальные системы.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Пайплайн RecGPT состоит из четырёх частей:&lt;/strong&gt;&lt;br&gt;&lt;br&gt;1. User Interest Mining — извлечение интересов пользователя из истории;&lt;br&gt;2. Tag Prediction — генерация тегов (описаний желаемых товаров);&lt;br&gt;3. Item Retrieval — сопоставление тегов с реальными товарами;&lt;br&gt;4. Personalized Explanation — генерация объяснений, почему система рекомендует этот товар.&lt;br&gt;&lt;br&gt;Каждый этап можно интерпретировать — это полезно и для пользователей (доверие к системе), и для разработчиков (удобнее отлаживать).&lt;br&gt;&lt;br&gt;RecGPT внедрили в сценарий Guess What You Like (беззапросные рекомендации на &lt;a rel="nofollow noopener noreferrer"&gt;taobao.com&lt;/a&gt;). В результате получили рост CTR, просмотров страниц и доли активных пользователей, а ещё увеличили разнообразие по категориям. Улучшения заметили и мерчанты: товары стали лучше доходить до целевой аудитории.&lt;br&gt;&lt;br&gt;Alibaba заявляют, что их решение — первый в мире успешный деплой reasoning-LLM в рекомендательную систему. &lt;br&gt;&lt;br&gt;В следующей части — подробнее об архитектуре рексистемы.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Виктор Януш</description></item><item><title>Training Compute-Optimal Large Language Models</title><link>https://t.me/RecSysChannel/144</link><guid>https://t.me/RecSysChannel/144</guid><pubDate>Thu, 28 Aug 2025 08:05:16 +0000</pubDate><description>&lt;strong&gt;Training Compute-Optimal Large Language Models&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня разберём &lt;a href="https://arxiv.org/abs/2203.15556" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; 2022 года от DeepMind, известную также по названию модели Chinchilla. Работа посвящена проблеме правильного распределения фиксированного компьюта между увеличением размера модели и числа токенов, на которых она учится, в домене языковых моделей. Для связи этих трёх величин существует аппроксимация C = 6ND, где C — компьют, N — число параметров, D — число токенов в датасете. Оптимальные N и D масштабируются как C^a и C^b соответственно, где a + b = 1. Задача — найти a и b.&lt;br&gt;&lt;br&gt;Работа мотивирована статьей 2020 года от OpenAI — &lt;a href="https://arxiv.org/abs/2001.08361" rel="nofollow noopener noreferrer"&gt;Scaling Laws for Neural Language Models&lt;/a&gt;, в которой авторы заключили, что большая часть компьюта должна быть аллоцирована под масштабирование самой модели (a &amp;gt; b). Исследователи из DeepMind приходят к другому выводу. Они выводят законы масштабирования тремя разными способами, и все три приводят к схожим результатам (a ≈ b ≈ 0,5).&lt;br&gt;&lt;br&gt;Подход первый: строят график в осях FLOPs — лосс для нескольких моделей с числом параметров от 75M до 10B. Каждому числу флопсов ставится в соответствие точка с минимальным лоссом, для которой известно, какому размеру модели и числу пройденных токенов она относится. Полученные точки переносят на графики в осях FLOPs — N и FLOPs — D, регрессируют их прямой (в прологарифмированных осях), угол наклона которой задаёт a и b. В итоге: a = b = 0,5.&lt;br&gt;&lt;br&gt;Подход второй: фиксируют компьют и варьируют число параметров, что автоматически задаёт число токенов для обучения. Для каждого фиксированного компьюта находят такую точку, для которой уменьшение или увеличение числа параметров приводит к ухудшению финального лосса. Снова регрессируют эти точки в осях FLOPs — N и FLOPs — D, получая a = 0,49 и b = 0,51.&lt;br&gt;&lt;br&gt;Подход тертий: здесь авторы моделируют зависимость L(N, D) финального лосса от размера модели и числа пройденных токенов, используя при этом все результаты (L_final, N, D) из первых двух подходов. Благодаря этому выражению, зная компьют, можно найти оптимальное число параметров, которое будет ординатой точки касания вертикальной прямой к линии уровня L(N, D) в осях FLOPs — N (левый график). a и b оказываются равными 0,46 и 0,54 соответственно.&lt;br&gt;&lt;br&gt;Главный вывод статьи, — число параметров в модели и число токенов в датасете должны масштабироваться равномерно (то есть как квадратный корень из компьюта). Например, при увеличении компьюта в четыре раза обе величины должны вырасти в два раза. &lt;br&gt;&lt;br&gt;Ещё один интересный вывод авторов — модель Gopher (280B) обучили на недостаточно большом датасете. В качестве доказательства обучают в четыре раза меньшую модель Chinchilla (70B) на в четыре раза большем числе токенов, и эта модель оказывается значительно лучше Gopher.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Сергей Макеев</description></item><item><title>PinFM: Foundation Model for User Activity Sequences at a Billion-scale Visual Discovery Platform [2/2]</title><link>https://t.me/RecSysChannel/143</link><guid>https://t.me/RecSysChannel/143</guid><pubDate>Mon, 25 Aug 2025 08:01:58 +0000</pubDate><description>&lt;strong&gt;PinFM: Foundation Model for User Activity Sequences at a Billion-scale Visual Discovery Platform [2/2]&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Продолжаем &lt;a href="https://t.me/RecSysChannel/142" rel="nofollow noopener noreferrer"&gt;разбирать статью&lt;/a&gt; от Pinterest. Авторы не делятся внутренними параметрами модели, не уточняют, какого размера декодер и как всё обучалось. Однако они приводят масштабы всей системы — 20 миллиардов параметров. Судя по всему, большая часть этих параметров — матрица эмбеддингов. То есть модель в итоге получилась небольшой.&lt;br&gt;&lt;br&gt;Отмечают, что в качестве энкодера выбрали архитектуру GPT2 и не увидели улучшений от применения HSTU-энкодера. Обучающую последовательность сформировали из 16 тысяч пользовательских взаимодействий, нарезав их на подпоследовательности длиной несколько сотен событий. Каждое событие кодируют обучаемыми эмбеддингами пина, поверхности и типа взаимодействия, итоговый токен события — сумма этих трёх эмбеддингов. Напоминает то, как формируются токены в &lt;a href="https://t.me/RecSysChannel/133" rel="nofollow noopener noreferrer"&gt;Argus&lt;/a&gt;: де-факто есть те же context, item и action, но в весьма ограниченном варианте.&lt;br&gt;&lt;br&gt;В остальном архитектура вышла стандартной. Но вот решаемую задачу авторы определяют весьма интересно. В качестве таргетов берут только позитивные события (при этом последовательность формируется с включением негативов), делают это с помощью Sampled Softmax (почему-то без &lt;a href="https://arxiv.org/abs/2507.09331" rel="nofollow noopener noreferrer"&gt;LogQ-коррекции&lt;/a&gt;). В этом сетапе на стадии претрейна предсказывают: &lt;br&gt;&lt;br&gt;– следующий позитивный токен;&lt;br&gt;– следующие позитивные токены в некотором временном окне;&lt;br&gt;– позитивные события, но во временном окне downstream-ранжирующей модели.&lt;br&gt;&lt;br&gt;Получившийся лосс суммируют.&lt;br&gt;&lt;br&gt;На файнтюне используют ещё несколько интересных трюков: выравнивают предсказания файнтюна и ранжирующей модели, добавляют дополнительный сигнал (контентно-коллаборативные графовые эмбеддинги) и обучаемые токены перед кандидатами, а также техники для решения проблемы холодного старта.&lt;br&gt;&lt;br&gt;Команда Pinterest в очередной раз демонстрирует крутые инфраструктурные решения для жизнеспособность всей системы. В частности, эффективная дедупликация последовательности увеличила на 600% пропускную способность модели по сравнению с FlashAttention-2. Для оптимизации гигантской таблицы эмбеддингов применили агрессивную int4-квантизацию практически без потери качества.&lt;br&gt;&lt;br&gt;В результате получилась сильная модель, хорошо агрегирующая знание о пользователях. Это отражается в результатах A/B-тестирования: на рекомендательной ленте на главной удалось добиться роста числа сохранений пинов на 2,6%, а для свежих пинов — на 5,7%.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Руслан Кулиев</description></item><item><title>PinFM: Foundation Model for User Activity Sequences at a Billion-scale Visual Discovery Platform [1/2]</title><link>https://t.me/RecSysChannel/142</link><guid>https://t.me/RecSysChannel/142</guid><pubDate>Fri, 22 Aug 2025 08:03:35 +0000</pubDate><description>&lt;strong&gt;PinFM: Foundation Model for User Activity Sequences at a Billion-scale Visual Discovery Platform [1/2]&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня разбираем свежую &lt;a href="https://arxiv.org/abs/2507.12704" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; от Pinterest, которую недавно приняли на RecSys 2025. &lt;br&gt;&lt;br&gt;Авторы делятся опытом построения foundation-модели. Вместо создания множества маленьких моделей, специализирующихся на отдельных задачах, они обучают одну большую: скармливают ей как можно больше данных о пользовательской активности, чтобы она начала выявлять закономерности в последовательностях. В контексте рекомендаций такими данными могут быть взаимодействия пользователей со всеми поверхностями приложения за длительный период времени.&lt;br&gt;&lt;br&gt;Foundation-модели и большие претрейны уже давно хорошо зарекомендовали себя и в NLP, и в CV. Если дообучить для своих задач готовую GPT-подобную модель, которая многое знает о мире, результат вас вряд ли разочарует. К тому же, дообучение сильно дешевле обучения с нуля и быстрее дистилляции.&lt;br&gt;&lt;br&gt;Однако в рекомендательных системах долгое время игнорировали этот подход. Исследователи из Pinterest утверждают, что они первые в индустрии, кто сделал полноценную foundation-модель. В качестве датасета для претрейна авторы собрали двухлетнюю историю взаимодействия пользователей с пинами на разных поверхностях, а во время файнтюна дообучили модель на специфическую поверхность.&lt;br&gt;&lt;br&gt;При этом в попытке обучить и внедрить такую крупную структуру неизменно возникают следующие проблемы:&lt;br&gt;&lt;br&gt;1. Косты. Большая модель не зря большая: инферить её дорого и долго.&lt;br&gt;&lt;br&gt;2. Оптимизация входной информации. Важно не перегружать модель и при этом сохранять приемлемые косты. Чтобы повысить качество ответов, недостаточно просто сообщить, что пользователь взаимодействовал с определённой последовательностью айтемов — нужно передавать и дополнительные знания, при этом оставаясь в рамках практических ограничений.&lt;br&gt;&lt;br&gt;3. Постоянное пополнение набора айтемов. Пользователи регулярно загружают в Pinterest новый контент: нужно научить модель адекватно оперировать незнакомыми, только что добавленными объектами. &lt;br&gt;&lt;br&gt;По каждой из этих проблем авторы добиваются удовлетворительного решения. Продолжим разбор во второй части.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Руслан Кулиев</description></item><item><title>Top-K Off-Policy Correction for a REINFORCE Recommender System</title><link>https://t.me/RecSysChannel/141</link><guid>https://t.me/RecSysChannel/141</guid><pubDate>Mon, 18 Aug 2025 07:02:44 +0000</pubDate><description>&lt;strong&gt;Top-K Off-Policy Correction for a REINFORCE Recommender System&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Reinforcement Learning — подход, который логично применять для рекомендаций. При этом работ об использовании RL-алгоритмов в этой области не так много. Сегодня разберём &lt;a href="https://arxiv.org/pdf/1812.02353" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; 2019 года с конференции WSDM’19, которая посвящена этой теме. В работе описано одно из первых успешных применений RL в рекомендательных системах, внедренное в YouTube на миллионы пользователей и многомиллионные каталоги видео.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Как RecSys сформулировать в терминах RL&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Взаимодействие пользователя можно смоделировать как марковский процесс принятия решений:&lt;br&gt;— состояние — контекст взаимодействия и история пользователя;&lt;br&gt;— действие — рекомендуемый кандидат (видео и т. п.);&lt;br&gt;— награда — полезность показа (клик, лайк, время просмотра).&lt;br&gt;Политика π(a|s) выбирает кандидатов так, чтобы максимизировать долгосрочную полезность.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Дизайн награды&lt;br&gt;&lt;/strong&gt;&lt;br&gt;В работе авторы рассматривают горизонт оптимизации внутри одной пользовательской сессии: цель — суммарная полезность за сессию, а не мгновенная. На практике удобно использовать гибридную награду (сочетание клика и времени просмотра), например:&lt;br&gt;&lt;br&gt;r = α·1_click + β·log(1 + watch_sec)&lt;br&gt;&lt;br&gt;&lt;strong&gt;REINFORCE&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Политику π(a|s) моделируют в виде параметрической функции от состояния (истории пользователя), которая выдаёт распределение на действиях. В качестве модели берут рекуррентную нейронную сеть. Политику обучают с помощью алгоритма REINFORCE. Это on-policy-алгоритм, поэтому обновление весов корректно только на данных, собранных текущей политикой. Поскольку это требует сложной инфраструктуры, обучение проводят на залогированных данных. &lt;br&gt;&lt;br&gt;&lt;strong&gt;Off-policy correction&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Залогированные данные получены от предыдущей версии рекомендательной системы β(a|s), которую авторы называют поведенческой политикой. Это приводит к смещению в оценке градиента. Чтобы компенсировать смещение, используют Importance Sampling. Для моделирования β(a|s) применяют ту же архитектуру, что и для π(a|s), но обучают только на логах и не пропускают градиенты этой «головы» в общий backbone модели. Для обеих политик при обучении используется &lt;a href="https://arxiv.org/abs/2507.09331" rel="nofollow noopener noreferrer"&gt;Sampled Softmax&lt;/a&gt;.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Top-K correction&lt;br&gt;&lt;/strong&gt;&lt;br&gt;На YouTube показывают сразу K элементов на одной странице, то есть политика подбирает не одного кандидата, а набор. Делается предположение, что каждый из K элементов сэмплируется независимо из π(a|s), поэтому от вероятности π(a|s) переходят к вероятности попадания на страницу:&lt;br&gt;&lt;br&gt;α(a|s) = 1 − (1 − π(a|s))^K&lt;br&gt;&lt;br&gt;&lt;strong&gt;Online A/B-тест&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Полученную политику π(a|s) использовали как один из кандидатогенераторов основного алгоритма рекомендаций YouTube. Применение off-policy correction увеличило число просмотренных видео примерно на +0,5%. Добавление Top-K correction увеличило общее время просмотра видео на +0,8–0,9%.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Артём Матвеев</description></item><item><title>Что интересного показали на конференции KDD 2025</title><link>https://t.me/RecSysChannel/138</link><guid>https://t.me/RecSysChannel/138</guid><pubDate>Thu, 14 Aug 2025 11:56:40 +0000</pubDate><description>&lt;strong&gt;Что интересного показали на конференции KDD 2025&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В Торонто прошла конференция KDD 2025, посвященная поиску знаний и анализу данных. На мероприятии, как водится, представили немало интересных публикаций. А мы, как водится, выбрали самые любопытные из них. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2507.10349" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt; TAT: Temporal-Aligned Transformer for Multi-Horizon Peak Demand Forecasting&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Статья Amazon о прогнозировании временных рядов (спроса). Авторы предлагают решение на основе трансформера, в котором используется, в том числе, информация о праздниках и днях со всплесками спроса. Сообщают о двузначных числах прироста точности в предсказании пиков.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2502.15990v1" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Automated Query-Product Relevance Labeling using Large Language Models for E-commerce Search&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Статья Walmart о том, как инженеры сделали фреймворк для авторазметки соответствия товара запросу. Утверждают, что работает лучше ручной разметки (асессорам пора искать работу).&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2506.00450" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;DV365: Extremely Long User History Modeling at Instagram&lt;/strong&gt;&lt;/a&gt;* &lt;br&gt;&lt;br&gt;Крутая статья Meta* — возможно, самая революционная в прикладном плане. Инженеры компании сделали офлайн-профиль пользователя размером в среднем 40к, так как масштабировать HSTU дальше сложно и дорого. Жертвуют свежестью данных и делают ставку на стабильные интересы пользователей. Получили +0,7% таймспента от внедрения эмбедда в использующих его моделях.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2506.11037" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Mini-Game Lifetime Value Prediction in WeChat&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Статья WeChat о предсказании LTV в играх. В основе graph representation learning, а также используют интересный подход к zero-inflated lognormal distribution modeling.&lt;br&gt;&lt;br&gt;&lt;em&gt;Компания Meta, владеющая Instagram, признана экстремистской; её деятельность в России запрещена. &lt;/em&gt;&lt;br&gt;&lt;br&gt;&lt;em&gt;Интересное увидел &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Сергей Мить&lt;/em&gt;&lt;br&gt;&lt;br&gt;@RecSysChannel</description></item><item><title>Blending Sequential Embeddings, Graphs, and Engineered Features: 4th Place Solution in RecSys Challenge 2025</title><link>https://t.me/RecSysChannel/137</link><guid>https://t.me/RecSysChannel/137</guid><pubDate>Tue, 12 Aug 2025 09:10:01 +0000</pubDate><description>&lt;strong&gt;Blending Sequential Embeddings, Graphs, and Engineered Features: 4th Place Solution in RecSys Challenge 2025&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня рассказываем &lt;a href="https://arxiv.org/abs/2508.06970" rel="nofollow noopener noreferrer"&gt;о статье&lt;/a&gt;, в которой описано решение от команды исследователей из Яндекса, получившее в этом году четвёртое место на конкурсе &lt;a href="https://recsys.acm.org/recsys25/challenge/" rel="nofollow noopener noreferrer"&gt;RecSys Challenge&lt;/a&gt;. Статью также приняли на конференцию &lt;a href="https://recsys.acm.org/recsys25/" rel="nofollow noopener noreferrer"&gt;RecSys 2025&lt;/a&gt;. &lt;br&gt;&lt;br&gt;Челлендж был посвящён области e-commerce. В этом направлении рекомендательные модели обучают предсказывать разные виды сигналов: конверсии, релевантные товары и их категории, сумму, которую потратит клиент, и многое другое. Целью челленджа было обучить эмбеддинг пользователя, который объединил бы разнородные сигналы. Затем организаторы использовали этот эмбеддинг, чтобы обучить независимые модели под шесть разных задач, вроде тех, что описаны выше. &lt;br&gt;&lt;br&gt;Как видно на картинке, для построения такого эмбеддинга предлагается сконкатенировать векторы от четырёх моделей: трансформера, выбор которого мотивирован подходом &lt;a href="https://t.me/RecSysChannel/133" rel="nofollow noopener noreferrer"&gt;ARGUS&lt;/a&gt;, графовой нейросети TwHIN, DCN-v2-эмбеддингов и стандартизованных счётчиков. &lt;br&gt;&lt;br&gt;Взаимодействия пользователей, предоставленные участникам, носят упорядоченный последовательный характер, поэтому важная часть решения — модель, кодирующая последовательности, — трансформер. В качестве истории пользователя брались все типы событий: добавления и удаления из корзины, покупки, посещённые страницы и запросы. &lt;br&gt;&lt;br&gt;Трансформер в генеративной постановке учился предсказывать тип следующего взаимодействия, время до него, следующую посещённую страницу, а также следующий товар. DCN-v2-модель училась поверх эмбеддинга из трансформера и множества счётчиков, прошедших через кусочно-линейное кодирование, предсказывать отток клиентов, а также актуальные товары и категории, с которыми провзаимодействует пользователь. Графовая модель TwHIN обучалась предсказывать связи (добавления в корзину и покупки) между пользователем и товаром. Счётчики считались по разным временным промежуткам, тематическим кластерам и ценовым сегментам, а для учёта временных зависимостей использовалось экспоненциальное взвешивание. Подробный разбор всех счётчиков доступен &lt;a href="https://arxiv.org/abs/2508.06970" rel="nofollow noopener noreferrer"&gt;в приложении к статье&lt;/a&gt;. &lt;br&gt;&lt;br&gt;Получившийся ансамбль показал качество, сопоставимое с более сложными решениями (из десятков моделей), и занял четвёртое место в финальном лидерборде. &lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; &lt;/em&gt;Сергей Макеев</description></item><item><title>Scaling Recommender Transformers to One Billion Parameters</title><link>https://t.me/RecSysChannel/133</link><guid>https://t.me/RecSysChannel/133</guid><pubDate>Fri, 25 Jul 2025 10:15:13 +0000</pubDate><description>&lt;strong&gt;Scaling Recommender Transformers to One Billion Parameters&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Инженеры из группы исследования перспективных рекомендательных технологий выложили на &lt;a href="https://www.arxiv.org/abs/2507.15994" rel="nofollow noopener noreferrer"&gt;arXiv&lt;/a&gt; статью о подходе ARGUS, которому ранее посвятили &lt;a href="https://youtu.be/i6pxQNjtjF4?si=vt_kDSC7jEAUGSz7" rel="nofollow noopener noreferrer"&gt;рассказ на Датафесте&lt;/a&gt; и &lt;a href="https://habr.com/ru/companies/yandex/articles/919058/" rel="nofollow noopener noreferrer"&gt;пост на Хабре&lt;/a&gt;. Сейчас статья находится на &lt;a href="https://t.me/inforetriever/239" rel="nofollow noopener noreferrer"&gt;ревью на KDD’26&lt;/a&gt;, но текст уже доступен для всех желающих.&lt;br&gt;&lt;br&gt;В статье команда авторов делится опытом по масштабированию рекомендательных трансформеров, вдохновлённым нашумевшей работой &lt;a href="https://t.me/RecSysChannel/48" rel="nofollow noopener noreferrer"&gt;Actions Speak Louder than Words&lt;/a&gt;.&lt;br&gt;&lt;br&gt;В моделях Sequential Recommendation можно выделить четыре оси масштабирования: число параметров в таблице эмбеддингов, длина истории пользователя, размер датасета и количество параметров в трансформере. В то время как матрицы эмбеддингов могут содержать миллиарды параметров, а датасеты достигать триллионов токенов, размеры индустриальных трансформеров всё ещё остаются чрезвычайно малы в сравнении с языковыми моделями — сотни миллионов параметров. Авторам удалось обучить трансформер с миллиардом параметров на датасете из Яндекс Музыки и добиться прироста метрик. &lt;br&gt;&lt;br&gt;Команда верит, что для успешного масштабирования рекомендательный трансформер должен предобучаться на фундаментальную задачу. Оказывается, Next Item Prediction может быть недостаточно — нужно уметь не только имитировать поведение предыдущей рекомендательной модели, породившей взаимодействия, но и корректировать её навыки. Другими словами, помимо предсказания следующего взаимодействия полезно научиться оценивать его. &lt;br&gt;&lt;br&gt;Естественный способ это сделать — представить историю в виде пар токенов (item, feedback), из айтема предсказывать фидбек, а из фидбека — следующий айтем. Поскольку каждое взаимодействие представляется парой токенов, длина истории вырастает в два раза, увеличивая вычислительные затраты. Поэтому на практике каждое взаимодействие представляли одним токеном, а предсказание фидбека обуславливали на следующий айтем. &lt;br&gt;&lt;br&gt;Поскольку модель предобучается не только на рекомендательном трафике, но и на органическом, да ещё и без задержки (которая появляется при offline-применении), возникает необходимость в дообучении под финальную задачу. Для этого авторы в том же авторегрессивном формате обучили модель на попарное ранжирование кандидатов с нужной задержкой. &lt;br&gt;&lt;br&gt;Офлайн-эксперименты провели для четырёх размеров трансформера, наращивая число параметров экспоненциально: стартуя с 3,2 млн и заканчивая 1,007 млрд. Оказалось, что полученные результаты согласуются с законом масштабирования. &lt;br&gt;&lt;br&gt;ARGUS уже внедрили в Яндекс Музыку, увеличив вероятность лайка на 6,37% и TLT на 2,26%. Внедрение оказалось самым успешным среди всех нейросетей в Музыке. А ещё ARGUS внедрили в Алису, Маркет, Лавку, и другие сервисы Яндекса.&lt;br&gt;&lt;br&gt;Подробнее о решении можно прочитать в &lt;a href="https://www.arxiv.org/abs/2507.15994" rel="nofollow noopener noreferrer"&gt;статье&lt;/a&gt;.&lt;br&gt;&lt;br&gt;Статью написали &lt;em&gt;❣&lt;/em&gt; Кирилл Хрыльченко, Артём Матвеев, Сергей Макеев, Владимир Байкалов&lt;br&gt;&lt;br&gt;@RecSysChannel</description></item><item><title>Как прошла ICLR 2025: впечатления инженеров Яндекса</title><link>https://t.me/RecSysChannel/123</link><guid>https://t.me/RecSysChannel/123</guid><pubDate>Tue, 15 Jul 2025 09:23:49 +0000</pubDate><description>&lt;strong&gt;Как прошла ICLR 2025: впечатления инженеров Яндекса&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Подводим итоги конференции — для этого собрали впечатления, тенденции и интересные статьи, отмеченные инженерами, посетившими её.&lt;br&gt;&lt;br&gt;Работы, упоминаемые в карточках:&lt;br&gt;&lt;br&gt;- &lt;a href="https://arxiv.org/abs/2407.05441" rel="nofollow noopener noreferrer"&gt;Language Representations Can be What Recommenders Need: Findings and Potentials&lt;/a&gt;&lt;br&gt;- &lt;a href="https://arxiv.org/abs/2406.19380" rel="nofollow noopener noreferrer"&gt;TabReD: Analyzing Pitfalls and Filling the Gaps in Tabular Deep Learning Benchmarks&lt;/a&gt;&lt;br&gt;- &lt;a href="https://arxiv.org/abs/2410.24210" rel="nofollow noopener noreferrer"&gt;TabM: Advancing Tabular Deep Learning with Parameter-Efficient Ensembling&lt;/a&gt;&lt;br&gt;- &lt;a href="https://arxiv.org/abs/2405.17890" rel="nofollow noopener noreferrer"&gt;SLMRec: Distilling Large Language Models into Small for Sequential Recommendation&lt;/a&gt;&lt;br&gt;- &lt;a href="https://arxiv.org/html/2405.01768v1" rel="nofollow noopener noreferrer"&gt;CoS: Enhancing Personalization and Mitigating Bias with Context Steering&lt;/a&gt;&lt;br&gt;- &lt;a href="https://arxiv.org/abs/2502.19148" rel="nofollow noopener noreferrer"&gt;Amulet: ReAlignment During Test Time for Personalized Preference Adaptation of LLMs&lt;/a&gt;&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;&lt;br&gt;#YaICLR</description></item><item><title>TransAct V2: Lifelong User Action Sequence Modeling on Pinterest Recommendation</title><link>https://t.me/RecSysChannel/122</link><guid>https://t.me/RecSysChannel/122</guid><pubDate>Fri, 11 Jul 2025 08:01:54 +0000</pubDate><description>&lt;strong&gt;TransAct V2: Lifelong User Action Sequence Modeling on Pinterest Recommendation&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Разбираем&lt;a href="https://arxiv.org/pdf/2506.02267" rel="nofollow noopener noreferrer"&gt; статью&lt;/a&gt; от Pinterest, в которой говорят об использовании максимально длинной истории действий для улучшения рекомендаций в ленте. Задача осложняется жёсткими инфраструктурными ограничениями: Pinterest обслуживает более 500 млн пользователей в месяц, а объём возможных кандидатов — миллиарды пинов. При этом инференс должен укладываться в строгие тайминги, несмотря на тысячи параллельных GPU-запросов.&lt;br&gt;&lt;br&gt;Pinterest остаётся верен классической трёхстадийной архитектуре: retrieval — scoring — blending. На первом этапе модель отбирает несколько тысяч кандидатов, которые затем проходят pointwise-ранжирование. Ранжирующая модель оптимизируется исключительно под фид. Особое внимание уделяется тому, как используется длинная история действий  — ключевое отличие от предыдущих решений.&lt;br&gt;&lt;br&gt;Несмотря на эффектный посыл про «десятки тысяч событий в истории», фактически модель работает не с «сырой» историей, а с её сжатием. История формируется из трёх источников: полной пользовательской активности, событий в рантайме и импрессий. Для каждого кандидата модель отбирает ближайшие по контенту события из этих источников (а также несколько последних взаимодействий независимо от контента), формируя итоговую последовательность фиксированной длины — порядка сотен событий. Эта сжатая история и обрабатывается в трансформере.&lt;br&gt;&lt;br&gt;Модель представляет собой multitask-архитектуру в pointwise-постановке. На вход она получает эмбеддинги, включающие обучаемые параметры, категорию взаимодействия, позиционный эмбеддинг и эмбеддинг пина. Последний строится как объединение эмбеддинга кандидата и карточек из истории, к которым кандидат наиболее близок по контенту. Трансформер с минимальным числом параметров (два слоя, одна attention-глава, скрытое представление размерности 64) пропускает эту последовательность и генерирует выходные векторы, которые подаются в линейный слой для генерации прогнозов.&lt;br&gt;&lt;br&gt;Loss-модель использует два компонента: взвешенную кросс-энтропию по каждому действию (лайк, добавление в избранное и прочее) и sampled softmax loss на задачу next action prediction. В качестве позитивов используются все позитивные взаимодействия в последовательности, а в качестве негативов — показы. Авторы отмечают, что подход показывает себя лучше, чем batch sampling. Среди архитектурных решений также интересно, что один и тот же пин, встретившийся с разными действиями, кодируется как multi-hot-вектор, а эмбеддинги пинов хранятся в квантизованном виде (int8) и деквантизируются в float16 перед подачей в трансформер.&lt;br&gt;&lt;br&gt;Ключевые нововведения — в инфраструктуре. Стандартные решения на PyTorch оказались неприменимы из-за избыточной материализации данных. Разработчики переписали инференс на собственный сервер с кастомными трансформерными ядрами в Triton (речь не о сервере NVIDIA, а о языке для компиляции под GPU). Такой подход позволил избежать дополнительных обращений к памяти: квантизованные векторы декодируются, нормализуются и сразу же используются для поиска ближайших соседей.&lt;br&gt;&lt;br&gt;Ещё в работе реализовали оптимизации вроде кэширования длинных пользовательских историй в сессии (чтобы избежать их загрузки при каждом реквесте), дедупликации запросов и эффективного распределения памяти между CPU и GPU. Всё вместе это дало серьезный прирост производительности: latency снизился в 2–3 раза по сравнению с PyTorch, использование памяти тоже оказалось эффективным. Переход на собственные ядра позволил сократить время инференса на 85% и расход памяти на 13% при длине последовательности 192. Решение выигрывает и у FlashAttention 2: ядра оказались на 66% быстрее и потребляли на 5% меньше памяти, при этом FlashAttention 2 не поддерживает пользовательское маскирование токенов.&lt;br&gt;&lt;br&gt;Авторы сравнивают эффективность TransAct V2 с другими моделями, в том числе с первым TransAct. Основной вывод: использование гораздо более длинной пользовательской истории и набор инженерных решений дают заметный прирост качества рекомендаций без потерь в скорости и стабильности.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Руслан Кулиев</description></item><item><title>Post #120</title><link>https://t.me/RecSysChannel/120</link><guid>https://t.me/RecSysChannel/120</guid><pubDate>Fri, 04 Jul 2025 16:45:06 +0000</pubDate><description /></item><item><title>Мы с отличными новостями! Статью о датасете Yambda приняли на Oral конференции RecSys 2025. Поздравляем команду рекоменд</title><link>https://t.me/RecSysChannel/121</link><guid>https://t.me/RecSysChannel/121</guid><pubDate>Fri, 04 Jul 2025 16:45:06 +0000</pubDate><description>Мы с отличными новостями! &lt;a href="http://arxiv.org/abs/2505.22238" rel="nofollow noopener noreferrer"&gt;Статью о датасете Yambda&lt;/a&gt; приняли на Oral конференции RecSys 2025. Поздравляем команду рекомендательных технологий Яндекса!</description></item><item><title>Scaling Transformers for Discriminative Recommendation via Generative Pretraining</title><link>https://t.me/RecSysChannel/119</link><guid>https://t.me/RecSysChannel/119</guid><pubDate>Thu, 03 Jul 2025 08:04:03 +0000</pubDate><description>&lt;strong&gt;Scaling Transformers for Discriminative Recommendation via Generative Pretraining&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Тема масштабирования моделей в рекомендательных системах продолжает набирать популярность. Недавно Alibaba представила &lt;a href="https://arxiv.org/pdf/2506.03699" rel="nofollow noopener noreferrer"&gt;работу&lt;/a&gt; о масштабировании ранжирующих моделей для персональных рекомендаций товаров на AliExpress. О ней и поговорим.&lt;br&gt;&lt;br&gt;В ML выделяют два класса вероятностных моделей:&lt;br&gt;&lt;br&gt;— Дискриминативные — моделируют условное распределение p(y|x) (предсказывают метку y по данным x). Примеры: логистическая регрессия, большинство моделей для ранжирования.&lt;br&gt;— Генеративные — моделируют совместное распределение p(x, y), что позволяет генерировать данные. Примеры: GPT, диффузионные модели.&lt;br&gt;&lt;br&gt;Авторы фокусируются на дискриминативных ранжирующих моделях, предсказывающих CTR и CVR. Однако при попытке масштабировать трансформер, обучаемый только на дискриминативную задачу, наблюдается переобучение. Это связано с сильной разреженностью позитивного таргета для ранжирования: увеличение модели ведёт к деградации качества.&lt;br&gt;&lt;br&gt;Решение — добавить генеративное предобучание (метод назван GPSD — Generative Pretraining for Scalable Discriminative Recommendation), а затем — дискриминативное дообучение. Ключевое преимущество заключается в том, что генеративное предобучание не страдает от сильного разрыва в обобщающей способности между обучением и валидацией, что и открывает путь к масштабированию.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Технические детали&lt;/strong&gt;&lt;br&gt;&lt;br&gt;1.  Генеративное предобучение&lt;br&gt;&lt;br&gt;— Используется архитектура трансформера с каузальной маской над историей взаимодействий.&lt;br&gt;— Модель решает две задачи: предсказание следующего товара (Sampled Softmax Loss с равномерно семплированными негативами из каталога) и предсказание его категории.&lt;br&gt;— При кодировании товаров применяются обучаемые эмбеддинги для каждого айтема, а также дополнительные фичи, такие как категория.&lt;br&gt;— Агрегация делается путём суммирования.&lt;br&gt;&lt;br&gt;2.  Дискриминативное дообучение&lt;br&gt;&lt;br&gt;— Добавляется CLS-токен в историю. Его выходной вектор используется как представление пользователя.&lt;br&gt;— Это представление конкатенируется с фичами кандидата (товара, для которого предсказывается CTR) и подается на вход MLP.&lt;br&gt;&lt;br&gt;3.  Стратегия переноса весов&lt;br&gt;&lt;br&gt;— Наилучшие результаты даёт инициализация и заморозка матриц эмбеддингов (item embeddings) с этапа генеративного предобучения.&lt;br&gt;— Веса самого трансформера можно инициализировать как предобученными, так и случайными значениями — результат сопоставим.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Ключевые результаты&lt;br&gt;&lt;/strong&gt;&lt;br&gt;— Без генеративного предобучения: увеличение модели не даёт прироста качества (AUC) из-за переобучения, наблюдается даже деградация.&lt;br&gt;— С GPSD: устойчивое масштабирование — рост AUC при увеличении размера модели от 13 тысяч до 300 млн параметров. Выведен степенной закон зависимости AUC от числа параметров.&lt;br&gt;— A/B-тест на рекомендательной платформе AliExpress: в продакшен выведена модель с тремя слоями трансформера и скрытой размерностью 160 (очень компактная). &lt;br&gt;Результат: +7,97% GMV, +1,79% покупок.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Замечания&lt;/strong&gt;&lt;br&gt;&lt;br&gt;1.  Использованные модели и датасеты — небольшие, что немного подрывает веру в результаты.&lt;br&gt;&lt;br&gt;2.  При масштабировании одновременно с dense-частью (трансформер) увеличивались и sparse-часть (матрицы эмбеддингов), что также могло быть фактором роста качества. Для более честного замера её размер нужно было зафиксировать.&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Разбор подготовил &lt;em&gt;❣&lt;/em&gt; Артём Матвеев</description></item><item><title>Preference Diffusion и Decoupled Embeddings: две статьи о масштабируемых рекомендациях</title><link>https://t.me/RecSysChannel/117</link><guid>https://t.me/RecSysChannel/117</guid><pubDate>Mon, 30 Jun 2025 08:04:13 +0000</pubDate><description>&lt;strong&gt;Preference Diffusion и Decoupled Embeddings: две статьи о масштабируемых рекомендациях &lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разбираем ещё две статьи с ICLR — о диффузионных моделях в рекомендациях и о борьбе с градиентными конфликтами в длинных пользовательских историях.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2410.13117" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Preference Diffusion for Recommendation&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Авторы пробуют использовать диффузионные модели в рекомендательных системах. Изначально это направление кажется не вполне очевидным: если с изображением ясно, как его зашумить, то что значит «наложить шум» на эмбеддинг айтема или пользователя — не совсем понятно.&lt;br&gt;&lt;br&gt;Авторы основываются на более ранней статье — &lt;a href="https://arxiv.org/abs/2310.20453" rel="nofollow noopener noreferrer"&gt;DreamRec&lt;/a&gt; — и развивают её идею. В DreamRec использовали диффузионку как генератор: сначала генерировали «идеальный» вектор айтема, а потом искали ближайший из базы. В этой статье пошли дальше: встроили диффузионную модель в стандартный стек рекомендательных систем и учли важные инженерные моменты. &lt;br&gt;&lt;br&gt;Во-первых, MSE заменили на косинусное расстояние в лоссе. Во-вторых, стали учитывать негативы в обучении, чтобы модель не просто приближалась к позитивному айтему, но и отличала его от негативных.&lt;br&gt;&lt;br&gt;Вместо того чтобы обрабатывать сотни негативов по отдельности (что тяжело вычислительно), авторы сэмплируют 256 негативов, усредняют, берут центроид — и используют как один «усреднённый негатив». Такая тактика резко снижает нагрузку, но сохраняет информативность. По словам одной из соавторов, Ан Чжан, идея эффективного добавления негативов и упрощение вычислений — главный вклад статьи в индустрию — без этого диффузионка в рекомендациях просто не взлетает.&lt;br&gt;&lt;br&gt;Ещё одно улучшение касается больших размерностей эмбеддингов. Авторы показали, что такие модели начинают работать только на размерностях больше 2 тысяч. Привычные 64 или 128 не дают никакого результата — лосс почти не убывает. &lt;br&gt;&lt;br&gt;Итог: модель обучается быстрее, чем в предыдущих подходах. Её удалось встроить в классический пайплайн даже без больших кандидатов (в отличие от AlphaRec).&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2410.02604" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Long-Sequence Recommendation Models Need Decoupled Embeddings&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Интересная работа от команды из Tencent. У них большая рекомендательная система  с очень длинными пользовательскими историями и огромным числом айтемов. Это накладывает ограничения и по вычислениям, и по архитектуре. Они используют трансформер, который сначала применяет attention к длинной истории, чтобы выбрать важные элементы, и уже по ним строит итоговую репрезентацию. &lt;br&gt;&lt;br&gt;В стандартном подходе одни и те же эмбеддинги используются и для блока attention, и для блока representation. &lt;br&gt;&lt;br&gt;Авторы показывают, что в таком случае возникает конфликт между градиентами: одна часть модели (например, attention) толкает эмбеддинги в одну сторону, другая (representation) — в другую. В статье подсчитали, как часто градиенты конфликтуют — оказалось, больше чем в половине случаев.&lt;br&gt;&lt;br&gt;Ещё исследователи измеряют, сколько лосса проходит через каждую часть — и оказывается, что representation тянет на себя ощутимо больше, чем attention. Это приводит к перекосу: одна часть доминирует, другая «умирает».&lt;br&gt;&lt;br&gt;Авторы пробуют решить это простыми способами — например, добавить линейные преобразования до и после эмбеддингов. Но это не помогает. Несмотря на раздельную обработку, на вход всё равно идут одинаковые эмбедды, и конфликт сохраняется.&lt;br&gt;&lt;br&gt;Тогда исследователи делают жёсткое разнесение: делят эмбеддинг на две части — одна идёт в attention, другая — в representation. Причём первая в 3–4 раза меньше, потому что attention всё равно получает меньше градиентного сигнала, и для него достаточно компактного представления. Это решение устраняет конфликт, ускоряет инфернес и не ухудшает качество. Визуально это хорошо видно на графиках: чем больше разнесение и уменьшение attention-части, тем выше эффективность.&lt;br&gt;&lt;br&gt;Интересный побочный эффект — за счёт того, что attention работает на меньших векторах, система становится до 50% быстрее. &lt;br&gt;&lt;br&gt;Авторы утверждают, что решение уже внедрено в продакшн и работает там на больших масштабах. &lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Обзор подготовил &lt;em&gt;❣&lt;/em&gt; Василий Астахов&lt;br&gt;&lt;br&gt;#YaICLR</description></item><item><title>Scaling law в рекомендательных системах</title><link>https://t.me/RecSysChannel/107</link><guid>https://t.me/RecSysChannel/107</guid><pubDate>Thu, 26 Jun 2025 12:20:16 +0000</pubDate><description>&lt;strong&gt;Scaling law в рекомендательных системах&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Законы масштабирования вышли за рамки NLP и успешно применяются в рекомендательных системах. В наших карточках исследователь Владимир Байкалов затронул последние работы на эту тему. С обзором прошлых статей можно ознакомиться &lt;a href="https://t.me/inforetriever/82" rel="nofollow noopener noreferrer"&gt;в этом посте&lt;/a&gt;.&lt;br&gt;&lt;br&gt;Работы, упомянутые в карточках:&lt;br&gt;- &lt;a href="https://cdn.openai.com/better-language-models/language_models_are_unsupervised_multitask_learners.pdf" rel="nofollow noopener noreferrer"&gt;Language Models are Unsupervised Multitask Learners&lt;/a&gt;&lt;br&gt;- &lt;a href="https://arxiv.org/abs/2001.08361" rel="nofollow noopener noreferrer"&gt;Scaling Laws for Neural Language Models&lt;/a&gt;&lt;br&gt;- &lt;a href="https://arxiv.org/abs/2203.15556" rel="nofollow noopener noreferrer"&gt;Training Compute-Optimal Large Language Models&lt;/a&gt;&lt;br&gt;- &lt;a href="https://arxiv.org/abs/2402.17152" rel="nofollow noopener noreferrer"&gt;Actions Speak Louder than Words: Trillion-Parameter Sequential Transducers for Generative Recommendations&lt;/a&gt;&lt;br&gt;- &lt;a href="https://arxiv.org/abs/2412.00714" rel="nofollow noopener noreferrer"&gt;Scaling New Frontiers: Insights into Large Recommendation Models&lt;/a&gt;&lt;br&gt;- &lt;a href="https://arxiv.org/abs/2502.08309" rel="nofollow noopener noreferrer"&gt;Unlocking Scaling Law in Industrial Recommendation Systems with a Three-step Paradigm based Large User Model&lt;/a&gt;&lt;br&gt;- &lt;a href="https://dl.acm.org/doi/10.1145/3640457.3688140" rel="nofollow noopener noreferrer"&gt;Scalable Cross-Entropy Loss for Sequential Recommendations with Large Item Catalogs&lt;/a&gt;&lt;br&gt;- &lt;a href="https://t.me/RecSysChannel/48" rel="nofollow noopener noreferrer"&gt;Разбор статьи HSTU в канале «Рекомендательная»&lt;/a&gt;&lt;br&gt;&lt;br&gt;@RecSysChannel&lt;br&gt;Обзор подготовил &lt;em&gt;❣&lt;/em&gt; Владимир Байкалов</description></item></channel></rss>