<?xml version='1.0' encoding='utf-8'?>
<rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title>Speech Info</title><link>https://ml-brand.github.io/speechinfo/</link><description>Зеркало Telegram-канала speechinfo</description><atom:link href="https://ml-brand.github.io/speechinfo/feed.xml" rel="self" type="application/rss+xml" /><lastBuildDate>Sat, 04 Apr 2026 11:59:28 +0000</lastBuildDate><item><title>Beyond Transcripts: A Renewed Perspective on Audio Chaptering [2/2]</title><link>https://t.me/speechinfo/134</link><guid>https://t.me/speechinfo/134</guid><pubDate>Mon, 30 Mar 2026 07:45:21 +0000</pubDate><description>&lt;strong&gt;Beyond Transcripts: A Renewed Perspective on Audio Chaptering [2/2]&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Продолжаем разбирать &lt;a href="https://arxiv.org/abs/2602.08979v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; на тему аудиочаптеринга. В &lt;a href="https://t.me/speechinfo/133" rel="nofollow noopener noreferrer"&gt;первой части&lt;/a&gt; рассказали о специфике задачи, метриках и подходах, которые сравнивают авторы. Переходим к самому интересному — результатам.&lt;br&gt;&lt;br&gt;Первый аблейшн — качество транскрипта. Сравнивают сегментацию на референсном тексте, Whisper Tiny и Whisper Large. Разница неожиданно небольшая: более качественный ASR не всегда даёт лучшую сегментацию. Модели в основном лучше работают на том типе транскрипта, на котором их обучали. Zero-shot LLM-ки почти не чувствительны к качеству транскрипта, но сильно уступают специализированным моделям, обученным на сегментацию.&lt;br&gt;&lt;br&gt;Второй аблейшн — аудиофичи для текстовой модели. Добавляют паузы, скорость речи, pitch, громкость, смену спикера. Все фичи вместе дают примерно +19 F1, то есть аудио действительно добавляет сигнал. Но главный вклад даёт длина паузы: добавление остальных фичей почти не меняет результат. &lt;br&gt;&lt;br&gt;Третий аблейшн — audio-only-модели. Тестируют разные аудиоэнкодеры внутри AudioSeg. Лучше всего работает Whisper, что логично: его эмбеддинги содержат текстовую семантику. Модели для чисто акустических задач (например sound event detection) тоже работают, но хуже. &lt;br&gt;&lt;br&gt;Отдельно смотрят, на каких сэмплах аудио даёт профит. Модель часто ловит границы по неспичевым сигналам: интро- и аутро-звукам, музыкальным переходам, эффектам. Когда такие сигналы чистят с помощью noise filtering, качество сегментации падает — значит, модель действительно на них опирается.&lt;br&gt;&lt;br&gt;Про MLLM-ки. Проверяют zero-shot, chunking, in-context learning, self-cascade и LoRA. Базовый zero-shot неожиданно плохой, иногда даже хуже рандома. In-context learning и LoRA помогают, а лучший результат даёт self-cascade: сначала генерируется транскрипт, потом делается сегментация, и лучше всего работает вариант, когда модели дают и транскрипт, и аудио. Но даже так мультимодалки уступают AudioSeg.&lt;br&gt;&lt;br&gt;Дальше смотрят срезы по длительности аудио. На коротких записях AudioSeg работает лучше остальных, но на длинных (около часа и больше) преимущество постепенно исчезает, и модели показывают похожие результаты.&lt;br&gt;&lt;br&gt;Похожая история со спикерами. Чем больше говорящих, тем сложнее задача и тем ниже качество. Добавление простых спикерных фичей, например смены спикера, немного помогает текстовой модели.&lt;br&gt;&lt;br&gt;Последний момент — ограничение постановки. Использующийся протокол T1 расставляет границы с шагом шесть секунд (и такой же шаг используется моделью). Поэтому даже идеальная модель не может быть точнее. Если притянуть реальные границы к этим окнам (oracle-сегментация), получается потолок F1 около 81.&lt;br&gt;&lt;br&gt;&lt;em&gt;Даниил Волгин &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Beyond Transcripts: A Renewed Perspective on Audio Chaptering [1/2]</title><link>https://t.me/speechinfo/133</link><guid>https://t.me/speechinfo/133</guid><pubDate>Fri, 27 Mar 2026 08:08:01 +0000</pubDate><description>&lt;strong&gt;Beyond Transcripts: A Renewed Perspective on Audio Chaptering [1/2]&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня начинаем разбирать свежую &lt;a href="https://arxiv.org/abs/2602.08979v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; на тему аудиочаптеринга. Задача аудиочаптеринга — разбить запись на смысловые куски (чаптеры), чтобы каждый соответствовал какой-то теме или логическому блоку.&lt;br&gt;&lt;br&gt;Обычно сначала прогоняют аудио через ASR, получают транскрипт, а потом делают текстовую сегментацию — например, с помощью LLM. Авторы статьи предлагают другой подход: попробовать делать чаптеринг напрямую по аудио, без обязательной опоры на текст.&lt;br&gt;&lt;br&gt;В работе сравнивают три подхода:&lt;br&gt;1) классический текстовый чаптеринг;&lt;br&gt;2) AudioSeg — audio-only-подход, который предлагают авторы;&lt;br&gt;3) использование мультимодальных моделей.&lt;br&gt;&lt;br&gt;Задача текстовой сегментации формулируется так. Есть транскрипт, разбитый на предложения. Для каждого предложения нужно предсказать, является ли оно концом чаптера.&lt;br&gt;&lt;br&gt;Чтобы сравнить предсказания с референсом, предложения сначала алайнятся по времени. Тут есть несколько вариантов:&lt;br&gt;- по референсному тексту через forced alignment;&lt;br&gt;- по ASR-транскрипту;&lt;br&gt;- алайнмент по токенам;&lt;br&gt;- алайнмент по временному пересечению предложений.&lt;br&gt;&lt;br&gt;После этого границы можно мапить в тайминги референса и считать метрики. Основные метрики такие:&lt;br&gt;&lt;br&gt;&lt;strong&gt;Pk&lt;/strong&gt; — смотрим пары предложений и проверяем, правильно ли модель определила, находятся они в одном чаптере или в разных.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Boundary Similarity&lt;/strong&gt; — что-то вроде редакторского расстояния между последовательностями нулей и единиц, обозначающими границы чаптеров.&lt;br&gt;&lt;br&gt;Авторы также предлагают временные метрики, которые вообще не используют текст. Есть два варианта:&lt;br&gt;&lt;br&gt;&lt;strong&gt;T1&lt;/strong&gt; (time-based discrete) — аудио разбивается на равные чанки. Смотрим, в какие из них попадают референсные и предсказанные границы. Авторы репортят почти все результаты именно по этому протоколу.&lt;br&gt;&lt;br&gt;&lt;strong&gt;T2&lt;/strong&gt; (time-based continuous) — уже настоящий вариант с непрерывными таймстемпами. Если предсказанная граница попадает в небольшой интервал вокруг референсной (collar), считаем её true positive и по ним считаем F1.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Подходы&lt;/strong&gt;&lt;br&gt;&lt;br&gt;&lt;strong&gt;1. Text-Based baseline. &lt;/strong&gt;Берут предложения из транскрипта, кодируют их sentence encoder’ом, получают эмбеддинги и подают в трансформер (RoFormer). На каждом предложении решается бинарная задача: конец чаптера или нет. К тексту также добавляют аудиофичи: длину пауз, скорость речи, pitch, громкость, смену спикера и т.д. Их конкатенируют с эмбеддингами предложений.&lt;br&gt;&lt;br&gt;&lt;strong&gt;2. AudioSeg&lt;/strong&gt; — основной метод авторов. Пайплайн состоит трёх уровней: frame encoding, segment encoding и document encoding.&lt;br&gt;&lt;br&gt;Аудио сначала режут на 30-секундные чанки и прогоняют через замороженный предобученный аудиоэнкодер (например, Whisper). Получаются фреймовые эмбеддинги. Дальше их группируют в 6-секундные окна. Каждое окно обрабатывается трансформером и превращается в один эмбеддинг сегмента.&lt;br&gt;&lt;br&gt;Получается последовательность сегментных эмбеддингов, которая подаётся в документный трансформер. Он предсказывает, является ли окно концом чаптера.&lt;br&gt;&lt;br&gt;Во второй части разбора расскажем об аблейшнах и выводах, к которым пришли авторы. &lt;br&gt;&lt;br&gt;&lt;em&gt;Даниил Волгин &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>VocalNet: Speech LLM with Multi-Token Prediction for Faster and High-Quality Generation</title><link>https://t.me/speechinfo/132</link><guid>https://t.me/speechinfo/132</guid><pubDate>Wed, 18 Mar 2026 11:03:01 +0000</pubDate><description>&lt;strong&gt;VocalNet: Speech LLM with Multi-Token Prediction for Faster and High-Quality Generation&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Multi-Token Prediction часто рассматривают как способ ускорить генерацию, но кроме этого он может улучшить её качество. Сегодня разберём &lt;a href="https://arxiv.org/abs/2504.04060" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; о том, как и почему такой подход одинаково хорошо работает и для LLM, и для аудиомоделей. Для этого упомянём ещё три работы — но обо всём по порядку. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2404.19737" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Better &amp;amp; Faster Large Language Models via Multi-token Prediction&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Начнём с простого: вспомним, как работает multi-token prediction (MTP). Cамая популярная и цитируемая статья на эту тему вышла в 2024 году.&lt;br&gt;&lt;br&gt;Её идея очень проста: навесить на тушку (shared) не одну голову (linear-слой), которая предсказывает один токен, а сразу несколько. То есть по первому токену будет генерироваться не второй, а сразу четыре: второй, третий, четвёртый и пятый. &lt;br&gt;&lt;br&gt;Для реализации авторы использовали self-speculative decoding: выбирали предсказания только с самыми высокими вероятностями. По результатам на бенчмарке MBPP и проверки людьми обнаружилось, что MTP может не только ускорить работу модели, но и улучшить её результаты. &lt;br&gt;&lt;br&gt;При этом чем больше модель, тем сильнее улучшается качество. Но это работает только на сложных задачах, таких как кодинг. Для trivia-вопросов, которые предполагают односложный ответ (да или нет) не нужно генерить много токенов наперёд.&lt;br&gt;&lt;br&gt;Так MTP начали использовать не только как ускоритель, но и как auxilary objective для улучшения качества. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2412.19437" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;DeepSeek-V3 Technical Report&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Авторы немного видоизменили MTP: сделали его не параллельным, а последовательным. Во время обучения добавили hidden-слой перед каждой головой-трансформером и конкатенировали его токены с токенами ground truth, уже предсказанными предыдущей головой. На инференсе использовали обычный MTP с уменьшенными трансформерами  — и тоже добились не только ускорения, но и повышения качества результатов. &lt;br&gt;&lt;br&gt;Так как же это всё применимо к TTS?&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2504.04060" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;VocalNet: Speech LLM with Multi-Token Prediction for Faster and High-Quality Generation&lt;/strong&gt;&lt;br&gt;&lt;/a&gt;&lt;br&gt;Короткий ответ: хорошо, даже очень. &lt;br&gt;&lt;br&gt;VocalNet — не совсем TTS, скорее, заалайненная омни-модель. Сетап максимально базовый: претрейн-тушка с приклеенным Whisper-энкодером, который делает аудиоэмбеддинги. Сверху — Speech Vocoder, генерирующий аудиотокены. Потом  аудиотокены отправляются в инференс.&lt;br&gt;&lt;br&gt;Классика, но есть нюанс: Speech Decoder. Именно в него внедрили MTP. &lt;br&gt;&lt;br&gt;Секрет успеха MTP применительно к задачам генерации речи в соотношении размеров фонемы и токена. Для обычной LLM токен — большая семантическая единица. А при генерации речи в одну фонему входит сразу несколько токенов. И тем, кто занимается TTS, очень хотелось бы научить модели предсказывать не токены, а целые фонемы.&lt;br&gt;&lt;br&gt;На схеме выше — все подходы, которые перепробовали авторы VocalNet: &lt;br&gt;&lt;br&gt;(a) — уменьшить размерность и предсказывать по три, а не по четыре токена подряд,&lt;br&gt;(b) — использовать несколько параллельных линейных голов, как в классическом MTP,&lt;br&gt;(c) — внедрить головы последовательно, как сделала команда DeepSeek,&lt;br&gt;(d) — попробовать по-своему: перенять лучшее у DeepSeek, но отказаться от GT, как в MTP. То есть, не спойлерить во время обучения токены, которые должна предсказать нейросеть.&lt;br&gt;&lt;br&gt;Подход (d) позволил авторам удалось добиться существенного ускорения работы VocalNet, при этом не ухудшив качество. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2508.19228" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Predicting the Order of Upcoming Tokens Improves Language Modeling&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;MTP не всемогущ. Чем больше токенов одновременно генерирует модель, тем нестабильнее objective — уже к 3-5 токену маленькие ошибки приводят к большим лоссам. &lt;br&gt;&lt;br&gt;Авторы этой статьи предлагают сгладить лосс с помощью auxilary objective: вместо самих токенов предсказывать их порядок. Протестировать метод можно на &lt;a href="https://github.com/zaydzuhri/token-order-prediction" rel="nofollow noopener noreferrer"&gt;GitHub&lt;/a&gt;.&lt;br&gt;&lt;br&gt;&lt;em&gt;Александр Цапков &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Pseudo2Real: Task Arithmetic for Pseudo-Label Correction in Automatic Speech Recognition</title><link>https://t.me/speechinfo/131</link><guid>https://t.me/speechinfo/131</guid><pubDate>Wed, 11 Mar 2026 11:14:01 +0000</pubDate><description>&lt;strong&gt;Pseudo2Real: Task Arithmetic for Pseudo-Label Correction in Automatic Speech Recognition&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня разбираем &lt;a href="https://arxiv.org/abs/2510.08047v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; о том, как бороться с систематическими ошибками псевдолейблинга в ASR.&lt;br&gt;&lt;br&gt;Аудиоданных разных доменов существует огромное количество, но для конкретных задач (например, редких акцентов) разметки часто нет. Сбор качественных транскрипций стоит дорого и занимает много времени. В таких случаях выходом становится псевдолейблинг: сначала модель обучают на размеченных данных, потом она сама делает псевдолейблы для неразмеченных, а дальше модель дообучают уже на них.&lt;br&gt;&lt;br&gt;Проблема в том, что псевдолейблинг даёт разметку, далекую от совершенства, — с ошибками и байесами. И если модель учится на этом итеративно, ошибки не исчезают, а накапливаются. В итоге появляются устойчивые паттерны, которые не лечатся простым уменьшением шума или confidence-фильтрацией.&lt;br&gt;&lt;br&gt;Главный вопрос статьи такой: как уменьшить систематические ошибки псевдолейблинга, если в target-домене вообще нет ground truth?&lt;br&gt;&lt;br&gt;Идея авторов — использовать task arithmetic. В упрощённом виде это выглядит так:&lt;br&gt;&lt;br&gt;1. Берём предобученную ASR-модель и файнтюним её на source-домене с настоящей разметкой.&lt;br&gt;2. Отдельно обучаем модель на псевдолейблах source-домена.&lt;br&gt;3. Вычитаем параметры одной модели из другой и получаем correction vector — вектор, который описывает, что именно «портит» обучение на псевдолейблах.&lt;br&gt;&lt;br&gt;Дальше этот correction vector добавляют при адаптации модели на target-домене, где есть только псевдолейблы. Смысл в том, чтобы при дообучении на псевдолейблах модель меньше перенимала их систематические ошибки.&lt;br&gt;&lt;br&gt;В статье это показывают на примере смены акцентов: target-домен — это акценты, которых не было в source-домене. В экспериментах используют &lt;a href="https://huggingface.co/datasets/intronhealth/afrispeech-200" rel="nofollow noopener noreferrer"&gt;AfriSpeech-200&lt;/a&gt; — датасет, в котором люди из африканских стран на английском языке с заметными акцентами наговаривают тексты на медицинскую и общую тематику.&lt;br&gt;&lt;br&gt;Также в работе рассматривают вариант метода с subgroup correction. Вместо одного общего correction vector строят отдельные векторы для разных групп спикеров, а затем усредняют их и используют при адаптации модели к target-домену.&lt;br&gt;&lt;br&gt;Эксперименты проводят через кросс-валидацию по акцентам: часть акцентов используют как source-домен, остальные — как target-домен, и так по всем разбиениям.&lt;br&gt;&lt;br&gt;В таблице с результатами сравнивают несколько сценариев. Выводы следующие:&lt;br&gt;&lt;br&gt;- Предобученная модель (zero-shot) на новых акцентах даёт высокий WER.&lt;br&gt;&lt;br&gt;- Стандартный псевдолейблинг (файнтюн на сгенерированной разметке) значительно улучшает качество, но наследует систематические ошибки учителя.&lt;br&gt;&lt;br&gt;- Confidence-based filtering (отсев неуверенных предсказаний) даёт лишь небольшой прирост и не решает проблему закрепившихся паттернов ошибок.&lt;br&gt;&lt;br&gt;- &lt;strong&gt;Pseudo2Real&lt;/strong&gt; показывает существенное снижение WER против обычного псевдолейблинга (до 35% относительного улучшения на Whisper Tiny).&lt;br&gt;&lt;br&gt;- &lt;strong&gt;Pseudo2Real-SC&lt;/strong&gt; (Subgroup Correction) с кластеризацией спикеров даёт дополнительный прирост качества (в среднем ещё на 4–6%), особенно эффективно исправляя ошибки на самых сложных акцентах (например язык хауса), так как учитывает разнообразие дикторов.&lt;br&gt;&lt;br&gt;- Topline (обучение на реальной разметке target-домена) — теоретический «потолок» качества. Однако авторы отмечают важный инсайт: на некоторых сложных акцентах и малых моделях Pseudo2Real оказывается даже эффективнее топлайна. Вектор коррекции действует как регуляризация, не давая модели переобучиться, что часто случается при прямом файнтюне на малом объёме реальных данных.&lt;br&gt;&lt;br&gt;&lt;em&gt;Егор Реутов&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>M³V: A Multi-Modal Multi-View Approach for Device-Directed Speech Detection</title><link>https://t.me/speechinfo/128</link><guid>https://t.me/speechinfo/128</guid><pubDate>Thu, 05 Mar 2026 09:06:40 +0000</pubDate><description>&lt;strong&gt;M³V: A Multi-Modal Multi-View Approach for Device-Directed Speech Detection&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В последнее время всё больше исследований посвящено голосовой активации умного ассистента без называния имени (например, «Алиса»). Это позволяет вести более естественный диалог и повышает комфорт пользователя.&lt;br&gt;&lt;br&gt;Чтобы решить данную задачу, нужна ML-модель для определения, направлена речь в устройство или нет. В Яндексе такую модель называют «&lt;a href="https://t.me/MLunderhood/77" rel="nofollow noopener noreferrer"&gt;интонационным споттером&lt;/a&gt;».&lt;br&gt;&lt;br&gt;Сегодня разберём &lt;a href="https://arxiv.org/abs/2409.09284" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt;, в которой рассматривается случай умного помощника для автомобиля. Авторы развивают существующую схему двух энкодеров: для звука и для распознанного текста.&lt;br&gt;&lt;br&gt;При распознавании речи в реальных условиях неизбежны ошибки. Необходимо сбалансировать обучение таким образом, чтобы модель видела и верно, и неверно распознанные пары «текст — речь».&lt;br&gt;&lt;br&gt;Авторы предлагают использовать дополнительные модальности, а полученный фреймворк называют M³V.&lt;br&gt;&lt;br&gt;Решается задача бинарной классификации «в девайс или не в девайс». В качестве энкодеров берут GPT-2 для текстовой модальности и Wav2Vec2 для звука. Результаты работы энкодера пулятся вдоль временного измерения для получения представления для всего звука &lt;em&gt;(формула 1)&lt;/em&gt;.&lt;br&gt;&lt;br&gt;Результаты работы этих двух энкодеров используются в качестве входов для четырёх разных голов сети: &lt;br&gt;&lt;br&gt;- чисто звуковой;&lt;br&gt;- чисто текстовой;&lt;br&gt;- мультимодальной (конкатенированной);&lt;br&gt;- выравнивания (обучаемая функция для сближения двух эмбеддингов для получения выравниваний).&lt;br&gt;&lt;br&gt;Для получения сближённых эмбеддингов обучаются два проецирующих модуля: отдельно для эмбеддингов текста и отдельно — для речи &lt;em&gt;(формула 3)&lt;/em&gt;.&lt;br&gt;&lt;br&gt;Проекции обучаются с помощью contrastive loss. То есть для текста и звука i-го элемента батча они учатся быть близкими (по косинусному расстоянию), а для других элементов батча — отстоять далеко. &lt;br&gt;&lt;br&gt;Получается алайнмент. Contrastive score используется как компонент лосса, а косинусное произведение — как alignment score. &lt;br&gt;&lt;br&gt;Итоговый лосс состоит из трёх бинарных кросс-энтропий и contrastive loss.&lt;br&gt;&lt;br&gt;Коэффициенты при лоссах адаптивные. Веса энкодеров не замораживаются. Решение принимается либо по порогам трёх вероятностей и alignment score, либо с помощью SVM.&lt;br&gt;&lt;br&gt;Обучение проводилось на 340 часах данных (500 тысяч записей) из машины. Тестовый набор — такой же + 560 сложных примеров с плохим распознаванием.&lt;br&gt;&lt;br&gt;Эксперименты показывают, что предложенный метод позволяет добиться улучшения относительно отдельных компонент по EER даже при использовании датасета с ошибочным ASR. &lt;br&gt;&lt;br&gt;&lt;em&gt;Павел Мазаев&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>DiTAR: Diffusion Transformer Autoregressive Modeling for Speech Generation</title><link>https://t.me/speechinfo/127</link><guid>https://t.me/speechinfo/127</guid><pubDate>Tue, 24 Feb 2026 10:51:34 +0000</pubDate><description>&lt;strong&gt;DiTAR: Diffusion Transformer Autoregressive Modeling for Speech Generation&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня обсудим &lt;a href="https://arxiv.org/abs/2502.03930" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; о DiTAR — фреймворке авторегрессии, который объединяет языковую модель и диффузионный трансформер для синтеза речи. &lt;br&gt;&lt;br&gt;Модели Text-to-Speech часто учат на дискретных токенах, но в сочетании с нюансами архитектуры, погрешностью трансформера и декодера это приводит к накоплению ошибок — а значит, затрудняет качественную генерацию непрерывных объектов. &lt;br&gt;&lt;br&gt;Авторы искали новый способ предсказания непрерывных представлений аудио — и утверждают, что DiTAR значительно повышает эффективность авторегрессии для непрерывных токенов и снижает требования к вычислениям. &lt;br&gt;&lt;br&gt;Совместив сильные стороны диффузионных трансформеров и больших языковых моделей, авторы: &lt;br&gt;&lt;br&gt;— разбивают непрерывные представления на патчи, &lt;br&gt;— обучают каузальный авторегрессионный трансформер делать inter-patch-предсказания, &lt;br&gt;— bidirectional-диффузионный трансформер, опираясь на эти внутренние представления, делает intra-patch-предсказания. &lt;br&gt;&lt;br&gt;Рассмотреть архитектуру решения можно на схеме. Каузальному авторегрессионному трансформеру подают на вход набор непрерывных векторов (continuous speech tokens). А потом группируют их в патчи и ужимают в один вектор энкодером, чтобы снизить размерность и ускорить трансформер. &lt;br&gt;&lt;br&gt;Диффузионный трансформер предсказывает следующий патч по выходам каузального авторегрессионного трансформера. Авторы утверждают, что если хранить историю патчей и подмешивать предыдущие на каждой новой итерации, задача станет ближе к outpainting, что помогает вырастить качество финальной генерации.&lt;br&gt;&lt;br&gt;Для того чтобы сохранить возможность разнообразного семплирования, авторы добавили температуру в ODE-солвер. В DiTAR температура — момент времени в процессе генерации, когда вводится шум. Она позволяет гибко управлять вариативностью речи (от стабильной дикции до богатых интонаций) без замедления работы модели.&lt;br&gt;&lt;br&gt;При генерации речи zero-shot DiTAR показывал SoTA-результаты в схожести говорящих и естественности. В следующей своей статье, &lt;a href="https://arxiv.org/abs/2510.12210" rel="nofollow noopener noreferrer"&gt;DiSTAR&lt;/a&gt;, они опираются на наработки из этой. Но вместо непрерывных фич моделируют RVQ-токены — модель, несмотря на небольшой размер, показывает хорошие метрики.&lt;br&gt;&lt;br&gt;&lt;em&gt;Александр Плахин&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Simul-Whisper: Attention-Guided Streaming Whisper with Truncation Detection</title><link>https://t.me/speechinfo/124</link><guid>https://t.me/speechinfo/124</guid><pubDate>Thu, 19 Feb 2026 09:36:22 +0000</pubDate><description>&lt;strong&gt;Simul-Whisper: Attention-Guided Streaming Whisper with Truncation Detection &lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня разбираем короткую и довольно простую &lt;a href="https://arxiv.org/abs/2406.10052" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; о стриминговом Whisper’e. Whisper — это encoder-decoder-модель, и если в стриминге каждый раз прогонять декодер заново на всём аудио, получается слишком дорого. Поэтому авторы предлагают на каждом новом чанке заново прогонять только энкодер, а дальше следить, чтобы декодер не упирался в конец чанка и не начинал угадывать слова неправильно.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Низкий WER degradation&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Под WER degradation понимают то, как сильно ухудшается word error rate при переходе от офлайна к стримингу. В таблице выше авторы сравнили разные стратегии: офлайн-бейзлайн, Local Agreement и предложенный метод. &lt;br&gt;&lt;br&gt;В правом столбце Δ показана средняя деградация — и у нового подхода она самая маленькая: всего 1,46%, то есть качество почти не проседает по сравнению с распознаванием в офлайне.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Почему стриминг ломается на границах чанков&lt;/strong&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;Проблема кроется в архитектуре Whisper. Это Seq2Seq-модель, обученная на &lt;strong&gt;полных предложениях&lt;/strong&gt;. Она всегда стремится выдать законченный, осмысленный текст и не умеет «молчать» или выдавать части слов.&lt;br&gt;&lt;br&gt;Рассмотрим пример с фразой &lt;em&gt;“Shall we be companions?”&lt;/em&gt;, где граница чанка разрезала слово &lt;em&gt;“companions”&lt;/em&gt;. Происходит следующее.&lt;br&gt;&lt;br&gt;&lt;strong&gt;1. Акустическая ловушка.&lt;/strong&gt; Модель получает аудио, которое обрывается на звуке &lt;em&gt;&amp;quot;be com...&amp;quot;&lt;/em&gt;.&lt;br&gt;&lt;br&gt;&lt;strong&gt;2. Принудительный выбор (Forced Prediction).&lt;/strong&gt; Модель слышит &amp;quot;&lt;em&gt;be com...&amp;quot;&lt;/em&gt;. В её словаре токенов (BPE) наиболее вероятным кандидатом для этого звукового паттерна оказывается токен &lt;em&gt;&amp;quot;become&amp;quot;&lt;/em&gt;. Поскольку модель обучена на завершённых фразах, она стремится «закрыть» акустический паттерн известным ей токеном, вместо того чтобы ждать продолжения (которого в текущем чанке нет).&lt;br&gt;&lt;br&gt;&lt;strong&gt;3. Ошибка токенизации. &lt;/strong&gt;Как только токен &lt;em&gt;&amp;quot;become&amp;quot;&lt;/em&gt; сгенерирован, он становится частью истории. Когда приходит следующий кусок звука &amp;quot;&lt;em&gt;...panions&amp;quot;&lt;/em&gt;, декодер уже не может отменить предыдущий токен. Пытаясь продолжить текст после &lt;em&gt;&amp;quot;become&amp;quot;&lt;/em&gt;, декодер подбирает следующий наиболее вероятный токен — &lt;em&gt;&amp;quot;ponies&amp;quot;&lt;/em&gt;, так как он фонетически похож на входящий звук и хоть как-то согласуется с предыдущим контекстом.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Итог: &lt;/strong&gt;ошибка возникает из-за того, что модель пытается «додумать» обрезанный край чанка, принимая преждевременное решение, которое потом невозможно исправить.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Решение — метод из двух частей&lt;br&gt;&lt;/strong&gt;&lt;br&gt;В статье предлагают подход, в котором одна составляющая определяет, где можно безопасно резать, а другая — когда пора запросить следующий чанк.&lt;br&gt;&lt;br&gt;&lt;strong&gt;1. Truncation Detection Module (TDM)&lt;/strong&gt;, построенный на механизме Integrate-and-Fire (IF). Модель постепенно накапливает некоторую величину по аудиофреймам. Когда накопление превышает порог, происходит “fire” — это считается сигналом, что слово закончилось и здесь можно обрезать. Обучение происходит таким образом, чтобы количество срабатываний совпадало с количеством слов.&lt;br&gt;&lt;br&gt;&lt;strong&gt;2. Attention-Guided Decoding Policy&lt;/strong&gt; — эта часть выглядит даже более важной. Поскольку Whisper обучался на задаче предсказания таймстемпов (alignment), его карты внимания (attention maps) очень чётко «подсвечивают» тот участок аудио, который соответствует текущему слову.  Авторы смотрят, куда «смотрит» модель. Если пик внимания (максимальный вес) приходится на самый конец текущего аудиочанка (последние фреймы), это красный флаг.&lt;br&gt;&lt;br&gt;- Это значит: «Я пытаюсь декодировать слово, но его аудиопризнаки обрываются на самом интересном месте».&lt;br&gt;- В этот момент нужно остановить генерацию и ждать следующий чанк.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Результаты&lt;br&gt;&lt;/strong&gt;&lt;br&gt;В конце авторы приходят к выводу, что можно сделать стриминговый Whisper, который почти не теряет в качестве, избегает ошибок на границах чанков, работает с меньшей задержкой, чем Local Agreement. Таблица в конце подтверждает, что на больших моделях (Large-v2) метод даёт хороший баланс между скоростью и точностью.&lt;br&gt;&lt;br&gt;&lt;em&gt;Вилиана Девбунова&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Динамический выбор контекста в аудиомоделях</title><link>https://t.me/speechinfo/122</link><guid>https://t.me/speechinfo/122</guid><pubDate>Wed, 11 Feb 2026 09:01:43 +0000</pubDate><description>&lt;strong&gt;Динамический выбор контекста в аудиомоделях&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня вспомним о паре любопытных статей с Interspeech 2025, связанных с динамическим выбором промпта из некоторой базы. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2411.05141" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Audiobox TTA-RAG: Improving Zero-Shot and Few-Shot Text-To-Audio with Retrieval-Augmented Generation&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Авторы улучшают качество text-to-audio-генерации для случаев, слабо представленных в обучающем датасете, добавляя conditioning на сэмплы из большой базы неразмеченных аудио. Для выбора примеров из базы используют косинусное расстояние между CLAP-эмбеддингами: на этапе обучения сравнение проводится с эмбеддингом целевого аудио, на инференсе — с эмбеддингом входного текста.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2505.18517" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;LiSTEN: Learning Soft Token Embeddings for Neural Audio LLMs&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;В работе предлагают метод адаптации предобученной текстовой LLM под решение различных задач с text-audio-входом (текстовая инструкция + входная аудиозапись) и текстовым выходом в мультитаск-формате. Кроме стандартного подхода — кодирования входного аудио предобученным энкодером и обучения адаптера во входной формат текстовой LLM — авторы обучают пул промптов: случайно проинициализированных key-value-пар. &lt;br&gt;&lt;br&gt;Эмбеддинги входных данных каждого сэмпла — текста и аудио — усредняют для получения query. После чего выбирают топ-k промптов по расстоянию между query и key и добавляют ко входу LLM соответствующие value.&lt;br&gt;&lt;br&gt;По словам авторов, в отличие от обучения отдельного промпта под каждую задачу, предложенный подход позволяет переносить знания между различными сценариями. В результате модель лучше генерализуется под новые задачи и требует меньшего количества обучающих данных для каждой конкретной. А в отличие от полностью разделяемых параметров, такой подход препятствует переобучению под какие-то из задач или забыванию базовых знаний предобученной модели.&lt;br&gt;&lt;br&gt;&lt;em&gt;Дарья Петренко &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>FireRedTTS-2: Towards Long Conversational Speech Generation for Podcast and Chatbot</title><link>https://t.me/speechinfo/118</link><guid>https://t.me/speechinfo/118</guid><pubDate>Fri, 06 Feb 2026 07:53:21 +0000</pubDate><description>&lt;strong&gt;FireRedTTS-2: Towards Long Conversational Speech Generation for Podcast and Chatbot &lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разберём &lt;a href="https://arxiv.org/abs/2509.02020v2" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt;, авторы которой пытаются решить задачу multi-speaker-генерации длинных диалогов, например для подкастов и чат-ботов. &lt;br&gt;&lt;br&gt;Во-первых, в работе предлагают новый стриминговый speech tokenizer с частотой 12,5 Hz (12,5 токена/сек), чтобы тянуть длинные последовательности. Обычно используют токенизаторы с частотой около 25 Hz, а здесь её снижают — как раз чтобы упростить работу с длинными диалогами.&lt;br&gt;&lt;br&gt;Во-вторых, для моделирования multi-layer speech-токенов используют подход dual-transformer: большой decoder-only-трансформер предсказывает токены первого уровня, а маленький трансформер быстро достраивает остальные.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Архитектура &lt;/strong&gt;&lt;br&gt;&lt;br&gt;В speech tokenizer объединяют два источника информации: акустику и семантику из Whisper (его энкодер заморожен). Их приводят к одному пространству и кодируют в RVQ-токены, чтобы в каждом была и семантическая, и акустическая информация.&lt;br&gt;&lt;br&gt;Поверх этого работает TTS-модель: на вход подаются speaker + text + speech tokens. Трансформер сначала предсказывает токен первого уровня, а затем маленький декодер достраивает остальные уровни. После этого полный набор RVQ-токенов превращается обратно в финальный speech.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Как обучают speech tokenizer&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Обучение проходит в две стадии. На претрейне используют reconstruction loss и дополнительные лоссы для RVQ и семантики, а также perceptual loss через WavLM для сравнения фичей реконструкции и оригинала.&lt;br&gt;&lt;br&gt;На этапе посттрейна семантический декодер убирают, акустический заменяют на  стриминговую версию (24 kHz), и дообучают уже с reconstruction + GAN loss на более чистых данных.&lt;br&gt;&lt;br&gt;По WER токенизатор показывает лучший результат среди моделей с таким низким frame rate, хотя по MOS уступает некоторым решениям вроде XCodec2.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Сценарии использования&lt;br&gt;&lt;/strong&gt;&lt;br&gt;1) Voice cloning&lt;br&gt;&lt;br&gt;Модель может воспроизводить голос по промпту. Разборчивость речи получается хорошей, но вот похожесть на оригинальный голос — хуже, чем у лидеров. Авторы говорят, что voice cloning — не главный фокус работы.&lt;br&gt;&lt;br&gt;2) Диалоговый чат с эмоциями&lt;br&gt;&lt;br&gt;Для этого сценария собрали 15 часов эмоциональной речи, записанных одной женщиной (6 эмоций), и дообучили модель так, чтобы она могла отвечать с нужной интонацией. Эмоции затем проверяли вручную — точность получилась высокой. Правда, остаётся вопрос, насколько хорошо такая модель умеет говорить нейтрально.&lt;br&gt;&lt;br&gt;3) Генерация подкастов&lt;br&gt;&lt;br&gt;Авторы сделали набор английских и китайских подкастовых разговоров, которые показывают, что модель может генерировать диалоги длиной до трёх минут и поддерживать несколько говорящих. Сравнивают по MOS и другим метрикам, и отдельно делают side-by-side с реальными записями. Говорят, что примерно в 28% случаев их результат можно перепутать с настоящими диалогами.&lt;br&gt;&lt;br&gt;&lt;em&gt;Максим Борисов&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>TTS-1 Technical Report. 2/2</title><link>https://t.me/speechinfo/115</link><guid>https://t.me/speechinfo/115</guid><pubDate>Wed, 28 Jan 2026 10:02:21 +0000</pubDate><description>&lt;strong&gt;TTS-1 Technical Report. 2/2&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Продолжаем рассказ о &lt;a href="https://arxiv.org/abs/2507.21138v1" rel="nofollow noopener noreferrer"&gt;техрепотре&lt;/a&gt; свежего TTS-движка американского стартапа Inworld. &lt;br&gt;&lt;br&gt;&lt;strong&gt;SFT: что сработало, а что нет&lt;br&gt;&lt;/strong&gt;&lt;br&gt;После pretrain-стадии авторы переходят к SFT и алайнменту. На SFT используют около 200 тысяч часов транскрибированных данных. Для фильтрации отбрасывают 20% худших сэмплов по DNS-MOS, 5% самых быстрых и 5% самых медленных по символам в секунду, плюс применяются текстовые эвристики для удаления плохих транскрипций.&lt;br&gt;&lt;br&gt;Авторы утверждают, что для качества синтеза было важно инициализировать learning rate для SFT финальным значением после стадии pretrain. Попытка подмешать text-based instruction-following данные, чтобы лучше понимать сложные промпты, привела к ухудшению стабильности синтеза, несмотря на отсутствие деградации лосса на аудиоданных. Ещё в работе есть аблейшн, который показал, что стартовать SFT с speech-pretrained LM заметно лучше, чем с LLaMA-3.2-1B-Instruct — и лоссу, и по метрикам WER и SIM.&lt;br&gt;&lt;br&gt;&lt;strong&gt;RL-алайнмент и разметка стилей&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Для алайнмента используют RL с GRPO, так как даже после SFT остаются клики, артефакты и ошибки произношения. GRPO позволяет оценивать несколько ответов на один и тот же запрос относительно среднего по группе, что даёт более стабильное обучение. Используется композитный реворд, включающий WER, similarity и DNS-MOS, а также отдельные награды для аудиотегов. WER считают с помощью Whisper-large-v3, similarity — через WavLM-Large. Утверждают, что единая модель с композитным ревордом работает лучше, чем модели, обученные под каждую метрику отдельно. В качестве аргумента приводят только графики GRPO. &lt;br&gt;&lt;br&gt;Отдельный блок отведён стилям и невербальным эффектам. Попытка просто конкатенировать style-tag и текст не сработала — авторы объясняют это тем, что кодек смешивает семантическое и акустическое пространства, и стиль сложно изолировать от голосовых характеристик. Решением стал парный датасет: нейтральные и стилизованные высказывания одного и того же спикера, склеенные паузой 0,5–1,5 секунды, с использованием тега как разделителя. На один нейтральный сэмпл приходится от одного до пяти стилизованных, около 20% данных содержат невербальные вокализации, а примерно 30% — непарные нейтральные примеры для сохранения базового синтеза.&lt;br&gt;&lt;br&gt;В оценке качества приходят к тому, что увеличение размера модели улучшает similarity и стабилизирует WER, а RL-алайнмент даёт прирост на коротких, средних и длинных сэмплах. Что интересно, на внутренней TTS-арене побеждают всех конкурентов, например, TTS-1-Max имеет win-rate 59,1% против 11Labs.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Инференс&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Модели имеют два режима: мгновенный voice cloning по референсу и транскрипту и профессиональный voice cloning с LoRA-дообучением SpeechLM. Для стриминга сделана аккуратная склейка сегментов по участкам тишины, чтобы избежать щелчков, а также стабилизация громкости за счёт дополнительного контекста в аудиодекодере. Inworld вместе с Inference платформой Modular ускорил API за счёт асинхронного планировщика, батчинга в декодере, sparse-формата для penalty sampling и кастомных GPU-ядер на Mojo в составе MAX pipeline. Это даёт первые две секунды синтезированного аудио в среднем на 70% быстрее, чем через vLLM.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Какие есть проблемы&lt;br&gt;&lt;/strong&gt;&lt;br&gt;В конце авторы честно говорят и об ограничениях. Кэширование референса помогает снизить задержки, но может подтягивать стиль и эмоции из референсного аудио. Длинные последовательности хуже генерируются при коротких промптах, а параметры декодинга постоянно приходится балансировать между сходством с голосом и выразительностью. В целом, получилась довольно инженерная работа о том, как стартап оптимизирует качество, задержки и стоимость — без архитектурных откровений, но с массой практических деталей.&lt;br&gt;&lt;br&gt;&lt;em&gt;Владимир Гогорян&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>TTS-1 Technical Report. 1/2</title><link>https://t.me/speechinfo/112</link><guid>https://t.me/speechinfo/112</guid><pubDate>Thu, 22 Jan 2026 09:39:42 +0000</pubDate><description>&lt;strong&gt;TTS-1 Technical Report. 1/2&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня начинаем разбирать &lt;a href="https://arxiv.org/abs/2507.21138v1" rel="nofollow noopener noreferrer"&gt;техрепорт&lt;/a&gt; TTS-1 от стартапа Inworld, представившего собственный движок синтеза и довольно подробный отчёт о нём.&lt;br&gt;&lt;br&gt;С архитектурной точки зрения решение можно описать как «yet another SpeechLM», но с большим количеством инженерии. Есть аудиокодек, есть языковая модель, которая генерирует токены, и есть декодер, который восстанавливает аудио. Но, как обычно, дьявол скрыт в деталях — и ими авторы довольно открыто делятся.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Что под капотом&lt;br&gt;&lt;/strong&gt;&lt;br&gt;В качестве кодека используется X-Codec 2 с super-resolution-декодером до 48 кГц. Причины выбора простые: кодек опенсорсный, его удобно адаптировать под стриминг, он сильно экономит хранение и обработку данных. Например, один час моноаудио 48 кГц в сыром виде занимает около 365 МБ, тогда как токенизированное представление с кодбуком на 65 536 токенов — всего около 0,19 МБ при хранении в uint16. Для стартапа это большой плюс.&lt;br&gt;&lt;br&gt;Кодек переобучали полностью на 110 тысячах часов собственных данных. Помимо модифицированного декодера архитектура осталась стандартной: энкодер на базе Wav2Vec-BERT с ResNet-блоками, декодер Vocos, квантизация FSQ, Multi-Period и Multi-STFT дискриминаторы. Из необычного — дополнительный RMS-лосс, который ввели для борьбы с неконсистентной громкостью на склейках и в high-pitch-сегментах, что особенно проявлялось в стриминговом режиме.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Апсемплинг до 48 кГц&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Повышение разрешения аудио из 16 кГц в 48 кГц сделано через двухэтапный uptraining: сначала на данных с native sample rate ≥32 кГц, затем дополнительный fine-tuning на аудио ≥44.1 кГц. За счёт подбора страйдов и hop-length в декодере такой апсемплинг почти не влияет на скорость и сложность обучения и, по словам авторов, даже даёт выигрыш по DNS-MOS.&lt;br&gt;&lt;br&gt;&lt;strong&gt;SpeechLM&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Поверх кодека — SpeechLM. В TTS-1 используется LLaMA-3.2 на 1,6B параметров, а в версии TTS-1 Max — LLaMA-3.1 на 8,8B. Общий словарь объединяет текстовые токены, 65 тысяч аудиотокенов и специальные токены, включая теги эмоций и невербальных вокализаций.&lt;br&gt;&lt;br&gt;На этапе претрена к аудиоданным подмешивается около 20 миллиардов текстовых токенов из RedPajama-v2 и instruction-данных LAION OIG, чтобы сохранить текстовое понимание. Обучались модели с bfloat16, flash attention 2 и fused AdamW. Для распределенного обучения младшая версия использовала DDP, а старшая FSDP и torch.compile. Один полный прогон претрена занял около двух дней для маленькой модели и около 10 дней для большой.&lt;br&gt;&lt;br&gt;Во второй части поста расскажем про SFT, RL и инженерию деплоя в TTS-1.&lt;br&gt;&lt;br&gt;&lt;em&gt;Владимир Гогорян&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Лучшие статьи 2025 года: выбор авторов Speech Info. Часть 2</title><link>https://t.me/speechinfo/111</link><guid>https://t.me/speechinfo/111</guid><pubDate>Thu, 15 Jan 2026 10:43:01 +0000</pubDate><description>&lt;strong&gt;Лучшие статьи 2025 года: выбор авторов Speech Info. Часть 2&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Настраиваемся на конец рабочей недели и вспоминаем ещё несколько полезных статей прошедшего года. Выбрали и прокомментировали их авторы нашего канала. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2505.17589v2" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;CosyVoice 3: Towards In-the-wild Speech Generation via Scaling-up and Post-training&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;В работе представлена новая версия модели CosyVoice для zero-shot-синтеза речи. Ключевые улучшения:&lt;br&gt;1) новый речевой токенизатор — использует FSQ (25 ток./с) и обучается на основе LM MinMo с помощью многозадачного обучения (ASR, SER, AED, LID, SID);&lt;br&gt;2) дифференцируемая оптимизация награды (DiffRO) — новый подход для дообучения моделей синтеза речи на основе LLM, который позволяет напрямую оптимизировать речевые токены;&lt;br&gt;3) масштабирование данных (до 1 млн часов, 9 языков, 18 китайских диалектов) и модели (с 0,5B до 1,5B параметров).&lt;br&gt;CosyVoice 3 показывает существенное улучшение по сравнению с предыдущей версией, а также покрывает больше языков. Недавно авторы выложили в открытый доступ модель &lt;a href="https://huggingface.co/FunAudioLLM/Fun-CosyVoice3-0.5B-2512" rel="nofollow noopener noreferrer"&gt;CosyVoice3-0.5B&lt;/a&gt;.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2506.21619v2" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;IndexTTS2: A Breakthrough in Emotionally Expressive and Duration-Controlled Auto-Regressive Zero-Shot Text-to-Speech&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;IndexTTS2 — авторегрессионная zero-shot TTS-модель, которая решает две ключевые задачи: контроль длительности и разделение управления между идентичностью спикера и эмоцией. Длительность можно задавать явно, подавая в LM число токенов, которые нужно сгенерировать. А использование GRL при обучении для отделения эмоциональных признаков от идентичности спикера позволяет применять два промпта: один для стиля, второй — для тембра. Также предложен способ управления эмоцией по текстовому промпту: знания дистиллируют из DeepSeek-R1, чтобы по тексту предсказывать распределение по семи базовым эмоциям в меньшую LM-модель. На инференсе эмбеддинг эмоции вычисляется как взвешенная сумма фиксированных эмбеддингов, полученных из аудиопримеров для каждой базовой эмоции.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2508.02801v1" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Adaptive Knowledge Distillation for Device-Directed Speech Detection&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;В Apple предлагают детектить обращение к устройству без триггерной фразы — по одной интонации, но с ограничениями (например, режим включается только вскоре после взаимодействия с девайсом), чтобы не ловить лишние срабатывания. Обучают небольшой on-device-энкодер сразу на три задачи: Hey Siri, Siri и интонационную активацию, а качество подтягивают через дистилляцию из замороженного ASR-энкодера на всех уровнях модели. Вывод простой: такая дистилляция заметно улучшает качество, а общий энкодер на несколько триггеров помогает всем задачам. По словам авторов, в телефонах это уже работает, а на колонках пока сложнее из-за данных и краевых случаев.&lt;br&gt;&lt;br&gt;&lt;em&gt;Статьи отобрали &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Дмитрий Попов, Борис Шелудько&lt;/em&gt;&lt;br&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Лучшие статьи 2025 года: выбор авторов Speech Info. Часть 1</title><link>https://t.me/speechinfo/110</link><guid>https://t.me/speechinfo/110</guid><pubDate>Tue, 13 Jan 2026 10:39:01 +0000</pubDate><description>&lt;strong&gt;Лучшие статьи 2025 года: выбор авторов Speech Info. Часть 1&lt;br&gt;&lt;/strong&gt;&lt;br&gt;За прошедший год накопилось много интересных работ на тему голосовых технологий. Статьями, которые стоит перечитать и сохранить, поделились эксперты нашего канала. Продолжать список можно &lt;del&gt;бесконечно&lt;/del&gt; в комментариях.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2508.15882v1" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Beyond Transcription: Mechanistic Interpretability in ASR&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Статья переносит mechinterp-инструментарий из NLP в ASR, делая это системно и на крупных моделях (Whisper-large-v3 и Qwen2-Audio). Авторы адаптируют logit lens, линейные пробы и activation patching под ASR и вводят новый метод Encoder Lens для «развертывания» промежуточных представлений энкодера в текст. Благодаря этому получается показать ряд не описанных ранее явлений (наличие неявной информации в энкодере; возможность предсказывать галлюцинации по residual декодера; механизм повторения токенов в self-attention).&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2501.09258" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Delayed Fusion: Integrating Large Language Models into First-Pass Decoding in End-to-end Speech Recognition&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Авторы предлагают метод delayed fusion для интеграции LLM в первый проход декодирования ASR, который принципиально отличается от классических shallow fusion и N-best rescoring тем, что:&lt;br&gt;1) применяет LLM‑оценки к гипотезам с задержкой и после прунинга в ходе поиска, тем самым резко сокращая число оцениваемых гипотез и LLM-вызовов при сохранении влияния LLM уже на первом проходе;&lt;br&gt;2) позволяет на лету ретокенизировать гипотезы по словесным границам и тем самым без переобучения использовать LLM с другой лексикой/токенизацией, тогда как стандартный shallow fusion требует совпадения словаря ASR и LM или дорогостоящего дообучения;&lt;br&gt;3) вводит настраиваемый механизм управления моментом вызова LLM (стратегии shortest-hypothesis fusion и fixed-interval fusion).&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2511.10289v1" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Music Flamingo: Scaling Music Understanding in Audio Language Models&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Статья о новой ALM, специально заточенной под глубокое понимание музыки, включая вокальные композиции. Основные вклады авторов — создание масштабных датасетов MF-Skills и MF-Think с многоуровневыми описаниями и цепочками рассуждений, основанными на теории музыки, а также предложение поэтапного подхода к обучению, сочетающего дообучение на мультиязычных ASR-данных, тонкую настройку на музыкальных задачах и RL-стадию с GRPO.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2507.18446" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Streaming Sortformer: Speaker Cache-Based Online Speaker Diarization with Arrival-Time Ordering&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Работа о стриминговой диаризации: модель в реальном времени получает аудио и сразу выдаёт вероятности по спикерам, без классического каскада «сегментация → эмбеддинги → кластеризация». Ключевая идея — держать кэш эмбеддингов уже встреченных спикеров и подавать его вместе с текущим аудиофрагментом, постоянно обновляя (спикеры в кэше упорядочены по времени появления). Ограничение простое: число спикеров фиксировано архитектурно — модель нельзя безболезненно перенести на сильно большее количество, чем было на обучении. Зато на нескольких датасетах она обгоняет бейзлайны и прошлую офлайн-версию, оставаясь пригодной для реалтайм-сценариев.&lt;br&gt;&lt;br&gt;Продолжение следует.&lt;br&gt;&lt;br&gt;&lt;em&gt;Статьи отобрали &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Екатерина Козлова, Борис Шелудько&lt;br&gt;&lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>🎉Итоги года: посты, которые были на слуху</title><link>https://t.me/speechinfo/109</link><guid>https://t.me/speechinfo/109</guid><pubDate>Tue, 30 Dec 2025 09:33:44 +0000</pubDate><description>&lt;strong&gt;🎉&lt;/strong&gt;&lt;strong&gt;Итоги года: посты, которые были на слуху&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Хотя Speech Info нет ещё и года, некоторые итоги у нас уже имеются. Например, мы успели написать вместе с экспертами сотню с лишним разборов, осветить несколько крупных конференций (включая Interspeech и ICASSP) и начать собирать сообщество людей, которым интересна тема голосовых технологий. &lt;br&gt;&lt;br&gt;В предновогодней публикации хотим вспомнить посты, которые больше всего читали в 2025-м. Если какой-то из них запомнился вам или, по вашему мнению, в топе чего-то не хватает, приходите делиться в комментарии!&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/speechinfo/9" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Билингвальный ASR — уже в станциях и чате с Алисой&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Важный релиз прошедшего года. Евгений Ганкович рассказал, с какими сложностями столкнулись инженеры группы ASR, пока делали Алису двуязычной. Ещё он поделился тем, как команде удалось не только не просадить, но и улучшить распознавание русского. Все подводные камни процесса — в нашем разборе. &lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/speechinfo/64" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Архитектура KWS от Яндекса: как колонка с Алисой выбирает, куда слушать&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Рассказ о статье &lt;a href="https://arxiv.org/abs/2507.15558" rel="nofollow noopener noreferrer"&gt;Multichannel Keyword Spotting for Noisy Conditions&lt;/a&gt;, которую наши исследователи представили на конференции Interspeech 2025 в Роттердаме. Разбираемся, как устроена архитектура KWS, объединяющая мультиканальный вход и attention-механизм для более точного распознавания голосовых команд в шумных помещениях.&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/speechinfo/26" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Как Яндекс Браузер переводит видео с сохранением оригинальных голосов&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;В посте рассказали детали обновлённой версии перевода видео в Яндекс Браузере. В частности, разобрались за счёт чего технология умеет сохранять тембр и интонации оригинального голоса, а сам перевод стал точнее. Приглашаем освежить в памяти. &lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/speechinfo/38" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Обзор статей с ICASSP 25. Часть 1: шумоподавление в наушниках&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;В апреле в Индии прошла конференция ICASSP 2025, на которой побывал руководитель группы встроенного голосового ввода Алексей Рак. Интересного хватило на серию постов, самым востребованным из которых стал этот — о двух работах на тему шумоподавлении в наушниках.&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/speechinfo/10" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;WavChat: A Survey of Spoken Dialogue Models. Часть 1/4 &lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Никита Рыжиков &lt;del&gt;превзошёл Толкина&lt;/del&gt; написал четырёхчастный пост по следам масштабного обзора разговорных ИИ. Первая часть квадрологии оказалась самой популярной. Как заметил эксперт, несмотря на некоторые самоповторы, эта статья — пока лучшая попытка систематизировать происходящее в мире ALM. Так что приглашаем к чтению. Остальные части: &lt;a href="https://t.me/speechinfo/11" rel="nofollow noopener noreferrer"&gt;вторая&lt;/a&gt;, &lt;a href="https://t.me/speechinfo/33" rel="nofollow noopener noreferrer"&gt;третья&lt;/a&gt; и &lt;a href="https://t.me/speechinfo/34" rel="nofollow noopener noreferrer"&gt;четвёртая&lt;/a&gt;. &lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/speechinfo/6" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Mamba-модели в задачах Speech Enhancement&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Екатерина Кузина разобрала архитектуру Mamba в контексте Speech Enhancement. В посте описан пайплайн модели для таких задач, а также есть наглядное сравнение Mamba-блоков с transformer- и conformer-блоками. Если пропустили пост, зовём наверстывать упущенное.&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/speechinfo/50" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Как TortoiseTTS изменил правила игры в синтезе речи&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Роман Кайль рассказал историю появления TortoiseTTS и то, почему он стал важной вехой для современных TTS-моделей. В посте разбираемся, как комбинация трансформера и диффузии позволила одновременно моделировать интонацию и голос. А ещё — как инженер-одиночка смог собрать рабочую схему на восьми GPU и почему этот подход подхватили большие команды. &lt;br&gt;&lt;br&gt;Желаем отличных праздников и чтобы интересного чтения хватило на все 12 предстоящих месяцев!&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Три идеи на тему обучения speech-моделей</title><link>https://t.me/speechinfo/106</link><guid>https://t.me/speechinfo/106</guid><pubDate>Tue, 23 Dec 2025 09:41:29 +0000</pubDate><description>&lt;strong&gt;Три идеи на тему обучения speech-моделей&lt;/strong&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;Сегодня делимся подборкой трёх концептуально интересных работ про обучение speech-моделей. Первая — о контроле генерации на этапе декодирования, две остальные — о том, как аккуратнее стыковать речь и текст и обучать мультимодальные системы. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2506.00740v1" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Length Aware Speech Translation for Video Dubbing&lt;/strong&gt;&lt;/a&gt; &lt;br&gt;&lt;br&gt;Авторы решают понятную боль: как управлять длиной выходной последовательности (перевода), а не полагаться на эвристики поверх beam search (например, штрафы/нормализации за длину). Нюанс таких эвристик в том, что они часто смещают ранжирование в сторону более коротких или более длинных гипотез.&lt;br&gt;&lt;br&gt;В статье предлагают разбить генерацию на несколько режимов длины: short, normal, long. Вместо стандартного стартового токена (BOS/SOS) декодирование начинается со специального length-тега, и при обучении модель видит такие же теги — в итоге можно явно попросить «короткий» или «длинный» перевод.&lt;br&gt;&lt;br&gt;Отдельно авторы модифицируют beam search: обычно на шаге прунинга оставляют top-k гипотез по скору. А тут при каждом прунинге стараются сохранять минимум по одной гипотезе каждого типа. Это важно для случаев, когда «длинная» ветка обычно не доживает до конца: модель быстро завершает декодирование на коротких вариантах, а потом может выясниться, что более длинный — был бы лучше.&lt;br&gt;&lt;br&gt;Очевидный минус подхода: поддержка длинных гипотез — это дополнительные затраты по производительности, потому что генерация идёт дольше. Но сама идея «контролируем длину явно и держим разные длины в beam search» выглядит практичной.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2506.10299v1" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Scheduled Interleaved Speech-Text Training for Speech-to-Speech Translation with LLMs&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Предположим, у нас есть текстовая LLM, и мы хотим научить систему работать и со звуком. Лобовой вариант — сразу добавить аудио в обучение и перейти в speech-режим. Но такой переход получается слишком резким: до этого модель обучалась только на тексте, а теперь получает аудиопредставления, и на этом стыке всё легко может развалиться.&lt;br&gt;&lt;br&gt;Чтобы этого избежать, текст обычно не убирают сразу, а продолжают подавать его вместе с аудио, постепенно меняя пропорции: сначала почти один текст и немного аудио, потом аудио становится больше, текста меньше — и так далее, вплоть до режима «почти только аудио».&lt;br&gt;&lt;br&gt;Здесь авторы пошли ещё дальше и делают это не на уровне целых примеров, а внутри одного сэмпла: часть токенов — текстовые, часть — аудио. За счёт этого переход получается ещё мягче: сначала в сэмпле почти один текст и немного аудио, потом аудио всё больше. В конце для таких смешанных примеров остаётся только аудио, а также чисто текстовые примеры.&lt;br&gt;&lt;br&gt;&lt;a href="https://www.isca-archive.org/interspeech_2025/su25b_interspeech.html#" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Text-Enhanced Audio Encoder for Large Language Model based Speech Recognition via Cross-Modality Pre-training with Unpaired Audio-Text Data&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Можно отдельно обучать аудиоэнкодер и отдельно — языковую модель, но дальше аудиочасть и LLM всё равно нужно «поженить». Авторы хотят сделать этот стык более гладким: чтобы при совмещении ничего не развалилось и текстовая часть LLM не деградировала.&lt;br&gt;&lt;br&gt;Логика такая: выход аудиоветки дальше подаётся на вход LLM. Авторам важно, чтобы этот вход по форме и свойствам был ближе к тому, к чему LLM привыкла в текстовом режиме. Поэтому они добавляют отдельную текстовую ветку и общую часть — shared transformer blocks. Эти общие блоки обучаются на текстовом сигнале, за счёт этого выходы аудио- и текстовой веток становятся ближе по представлению, так что LLM проще работать с аудиовыходом.&lt;br&gt;&lt;br&gt;Новизна тут скорее в подходе к обучению: вместо полностью раздельной тренировки (когда батчи идут либо аудио-, либо текстовые) в работе допускают совместное использование аудио и текста в одном батче — и за счёт этого обучение получается более стабильным.&lt;br&gt;&lt;br&gt;&lt;em&gt;Евгений Ганкович&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>VibeVoice Technical Report</title><link>https://t.me/speechinfo/105</link><guid>https://t.me/speechinfo/105</guid><pubDate>Wed, 17 Dec 2025 10:46:32 +0000</pubDate><description>&lt;strong&gt;VibeVoice Technical Report&lt;/strong&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;Сегодня разберём &lt;a href="https://arxiv.org/abs/2508.19205" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; о новой модели VibeVoice, которая с помощью next-token-диффузии синтезирует длинную речь от лица нескольких спикеров. &lt;br&gt;&lt;br&gt;Авторы во многом ссылаются на свою предыдущую работу &lt;a href="https://arxiv.org/abs/2412.08635" rel="nofollow noopener noreferrer"&gt;Multimodal Latent Language Modeling with Next-Token Diffusion&lt;/a&gt;, но там речь идёт совсем не о natural speech. Два главных преимущества их новой разработки: &lt;br&gt;&lt;br&gt;— Трансформер, который используется в модели, предсказывает не дискретные токены, а латенты. &lt;br&gt;— VibeVoice может генерировать аудио длительностью до полутора часов.&lt;br&gt;&lt;br&gt;Модель принимает на вход голосовые промпты и текстовые описания. Для того чтобы она лучше понимала контекст, авторы применяют два вида токенизации:&lt;br&gt;&lt;br&gt;— Для дискретных токенов — look-up-table (кодбук, который из токена делает представление). Лосс кросс-энтропийный, получают сэмплированием. &lt;br&gt;— А для непрерывных данных берут 𝜎-VAE-энкодер, который предсказывает что-то похожее на векторные представления. Лосс — L2-диффузионный. &lt;br&gt;&lt;br&gt;Диффузионная голова обучается end2end вместе с трансформером — предсказывает вход для VAE по последнему латенту трансформера.&lt;br&gt;&lt;br&gt;Новая система токенизации сохраняет точность воспроизведения звука и значительно повышает эффективность вычислений при обработке длинных последовательностей. Непрерывность токенов позволяет уменьшить их количество до 7,5 на секунду. Сжатие данных, по сравнению с популярной моделью EnCodec, улучшается в 80 раз. &lt;br&gt;&lt;br&gt;Посмотреть код и послушать демо можно на &lt;a href="https://github.com/microsoft/VibeVoice" rel="nofollow noopener noreferrer"&gt;GitHub&lt;/a&gt; команды. &lt;br&gt;&lt;br&gt;&lt;em&gt;Евгений Шабалин&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Три статьи о новых подходах к обработке речи</title><link>https://t.me/speechinfo/104</link><guid>https://t.me/speechinfo/104</guid><pubDate>Wed, 10 Dec 2025 08:28:01 +0000</pubDate><description>&lt;strong&gt;Три статьи о новых подходах к обработке речи&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Активация устройства без специального слова, новая архитектура для верификации спикера и необычный подход к оптимизации памяти — сегодня разберём несколько идей о том, как работать с речью.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2508.02801" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Adaptive Knowledge Distillation for Device-Directed Speech Detection&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Интонационный споттер от Apple — модель на 5 млн параметров, которая способна по интонации понимать, когда человек обращается к колонке. Авторы утверждают, что она уже используется на некоторых смартфонах. Сейчас в работе версия для колонок, но пока они столкнулись с проблемой в данных, которую не описывают подробно. Можно предположить, что проблема в более сложной акустике.  &lt;br&gt;&lt;br&gt;Модель обучена на нескольких сотнях тысяч размеченных сэмплов и дополнительных псевдолейблах. Авторы одновременно учат и инферят общую тушку для трёх споттеров: Hey Siri, Siri и интонационного. По их словам, это позволяет существенно увеличить качество модели на всех трёх задачах. &lt;br&gt;&lt;br&gt;Ещё очень помогает трёхуровневая дистилляция с ASR. Ученик — конформер. Сверху три адаптера для споттеров, а учитель — ASR на 80 млн параметров, 12 conformer-слоёв и энкодер.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2412.10989" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;MASV: Speaker Verification With Global And Local Context Mamba&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Технология верификации голоса для смарт-очков от Meta* — стриминговая модель MASV, новая архитектура, в которой блоки ECAPA-TDNN дополняются Mamba-модулем. Такая комбинация позволяет учитывать и локальные, и глобальные зависимости, но остаётся достаточно лёгкой для того, чтобы работать на устройствах с ограниченными ресурсами и с длинными аудиовходами.&lt;br&gt;&lt;br&gt;Модель оценивали на внутренних данных: в студийных условиях записали около 5 млн высказываний от 30 тысяч человек. Датасет получился действительно большим, качество предложенной модели на нём выглядит высоким. Но без оценки на реальных пользовательских сценариях для смарт-очков результаты могут оказаться нерепрезентативными: студийная запись на один микрофон не отражает типичные режимы работы устройства. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/pdf/2505.21237" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Unfolding A Few Structures for The Many: Memory-Efficient Compression of Conformer and Speech Foundation Models&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Необычный подход к оптимизации памяти, которую модель потребляет во время инференса. Вместо того чтобы хранить десятки отдельных слоёв, авторы обучают небольшой трансформер с несколькими блоками так, чтобы одни и те же слои можно было последовательно использовать несколько раз. На инференсе это даёт логически более глубокую сеть без добавления новых параметров.&lt;br&gt;&lt;br&gt;Большую модель и её варианты с разной логической глубиной тренируют совместно в одном цикле. Чтобы выровнять их поведение друг относительно друга, авторы добавляют самодистилляцию: минимизируют KL-дивергенцию между самой глубокой и самой короткой конфигурациями.&lt;br&gt;&lt;br&gt;Качество компактной модели заметно уступает исходной глубокой архитектуре. Но при логическом дублировании слоёв (многократном прохождении через одни и те же блоки), сжатая модель практически догоняет большую, при этом потребляя меньше памяти.&lt;br&gt;&lt;br&gt;&lt;em&gt;Борис Шелудько&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;&lt;em&gt;&lt;br&gt;&lt;/em&gt;&lt;br&gt;&lt;em&gt;* Компания Meta&lt;/em&gt; &lt;em&gt;признана экстремистской; её деятельность в России запрещена.&lt;/em&gt;</description></item><item><title>BFA: Real-time Multilingual Text-to-Speech Forced Alignment</title><link>https://t.me/speechinfo/103</link><guid>https://t.me/speechinfo/103</guid><pubDate>Tue, 02 Dec 2025 10:51:50 +0000</pubDate><description>&lt;strong&gt;BFA: Real-time Multilingual Text-to-Speech Forced Alignment&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разберём &lt;a href="https://arxiv.org/abs/2509.23147v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; о Bournemouth Forced Aligner (BFA) — достойном преемнике знаменитого Montreal Forced Aligner (MFA).&lt;br&gt;&lt;br&gt;Forced Alignment — это процедура определения временных границ фонем в аудио. Долгое время популярным решением был точный, но медленный MFA на HMM-GMM. Современные нейросетевые решения, вроде WhisperX, быстрее, но часто уступают старичку MFA в качестве. Приходится выбирать: либо скорость, либо точность. Новая статья о BFA предлагает решение этой проблемы.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Что под капотом&lt;/strong&gt;&lt;br&gt;&lt;br&gt;&lt;strong&gt;1. Contextless Universal Phoneme Encoder (CUPE).&lt;/strong&gt; Энкодер анализирует акустику каждого фрейма «без контекста», то есть независимо от соседних фонем. Это ключевое отличие от классических моделей, использующих трифоны, и одна из главных причин прироста скорости. Универсальность достигается за счёт обучения на широком наборе фонем из разных языков (LibriSpeech, MLS), что позволяет модели отлично обобщаться. Авторы показали, что модель, обученная на семи европейских языках (без английского), успешно справляется с выравниванием английской речи.&lt;br&gt;&lt;br&gt;&lt;strong&gt;2. CTC-декодер.&lt;/strong&gt; CTC-алгоритм выравнивает последовательность фонем относительно аудио, но авторы модифицировали его для forced alignment. Целевая последовательность для декодера строится как [blank, p1, blank, p2, ...]. Эти blank-токены между фонемами используются для явного моделирования пауз и межфонемных промежутков.&lt;br&gt;&lt;br&gt;&lt;strong&gt;3. Multi-task-обучение&lt;/strong&gt;. Используется архитектура с двумя головами: одна для 67 классов фонем, другая для 17 укрупнённых фонемных групп.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Что это даёт на практике&lt;br&gt;&lt;/strong&gt;&lt;br&gt;&lt;strong&gt;Предсказание onset и offset. &lt;/strong&gt;Это главная фишка. BFA предсказывает не только начало, но и конец каждой фонемы, что позволяет моделировать межфонемные паузы в отличие от традиционных алайнеров. &lt;br&gt;&lt;br&gt;&lt;strong&gt;Отличная скорость.&lt;/strong&gt; За счёт бесконтекстной архитектуры BFA работает до 240 раз быстрее MFA. Например, обработка корпуса Buckeye занимает 1 час против 7 дней у MFA. &lt;br&gt;&lt;br&gt;&lt;strong&gt;Умный декодинг.&lt;/strong&gt; Система использует иерархический подход (divide-and-conquer), разбивая аудио по найденным паузам на независимые сегменты и выравнивая каждый отдельно. Специальный постпроцессинг гарантирует, что 100% фонем из транскрипции будут найдены и расставлены в аудио.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Что по метрикам&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Recall у BFA сопоставим с MFA, особенно на разумных порогах в 40–60 мс. Precision получился чуть ниже, но авторы заявляют, что это ожидаемый эффект: BFA предсказывает вдвое больше границ (onset + offset), а сравнивается с эталонной разметкой, где есть только onset.&lt;br&gt;&lt;br&gt;И да, название BFA выбрано не случайно: авторы продолжают традицию называть форс-алайнеры в честь города или университета, где над ними ведётся основная работа. Так Montreal Forced Aligner был связан с Монреалем, а Bournemouth Forced Aligner назван в честь Борнмута.&lt;br&gt;&lt;br&gt;&lt;em&gt;Владимир Гогорян&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>OmniVinci: Enhancing Architecture and Data for Omni-Modal Understanding LLM [2/2]</title><link>https://t.me/speechinfo/100</link><guid>https://t.me/speechinfo/100</guid><pubDate>Thu, 27 Nov 2025 08:17:01 +0000</pubDate><description>&lt;strong&gt;OmniVinci: Enhancing Architecture and Data for Omni-Modal Understanding LLM [2/2]&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Во второй части обзора &lt;a href="https://arxiv.org/abs/2510.15870v2" rel="nofollow noopener noreferrer"&gt;статьи&lt;/a&gt; мы подробно поговорим о тренировке модели и разберём разницу между implicit и explicit learning.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Обучение модели&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Обучение модели можно разделить на два больших этапа — modality-specific и omni-modal части соответственно, LLM-backbone при этом берётся предобученная (авторы используют Qwen2.5-7B-Instruct).&lt;br&gt;&lt;br&gt;Обучение vision-модулей состоит из следующих стадий:&lt;br&gt;&lt;br&gt;- Stage 1: Vision Projector Alignment — учится только vision-проектор, решается задача генерации простых описаний.&lt;br&gt;- Stage 2: Vision Encoder Alignment — учатся vision-энкодер и vision-проектор.&lt;br&gt;- Stage 3: Vision Pre-training — core-стадия, vision-энкодер заморожен, цель — finetune vision-проектора и LLM. Используются мультимодальные данные, модель учится интерпретировать и генерировать подписи к картинкам.&lt;br&gt;- Stage 4: Image Instruction Tuning — finetune модели на задачи vision instruction following: ответы на общие и knowledge-based-вопросы, генерация сложных подписей, logical и vision reasoning, интерпретация документов, обработка диаграмм, etc. Учатся все модули.&lt;br&gt;- Stage 5: Video Instruction Tuning — финальная стадия, все части модели учатся на задачу понимания видео (распознавание активности (activity recognition); трекинг объекта во времени (по фреймам), time-sensitive QA). Цель —  получить у модели способность к temporal reasoning. &lt;br&gt;&lt;br&gt;После vision-этапа авторы получают «vision preliminary checkpoint» — достаточно хорошо обученные на vision-задачи энкодер, проектор и LLM. &lt;br&gt;&lt;br&gt;Обучение аудиомодулей делится на две стадии:&lt;br&gt;&lt;br&gt;- Stage 1: Audio Projector &amp;amp; Encoder Alignment. Параметры LLM и vision-части заморожены, учимся на задачи audio-based QA, captioning, ASR. Цель — обучить проектор аудиопредставлениям, согласованным с семантическим пространством языковой модели.&lt;br&gt;- Stage 2: Audio Instruction Tuning: параметры LLM не заморожены, LLM учится вместе с аудиоэнкодером и аудиопроектором. Учимся на все те же задачи + на задачу перевода речи; идея стадии в том, что разнообразные аудиальные задачи при обученном проекторе помогут аудиоэнкодеру выучить и низкоуровневые акустические признаки, и высокоуровневые семантические представления. &lt;br&gt;&lt;br&gt;&lt;strong&gt;Omni-Modal Joint Training &lt;/strong&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;Во время мультимодального этапа обучения vision- и аудиоэнкодеры заморожены, учатся все остальные модули (OmniAlignNet, проекторы и LLM). В статье описываются два подхода: implicit и explicit learning. Implicit learning использует существующие датасеты Video QA, где модель неявно учится интегрировать обе модальности, не получая однозначной информации о том, какая часть ответа взята из видеоряда, а какая — из звука. Explicit learning использует синтетические данные, в которых указывается взаимосвязь между модальностями. Главная разработка авторов — data engine, генерирующий отдельные описания для видео и аудио, а затем использующий LLM с ризонингом (Deepseek R1) для создания объединенных подписей, указывающих на то, как визуальная и аудиальная информация дополняют друг друга. Проблема, которую решает этот подход — устранение «modality-specific hallucination» (fig 1). Ключевой вывод мультимодальной стадии: описание видео, основанное на одной модальности, часто неточно; интеграция обеих модальностей критична, и explicit learning эффективно решает эту задачу (fig 2).&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Финальная стадия обучения включает RL с использованием GRPO. Важный результат: GRPO на audio-visual-данных сходится быстрее и качественнее, чем на чисто визуальных, что подтверждает ценность мультимодального подхода (fig 3).&lt;br&gt;&lt;br&gt;&lt;strong&gt;Заключение&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В статье OmniVinci представлен комплексный подход к созданию мультимодальных языковых моделей, включающий архитектурные инновации и продуманную стратегию обучения с разделением на modality-specific- и omni-modal-этапы. Ключевой вклад — систематическое исследование подходов к мультимодальному обучению. Авторы демонстрируют, что explicit learning с синтетическими данными эффективнее решает проблему modality-specific hallucination и улучшает общее качество модели.&lt;br&gt;&lt;br&gt;&lt;em&gt;Екатерина Козлова&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>OmniVinci: Enhancing Architecture and Data for Omni-Modal Understanding LLM [1/2]</title><link>https://t.me/speechinfo/97</link><guid>https://t.me/speechinfo/97</guid><pubDate>Wed, 19 Nov 2025 10:19:17 +0000</pubDate><description>&lt;strong&gt;OmniVinci: Enhancing Architecture and Data for Omni-Modal Understanding LLM [1/2]&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня начинаем разбирать &lt;a href="https://arxiv.org/abs/2510.15870v2" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt;, представляющую OmniVinci — мультимодальную LLM от Nvidia, сравнимую по качеству с SOTA-моделями на бенчмарках всех модальностей. Главным вкладом своей работы авторы считают не столько численные результаты на бенчмарках, сколько тот факт, что в техрепорте они объясняют все дизайн-решения, связанные с архитектурой модели и сбором данных для тренировки. Одно из таких экспериментально подтвержденных решений — использование в качестве аудиоэнкодера энкодера из Audio Flamingo 3 (альтернативой выступал аудиоэнкодер Qwen2.5). Но особое внимание авторы уделяют трём идеям: OmniAlignNet, Temporal Embedding Grouping и Constrained Rotary Time Embedding — о них и пойдёт речь в посте.&lt;br&gt;&lt;br&gt;&lt;strong&gt;OmniAlignNet&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В процессе обучения модели каждое видео разбивается на аудиопоток и поток изображений; при этом семантически эти потоки связаны, так как звук может дополнять картинку (и наоборот). Чтобы аудиоэмбеддинги и эмбеддинги картинок были в одном латентном пространстве, модели и нужен модуль OmniAlignNet. &lt;br&gt;&lt;br&gt;Общий пайплайн работы модуля выглядит следующим образом:&lt;br&gt;&lt;br&gt;1) для аудиального и визуального потоков получаем последовательность эмбеддингов;&lt;br&gt;&lt;br&gt;2) используем эти последовательности как key-value-эмбеддинги для cross attention; смешиваем их с query-эмбеддингом (свой для каждого потока) и получаем для каждого видео два мультимодальных эмбеддинга (audio-omni и visual-omni);&lt;br&gt;&lt;br&gt;3) мультимодальные эмбеддинги прогоняем через три self-attention-слоя и L2-норму;&lt;br&gt;&lt;br&gt;4) для батча мультимодальных эмбеддингов максимизируем кросс-модальное расстояние (скалярное прооизведение) для эмбеддингов, соответствующих разным сэмплам, и минимизируем в обратном случае (для эмбеддингов, соответствующих одинаковым сэмплам) — contrastive loss, похожий на то, что было в CLIP (симметричная кросс-энтропия из vision в audio и наоборот).&lt;br&gt;&lt;br&gt;OmniAlignNet хорошо справляется с моделированием верхнеуровневых семантических связей между аудиальными и визуальными эмбеддингами. При этом для того, чтобы моделировать более низкоуровневые связи, авторы предлагают два вида преобразования эмбеддингов, речь о которых пойдет дальше.  &lt;br&gt;&lt;br&gt;&lt;strong&gt;TEG: Temporal Embedding Grouping&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Идея TEG в том, что правильное упорядочивание эмбеддингов разных модельностей помогает языковой модели лучше улавливать локальные смысловые зависимости. Гиперпараметр этого метода — размер временного окна T_g, которое контролирует гранулярность группировки эмбеддингов: эмбеддинги делятся на чанки размером T_g; модальности внутри чанков чередуются. &lt;br&gt;&lt;br&gt;Авторы утверждают, что такая гранулярная конкатенация эмбеддингов улучшает качество модели по сравнению с подходом, где эмбеддинги конкатенируются крупными блоками (блок vision →  блок audio →  блок vision…).&lt;br&gt;&lt;br&gt;&lt;strong&gt;Constrained Rotary Time Embedding (CRTE)&lt;br&gt;&lt;/strong&gt;&lt;br&gt;CRTE — это модификация Rotary Time Embeddings (RoTE, не путать с RoPE), трёхстадийный процесс, состоящий из генерации базовых частот, модификации этих частот и rotary-части, т.е. поворота эмбеддингов. &lt;br&gt;&lt;br&gt;На этапе генерации базовых частот в CRTE предлагается добавить гиперпараметр T_max — этот множитель добавляется в знаменатель при вычислении базовых частот. Чем меньше T_max, тем больше учитываются близкие друг другу эмбеддинги (и наоборот): w_i = 2π/(T_max·θ^(i/C)).&lt;br&gt;&lt;br&gt;На этапе модификации базовых частот CRTE продолжает идею RoTE: для определения углов поворота эмбеддингов используются настоящие расстояния в секундах, в отличие от дискретных позиций у RoPE: Ω_{i,j} = ω_i · t_j, где t_j — реальная временная метка.&lt;br&gt;&lt;br&gt;Авторы проводят ablation study и доказывают, что все предложенные модификации действительно улучшают качество модели на мультимодальных бенчмарках (см. третий скриншот). &lt;br&gt;&lt;br&gt;В продолжении разбора мы подробнее расскажем, какие ещё эксперименты были проведены авторами статьи, а также о разнице между implicit learning и explicit learning у мультимодальных моделей.&lt;br&gt;&lt;br&gt;&lt;em&gt;Екатерина Козлова&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Vevo2: Bridging Controllable Speech and Singing Voice Generation via Unified Prosody Learning</title><link>https://t.me/speechinfo/95</link><guid>https://t.me/speechinfo/95</guid><pubDate>Wed, 12 Nov 2025 11:07:32 +0000</pubDate><description>&lt;strong&gt;Vevo2: Bridging Controllable Speech and Singing Voice Generation via Unified Prosody Learning&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Разбираем &lt;a href="https://arxiv.org/pdf/2508.16332v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; о Vevo2 — унифицированной модели для генерации контролируемой речи и пения. Цель авторов — создать гибкий механизм независимого управления текстом, просодией (мелодией), стилем (акцентом, эмоциями, вибрато) и тембром для обеих модальностей. В этом посте разберём вклад, который работа вносит в индустрию.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Вклад в данные для пения&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Во-первых, авторы решают проблему дефицита аннотированных данных для пения. Предлагаются два аудиотокенизатора (не требующих ручной аннотации для музыкальных данных):&lt;br&gt;&lt;br&gt;— Prosody Tokenizer (6.25 Гц) — VQ-VAE, обучаемый на реконструкции хромаграммы; кодирует просодию речи, мелодию пения и даже инструментальных звуков.&lt;br&gt;— Content-Style Tokenizer (12.5 Гц) — VQ-VAE, реконструирующий хромаграмму и скрытые состояния Whisper; кодирует лингвистический контент, просодию и стиль для речи и пения, устойчив к различному тембру, что авторы демонстрируют результатами в Voice Conversion.&lt;br&gt;&lt;br&gt;Выбор хромаграммы с низкой частотой обусловлен простотой расчёта, устойчивостью к шуму и различным источникам, а также octave-free-представлением (снижает разрыв диапазона F0 между речью и пением).&lt;br&gt;&lt;br&gt;&lt;strong&gt;Архитектура Vevo2 включает два этапа:&lt;br&gt;&lt;/strong&gt;&lt;br&gt;1. Авторегрессивное моделирование Content-Style-токенов (AR-трансформер, инициализированный Qwen 2.5 (0,5B):&lt;br&gt;&lt;br&gt;— На вход принимает текст + (опционально) Prosody-токены + Content-Style токены референса.&lt;br&gt;— Поддерживает Explicit Prosody Learning (EPL) (просодия как явный ввод) и Implicit Prosody Learning (IPL) (просодия генерируется in-context).&lt;br&gt;— Во время претрейна стратегии EPL/IPL чередуются равновероятно для всех данных — это унифицирует обучение речи и пения.&lt;br&gt;&lt;br&gt;2. Акустическое моделирование (Flow-Matching):&lt;br&gt;— Преобразует Content-Style-токены в мел-спектрограмму, обуславливаясь на референс тембра.&lt;br&gt;— Финальный waveform — через Vocos-вокодер, дообученный на речь и пение.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Вклад в пострейн (GRPO)&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Этот этап нужен для повышения разборчивости речи и просодической схожести с контролирующей последовательностью, а также для обобщения на инструментальные источники мелодии.&lt;br&gt;&lt;br&gt;Используется сумма двух наград:&lt;br&gt;— Intelligibility Reward: обучается на контрастив хороших-плохих пар (текст, Content-Style токены). Стратегии EPL/IPL как и на претрейне чередуются равновероятно.&lt;br&gt;— Prosody Similarity Reward: косинусная близость между хромаграммой ground-truth и реконструкцией (через декодер Content-Style Tokenizer) из сгенерированных Content-Style-токенов.&lt;br&gt;&lt;br&gt;Унифицированное моделирование даёт взаимные преимущества: обилие речевых данных улучшает качество пения, пение — выразительность и просодический контроль речи. Vevo2 достигает SOTA в SVS, SVC, humming-to-singing, instrument-to-singing и близких к лучшим результатов в TTS/VC.&lt;br&gt;&lt;br&gt;&lt;em&gt;Дмитрий Попов&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Qwen3-Omni Technical Report [2/2]</title><link>https://t.me/speechinfo/94</link><guid>https://t.me/speechinfo/94</guid><pubDate>Thu, 06 Nov 2025 12:20:15 +0000</pubDate><description>&lt;strong&gt;Qwen3-Omni Technical Report [2/2]&lt;/strong&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;Продолжаем разбор &lt;a href="https://arxiv.org/html/2509.17765v1" rel="nofollow noopener noreferrer"&gt;техрепорта&lt;/a&gt; Qwen3-Omni. В первой части &lt;a href="https://t.me/speechinfo/93" rel="nofollow noopener noreferrer"&gt;рассказали&lt;/a&gt; об архитектурных отличиях от Qwen2.5-Omni.&lt;br&gt;&lt;br&gt;В генерации аудио также произошли изменения. Помимо Talker, используются ещё две модели: MTP-модуль (авторегрессионная dense-модель размером 80М) и Code2Wav (декодер для кодеков, сверточная модель размером 200М), которые работают с RVQ-токенами (Residual Vector Quantization). Схема работы следующая:&lt;br&gt;&lt;br&gt;- Поверх Talker есть линейный слой, который предсказывает нулевой кодбук.&lt;br&gt;- С помощью MTP-модели, вместо того, чтобы предсказывать оставшиеся RVQ-токены последовательно, предсказываются сразу все — по аналогии с multi token prediction (такой подход используется, например, в Deepseek).&lt;br&gt;- Полученные RVQ-токены подаются в модель Code2Wav, которая преобразует их в вейвформу. Этот подход эффективнее, чем в Qwen2.5-Omni, где использовались трансформерные модели для отображения в мел-спектрограмму и только затем — в вейвформу.&lt;br&gt;&lt;br&gt;Как и в случае Qwen2.5-Omni, значительная часть статьи уделена тому, как модель стримится. Авторы вновь используют асинхронный prefilling. Как только Thinker заканчивает prefilling для текущего чанка, его выходы отдаются в Talker, чтобы он тоже мог начать prefilling. При этом Thinker уже начинает обрабатывать следующий чанк.&lt;br&gt;&lt;br&gt;Также исследователи заявляют, что используют только левый контекст для генерации аудио, в отличие от Qwen2.5-Omni, где создавалась задержка из-за того, что необходимо было накопить немного правого контекста. &lt;br&gt;&lt;br&gt;Как и для Qwen2.5-Omni, предобучение проходит в три этапа:&lt;br&gt;&lt;br&gt;- На первом замораживается LLM и обучаются только энкодеры и адаптеры для них (Encoder Alignment Stage). Причём начинают именно с адаптеров. В качестве инициализации для LLM используется Qwen3, для энкодера изображений — Qwen3-VL, для энкодера аудио — новый аудиоэнкодер, который обучили ранее.&lt;br&gt;- На второй стадии все параметры размораживаются, добавляются более разнообразные мультимодальные данные и задачи.&lt;br&gt;- На третьем этапе увеличивается контекстное окно с 8192 до 32768 токенов, чтобы модель могла обрабатывать длинные входы. Также в данные добавляются более длинные аудио/видео.&lt;br&gt;&lt;br&gt;Дальше начинается post-training, который разделён для Thinker и Talker. &lt;br&gt;&lt;br&gt;Для Thinker была только одна стадия — SFT (supervised fine-tuning), теперь добавлены ещё две: дистилляция, которая используется для получения более компактных LLM (по принципу Strong-to-Weak Distillation из Qwen3), и RL (GSPPO) — обучение с подкреплением, где оценивается качество отклика модели. Для задач с чёткими критериями (mathematics, coding) применяются награды, которые вычисляются по заранее заданным правилам. Для остальных задач, где сложно сформулировать чёткую награду, используется подход LLM-as-a-judge, где для оценки ответа модели используются Qwen3 и Qwen2.5-VL.&lt;br&gt;&lt;br&gt;Для Talker раньше было три стадии, теперь — четыре. Первая — предварительное обучение на большом объёме данных с мультимодальным контекстом; вторая — добавление более качественных данных для борьбы с галлюцинациями после первой стадии; затем DPO (Direct Preference Optimization) и Speaker Fine-Tuning, чтобы Talker научился копировать тембр и интонации во время генерации аудио.&lt;br&gt;&lt;br&gt;В качестве бонуса исследователи выпустили в опенсорс Qwen3-Omni-30B-A3B-Captioner — модель для решения задачи audio captioning на основе Qwen3-Omni-30B-A3B.&lt;br&gt;&lt;br&gt;В результатах показано, что модель не теряет в качестве по сравнению с немультимодальными: сильна в ASR (китайский, английский), превосходит в музыкальных задачах, держит SOTA в тексте и визуале и поддерживает межъязыковой voice cloning.&lt;br&gt;&lt;br&gt;&lt;em&gt;Александр Паланевич&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Qwen3-Omni Technical Report [1/2]</title><link>https://t.me/speechinfo/93</link><guid>https://t.me/speechinfo/93</guid><pubDate>Fri, 31 Oct 2025 12:18:01 +0000</pubDate><description>&lt;strong&gt;Qwen3-Omni Technical Report [1/2]&lt;/strong&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;Сегодня начинаем разбирать &lt;a href="https://arxiv.org/html/2509.17765v1" rel="nofollow noopener noreferrer"&gt;техрепорт&lt;/a&gt; Qwen 3 Omni — самого нового мультимодального Qwen. Авторы заявляют, что модель достигает SOTA-результатов или близких к ним сразу на всех типах данных. Качество не ухудшается ни в одном направлении по сравнению с немультимодальными моделями Qwen. Другими словами, Qwen 3 Omni показывает качество на тексте не хуже, чем текстовая версия Qwen 3 или визуальная Qwen 3-VL, при сопоставимых размерах моделей.&lt;br&gt;&lt;br&gt;Из интересных нововведений: модель умеет обрабатывать очень длинные входы — до 40 минут. Также она поддерживает большое количество языков: как для взаимодействий текстом (119), так и в задачах speech-understanding (19) или speech-generation (10). В статье отмечается, что улучшен ризонинг независимо от модальности входа, а latency остаётся низкой — всё работает достаточно быстро.&lt;br&gt;&lt;br&gt;Идейно Qwen 3 Omni очень похож на Qwen 2.5 Omni:&lt;br&gt;&lt;br&gt;— Используется Thinker-Talker-архитектура. Thinker — языковая модель, которая умеет принимать на вход данные разных модальностей и выдавать текст. Talker принимает выходы Thinker и генерирует аудио. Важное отличие от предыдущего Qwen в том, что теперь Thinker/Talker — это MoE-модели (Mixture of Experts).&lt;br&gt;&lt;br&gt;— Разные модальности кодируются за счёт соответствующих энкодеров. В Qwen 3 Omni эти энкодеры обновили: для картинок вместо Qwen 2.5 VL используется Qwen 3 VL, а для аудио авторы обучили свой энкодер с нуля.&lt;br&gt;&lt;br&gt;Одно из основных отличий новой модели от 2.5 Omni заключается в том, как выходы Thinker подаются в Talker. Для изображений и аудио по-прежнему используют хиддены Thinker для соответствующих модальностей, а вот текст теперь передаётся в виде обычных текстовых эмбеддингов. По словам авторов, эмбеддинги уже достаточно хорошо отражают текст, а скрытые состояния избыточны. Такой подход делает систему гибче: можно использовать разные промпты для Thinker и Talker или добавлять дополнительный контекст (например, через RAG), не ухудшая качество.&lt;br&gt;&lt;br&gt;Как уже упоминалось, в статье используется новый аудиоэнкодер: вместо дообучения Whisper, авторы обучают свою encoder-decoder-модель с нуля. Из интересного в плане архитектуры можно выделить более сильный downsampling factor: 8 вместо 4 (то есть применяется более сжатое представление в аудиомодальности, фреймы по 80 мс вместо 40 мс).&lt;br&gt;&lt;br&gt;Для обучения под разные задачи использовали 20 млн часов аудио. Из них 80% — задача ASR на китайские и английские псевдолейблы, 10% — задача ASR для других языков и ещё 10% — задача audio understanding. Во время обучения используется window attention с разными размерами окна, чтобы модель могла одинаково хорошо работать и в офлайн-сценариях (с большим контекстом), и в стриминговом режиме (с коротким). После обучения декодер выбрасывается, а энкодер используется для кодирования аудио в самом Qwen 3 Omni.&lt;br&gt;&lt;br&gt;Основное изменение для видеомодальности заключается в том, как видео подаётся на вход модели. Теперь изображения и аудио чередуются не фиксированными двухсекундными блоками, как раньше, а динамически — в потоке, с гибким соотношением кадров, что делает мультимодальный стриминг более естественным.&lt;br&gt;&lt;br&gt;В следующей части поговорим о том, как в новой модели поменялась генерация аудио, как проходило предобучение и что авторы говорят о результатах.&lt;br&gt;&lt;br&gt;&lt;em&gt;Александр Паланевич&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Три идеи для улучшения ASR: DuRep, OWSM-Biasing и Pinyin-Guided ASR</title><link>https://t.me/speechinfo/90</link><guid>https://t.me/speechinfo/90</guid><pubDate>Mon, 20 Oct 2025 12:32:48 +0000</pubDate><description>&lt;strong&gt;Три идеи для улучшения ASR: DuRep, OWSM-Biasing и Pinyin-Guided ASR&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня делимся подборкой трёх свежих работ по архитектурам и подходам в распознавании речи. Все они так или иначе решают задачу повышения устойчивости и адаптивности моделей.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/pdf/2505.19774" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;DuRep: Dual-Mode Speech Representation Learning via ASR-Aware Distillation&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Команда из Amazon предложила пайплайн для обучения, который включает несколько стадий. Сначала используется BestRQ pretraining, затем проводится full-context fine-tuning — тут ничего нового. Но дальше начинается интересное: авторы предлагают особый тип дистилляции, по сути дополнительный претрейн, после которого уже выполняется финальная настройка.&lt;br&gt;&lt;br&gt;Под dual-mode здесь понимается не «аудио–текст», как может показаться, а режим, объединяющий стриминг и full-context. У исследователей есть full-context-энкодер, и они хотят получить dual-mode-энкодер, который можно использовать как претрейн. Для этого применяют кодбук и токенизацию, обучаясь с кросс-энтропийной функцией потерь — почти как в обычном претрейне.&lt;br&gt;&lt;br&gt;Ключевой нюанс — жонглирование масками. Они рандомизируют как левый, так и правый контексты при обучении, что помогает улучшить качество кодирования.&lt;br&gt;&lt;br&gt;Для стриминга это работает, потому что модель учится с учителем, имеющим полный контекст, и получает больше информации. Для full-context улучшения можно объяснить тем, что дистилляция с варьирующимися масками предотвращает переобучение: датасет у авторов не слишком сложный, и такая регуляризация помогает повысить общую устойчивость модели.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/pdf/2506.09448" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;OWSM-Biasing: Contextualizing Open Whisper-Style Speech Models for Automatic Speech Recognition with Dynamic Vocabulary&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Основная идея статьи в том, чтобы к seq2seq-модели добавить biasing list, который позволяет учитывать редкие или специфические слова (например, имена собственные). Редкие слова обычно разбиваются на несколько BPE-токенов, что мешает корректному распознаванию. Чтобы избежать этого, каждое слово из biasing list представляется как единый токен — элемент динамического словаря (&amp;lt;Raphael&amp;gt;, &amp;lt;Nelly&amp;gt; и т.д.).&lt;br&gt;&lt;br&gt;Выходная матрица логитов расширяется за счёт этих слов, что позволяет модели напрямую предсказывать редкие слова как единые токены. Обучаются при этом только эмбеддинги и, по сути, деэмбеддинги.&lt;br&gt;&lt;br&gt;Нюанс в том, что при генерации декодеру приходится выдавать такие токены, опираясь только на сигнал от biasing encoder. Это необычно, но при хорошем обучении, вероятно, сработает.&lt;br&gt;&lt;br&gt;Во время тренировки в biasing list случайно добавляют слова из обучающего набора, чтобы модель училась работать с разнообразными словами.&lt;br&gt;&lt;br&gt;&lt;a href="https://www.isca-archive.org/interspeech_2025/zhengjie25_interspeech.pdf" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Pinyin-Guided Chinese Speech Recognition with Large Language Model&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Пиньинь — это упрощённая запись китайских иероглифов латинскими буквами (иногда с цифрами, обозначающими тоны). По сути, авторы обучают ASR-модель на базе LLM. &lt;br&gt;&lt;br&gt;Китайские иероглифы могут произноситься по-разному, и здесь возникает дисбаланс: прозвучало одно, записано другое — модель может путаться. Поэтому авторы предлагают ввести промежуточное состояние: сначала модель выдаёт pinyin-токены, которые напрямую отражают произнесённое, а уже потом конвертирует их в целевые токены — сами китайские иероглифы.&lt;br&gt;&lt;br&gt;Концептуально интересно, что модель фактически делает нечто вроде ризонинга: не выдаёт результат сразу, а проходит через дополнительный слой осмысления.&lt;br&gt;&lt;br&gt;Идею можно применять и в других задачах: например, в переводе — сначала генерировать промежуточные слова на исходном языке, затем переводить; в музыке — восстанавливать произнесённые названия треков через промежуточное фонетическое представление; аналогично и с англицизмами — сначала фиксировать звучание, потом корректировать форму.&lt;br&gt;&lt;br&gt;&lt;em&gt;Евгений Ганкович &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Работы об аудиокодеках и новых подходах к сжатию речи</title><link>https://t.me/speechinfo/89</link><guid>https://t.me/speechinfo/89</guid><pubDate>Mon, 13 Oct 2025 10:05:17 +0000</pubDate><description>&lt;strong&gt;Работы об аудиокодеках и новых подходах к сжатию речи&lt;/strong&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;Большинство статей на конференции Interspeech традиционно представлены академией. В силу ограниченности ресурсов в них нет результатов обучения на действительно больших датасетах или надёжных асессорских замеров. Поэтому их можно рассматривать скорее в качестве источника идей, чем как решения для продакшна. Сегодня разберём несколько таких работ.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2410.15764" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;LSCodec: Low-Bitrate and Speaker-Decoupled Discrete Speech Codec&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Авторы исходят из того, что кодирование в последовательности токенов глобальной, не зависящей от времени информации приводит к её дублированию для каждого таймстемпа и лишней трате capacity. Оптимальнее кодировать только то, что меняется со временем, а остальное передавать отдельно — в виде фиксированного вектора.&lt;br&gt;&lt;br&gt;В качестве глобальной информации в работе используют тембр голоса спикера. Обучающий сэмпл включает два аудио: таргет и промпт от того же спикера. Перед подачей в энкодер тембр таргета искусственно искажается, а декодеру дополнительно передаются SSL-фичи промпта через position-agnostic cross-attention. Модель учится предсказывать мел-спектрограмму и SSL-семантические токены исходного таргета (до искажения).&lt;br&gt;&lt;br&gt;В результате выход энкодера не содержит информации о тембре таргета, и декодер учится извлекать её из промпта (а благодаря боттлнеку эта информация не зашивается в токены энкодера). При этом position-agnostic attention предотвращает утечку из промпта остальной, зависящей от времени, информации.&lt;br&gt;&lt;br&gt;Статья интересна идейно, но использование в качестве глобальной информации только тембра кажется слишком ограничивающим. В списке ссылок приведена работа с ICASSP 2024 с аналогичной мотивацией, но более общим подходом.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2310.00014" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Fewer-token Neural Speech Codec with Time-invariant Codes&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Архитектура учится end-to-end и состоит из нескольких частей: энкодер и квантайзер для токенов переменной длины; энкодер (с average pooling на последнем слое), квантайзер для фиксированного глобального вектора и совместный декодер.&lt;br&gt;&lt;br&gt;Чтобы закодировать в глобальном векторе именно не зависящую от времени информацию, добавляется дополнительная компонента лосса. Вычисляется глобальный вектор для другого аудио того же спикера и минимизируется косинусное расстояние между ним (с навешенным stop-gradient) и глобальным вектором таргета. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2506.16538" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Towards Bitrate-Efficient and Noise-Robust Speech Coding with Variable Bitrate RVQ&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Статья содержит две основные идеи.&lt;br&gt;&lt;br&gt;Мотивация первой: в токенах можно не кодировать информацию о шуме, тем самым объединив задачи кодирования и enhancement и дополнительно сэкономив capacity.&lt;br&gt;&lt;br&gt;Модель учится в две стадии. На первой кодек просто обучается на чистых данных. На второй — его учат удалять из токенов данные о шуме, то есть получать одинаковые токены для чистого и шумного аудио. Для этого в энкодер добавляют новый denoising-слой, а во время обучения искусственно зашумляют каждое аудио и добавляют к лоссу дополнительную компоненту: L1-расстояние между входом denoising-слоя для чистого аудио и выходом для шумного.&lt;br&gt;&lt;br&gt;Вторая идея — адаптивный bitrate в зависимости от количества информации, содержащейся в каждом фрейме аудио. Например, фреймы с голосом можно кодировать более детально, чем фреймы с тишиной. Для этого на выходах энкодера обучается предиктор, возвращающий количество первых RVQ-токенов, которые необходимо просуммировать для данного фрейма. К лоссу добавляется дополнительная компонента — суммарное число предсказанных токенов.&lt;br&gt;&lt;br&gt;&lt;em&gt;Дарья Петренко &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>SMARTMOS: Modeling Subjective Audio Quality Evaluation for Real-Time Applications</title><link>https://t.me/speechinfo/87</link><guid>https://t.me/speechinfo/87</guid><pubDate>Tue, 30 Sep 2025 12:01:06 +0000</pubDate><description>&lt;strong&gt;SMARTMOS: Modeling Subjective Audio Quality Evaluation for Real-Time Applications&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня разбираем &lt;a href="https://www.isca-archive.org/interspeech_2025/balasubramanian25_interspeech.pdf" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; от Meta* о решении SMARTMOS, применяемом в звонках (WhatsApp и др.) для оценки качества звука после шумоподавления и других алгоритмов обработки. В продакшене важно не только понимать общий показатель качества, но и иметь возможность разложить его на составляющие: насколько хорошо слышна речь, насколько повлияли потери пакетов, сколько шума осталось и какую аудиозапись в итоге получает собеседник на свой девайс. Именно такую детализированную оценку даёт SMARTMOS.&lt;br&gt;&lt;br&gt;Для этой задачи использована небольшая стриминговая нейросеть. Она работает прямо на устройстве и предсказывает скоры для двух задач по 10-секундному сегменту аудио: Noise Suppression (NS) и Packet Loss Concealment (PLC). Внутри Noise Suppression есть разделение по аспектам: Speech MOS, Noise MOS и Overall MOS. Интересно, что архитектура энкодера совпадает с используемой в оффлайн-ASR в умных очках Meta.&lt;br&gt;&lt;br&gt;Обучение делается на сегментах длиной около 10 секунд. Логика в том, что на длинных кусках качество можно оценить надёжнее, поскольку короткие отрезки в середине разговора могут давать искажённые результаты.&lt;br&gt;&lt;br&gt;Данные для обучения собираются из тестов реальных приложений — в релизном процессе есть тестировщики, которые записывают аудио по сценариям, эти записи логируются и размечаются людьми. Чтобы компенсировать нехватку данных, авторы использовали не только человеческую разметку (MOS-оценки), но и часть выборки с semi-supervised-метками.&lt;br&gt;&lt;br&gt;Чтобы модель была достаточно лёгкой для запуска на любых устройствах, применяются оптимизации:&lt;br&gt;&lt;br&gt;— используется VAD, тишина дропается, чтобы не тратить ресурсы;&lt;br&gt;— сегменты фиксированы по 10 секунд;&lt;br&gt;— энкодер принимает куски по 100 мс, обрабатывая их в стримминговом режиме;&lt;br&gt;— декодер (предиктор) аккумулирует все выходы энкодера и выдаёт одну оценку на весь сегмент.&lt;br&gt;&lt;br&gt;Такой подход позволяет существенно снизить нагрузку на CPU: пиковая нагрузка распределяется более равномерно по времени.&lt;br&gt;&lt;br&gt;Meta уже использует это решение в продакшене на всех типах звонков. Подобные решения будут полезны всем, кто делает продукты для звонков. В реальности у нас почти никогда нет простого способа измерить, насколько хорошо работает шумоподавление. Модель вроде SMARTMOS могла бы закрыть этот пробел и дать мониторинг качества прямо в проде.&lt;br&gt;&lt;br&gt;&lt;em&gt;Борис Шелудько &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;&lt;em&gt;&lt;br&gt;&lt;/em&gt;&lt;br&gt;&lt;em&gt;* Компания Meta, владеющая WhatsApp, признана экстремистской; её деятельность в России запрещена.&lt;/em&gt;</description></item><item><title>Interspeech 2025: впечатления инженеров Яндекса</title><link>https://t.me/speechinfo/78</link><guid>https://t.me/speechinfo/78</guid><pubDate>Thu, 25 Sep 2025 16:50:51 +0000</pubDate><description>&lt;strong&gt;Interspeech 2025: впечатления инженеров Яндекса&lt;br&gt;&lt;br&gt;&lt;/strong&gt;Мы по традиции попросили инженеров Яндекса подвести личные итоги конференции — на этот раз Interspeech 2025 — и рассказать, чем она запомнилась. В карточках собрали заметки, впечатления и самые интересные работы.&lt;br&gt;&lt;br&gt;Статьи, которые упоминаются в посте:&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2410.15764" rel="nofollow noopener noreferrer"&gt;Low-Bitrate and Speaker-Decoupled Discrete Speech Codec&lt;/a&gt;;&lt;br&gt;— &lt;a href="https://arxiv.org/pdf/2508.03123v1" rel="nofollow noopener noreferrer"&gt;Fine-Tuning Text-to-Speech Diffusion Models Using Reinforcement Learning with Human Feedback&lt;/a&gt;;&lt;a href="https://arxiv.org/pdf/2508.03123v1" rel="nofollow noopener noreferrer"&gt;&lt;br&gt;&lt;/a&gt;— &lt;a href="https://www.isca-archive.org/interspeech_2025/lu25b_interspeech.pdf" rel="nofollow noopener noreferrer"&gt;В статье Improving Noise Robustness of LLM-based Zero-shot TTS via Discrete Acoustic Token Denoising&lt;/a&gt;;&lt;br&gt;— &lt;a href="https://arxiv.org/html/2508.02801v1" rel="nofollow noopener noreferrer"&gt;Adaptive Knowledge Distillation for Device-Directed Speech Detection&lt;/a&gt;.&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;em&gt;* Компания Meta признана экстремистской; её деятельность в России запрещена.&lt;/em&gt;</description></item><item><title>Интересные статьи на Speech Synthesis Workshop 2/2</title><link>https://t.me/speechinfo/77</link><guid>https://t.me/speechinfo/77</guid><pubDate>Mon, 15 Sep 2025 09:04:04 +0000</pubDate><description>&lt;strong&gt;Интересные статьи на Speech Synthesis Workshop 2/2&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Разберём ещё две любопытные работы с Speech Synthesis Workshop. Одна посвящена управлению стилем на уровне слов, другая — синтезу речи с невербальными характеристиками.&lt;br&gt;&lt;br&gt;&lt;a href="https://www.isca-archive.org/ssw_2025/lemerle25_ssw.html" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Lina-Style: Word-Level Style Control in TTS via Interleaved Synthetic Data&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Авторы предложили, как из небольшой выборки с разметкой стиля и большого неразмеченного корпуса построить полностью синтетический датасет с локальными (на уровне слова) метками стиля и его интенсивностью, а затем дообучить модель, чтобы она кондишенилась на метки. Для этого они использовали свою предыдущую работу, модель Lina-Speech. Архитектурно это текстовый энкодер и аудиодекодер с Gated Linear Attention (GLA). GLA, кстати, позволяет легко использовать prefix free prompting через initial state-tuning. Этим и воспользовались авторы.&lt;br&gt;&lt;br&gt;Сначала они взяли претрейн Lina-Speech на неэмоциональной речи. Дотюнили его через initial state-tuning на несколько стилей (neutral, happy, confused, enunciated). Затем синтезировали несколько вариантов одной и той же реплики в разных стилях. Во время синтеза также использовали classifier‑free guidance (CFG), случайно сэмплировали альфа, поэтому насинтезированные аудио получились в разных стилях и с разной их интенсивностью. &lt;br&gt;&lt;br&gt;Для каждого аудио построили соответствие текста аудиотокенам. Для этого извлекли матрицы soft-алайнмента текста и аудио и превратили их в матрицы hard-алайнмента с помощью Monotonic Alignment Search (MAS). Таким образом получили соответствие токенов аудио отдельным словам. Склеили слова из разных стилей в одно предложение и получили синтетический интерливинг-датасет с word-level-разметкой на стиль.  &lt;br&gt;&lt;br&gt;Осталось затюнить итоговую модель. На этом этапе дообучили базовый претрейн, добавив новые параметры: эмбеддинги стилей, интенсивностей и linear для их комбинации.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Почему это круто&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Потому что это — пример сбора синтетического датасета с локальными метками стиля с нуля. В изначальном датасете сэмплов с word-level-разметкой не было. Ну и успешное обучение на синте подтвердило, что метод рабочий. Позалипать на сэмплы можно &lt;a href="https://anonymsubm.github.io/" rel="nofollow noopener noreferrer"&gt;тут&lt;/a&gt;.&lt;br&gt; &lt;br&gt;&lt;a href="https://arxiv.org/abs/2507.13155" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;NonverbalTTS: A Public English Corpus of Text-Aligned Nonverbal Vocalizations with Emotion Annotations for Text-to-Speech&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Янднекс тоже привёз свою статью, написанную совместно с коллегами из VK Lab. В ней предложили датасет для синтеза речи с невербальными характеристиками на английском языке и рассказали о пайплайне его сбора. Невербальные характеристики — это смех, вздох, кашель и другие звуки, которые мы издаём в речи и которые не являются словами. &lt;br&gt;&lt;br&gt;В реальной жизни таких невербальных характеристик много, но разметки для них часто нет. Авторы взяли два опенсорсных датасета — Expresso и VoxCeleb — и сначала с помощью опенсорсных моделей получили грубую разметку по невербальным характеристикам и эмоциям. Затем уточнили результаты с помощью ручной разметки и отфильтровалы шумные сэмплы (например, аудио со смехом, который оказался закадровым). После этого зафьюзили варианты правильных транскрипций от нескольких разметчиков и получили итоговый датасет: 13 часов аудио с 10 типами невербальных характеристик.&lt;br&gt;&lt;br&gt;Затюнили на своём датасете CosyVocie и сравнились с CosyVoice2, который обучался на проприетарном датасете, нестатзначимо проиграли в SbS. В статье раскрыли детали пайплайна разметки, а датасет &lt;a href="https://huggingface.co/datasets/deepvk/NonverbalTTS" rel="nofollow noopener noreferrer"&gt;выложили&lt;/a&gt; на Hugging Face. Там немного, но это честная работа. &lt;br&gt;&lt;br&gt;&lt;strong&gt;Почему это круто&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Синтез с невербальными характеристиками нужен для синтеза спонтанного и разговорного стилей речи. NVTTS может быть использован для файнтьюна, а также как стартовая точка для скейла и unsupervised-разметки датасета большего размера.&lt;br&gt;&lt;br&gt;&lt;em&gt;Дарья Дятлова&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Интересные статьи на Speech Synthesis Workshop 1/2</title><link>https://t.me/speechinfo/76</link><guid>https://t.me/speechinfo/76</guid><pubDate>Wed, 10 Sep 2025 09:00:01 +0000</pubDate><description>&lt;strong&gt;Интересные статьи на Speech Synthesis Workshop 1/2&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Speech Synthesis Workshop — это воркшоп, который проходит при конференции &lt;a href="https://www.interspeech2025.org/home" rel="nofollow noopener noreferrer"&gt;Interspeech&lt;/a&gt;. В этом году разработчик службы синтеза речи Дарья Дятлова побывала на мероприятии и поделилась интересными статьями. &lt;br&gt;&lt;br&gt;&lt;a href="https://www.isca-archive.org/ssw_2025/carbonneau25_ssw.html" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Analyzing and Improving Speaker Similarity Assessment for Speech Synthesis&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы сравнивают схожесть оригинального голоса спикера и синтезированного моделью с помощью автоматической метрики. Выдеяют четыре тезиса-предпосылки.&lt;br&gt;&lt;br&gt;1. Обычно для такого сравнения используют косинусную близость двух векторов, полученных из эмбедов модели для верификации спикеров (SV). Лучшая SV-модель — не всегда лучший экстрактор фичей для метрики схожести спикеров.&lt;br&gt;&lt;br&gt;2. Характеристики голоса спикера можно разделить на две группы. Первые — спектральные — статичны и не меняются от записи. По ним легко отделить одного спикера от другого. Вторые — темп, длительность, громкость речи — динамичны и могут меняться от записи к записи. Эмбеддинги большинства моделей для SV не содержат информации о динамических характеристиках аудио. &lt;br&gt;&lt;br&gt;3. Эмбединги моделей SV содержат информацию о чистоте сигнала и длительности аудио — это не прямая характеристика голоса спикера, а определенный баес датасета или TTS-модели. При конструировании метрики на основе этих эмбедингов стоит иметь это ввиду и применять определённые фильтры, которые помогают сгладить эффект. &lt;br&gt;&lt;br&gt;4. Грубым способом оценки ритма может быть оценка темпа речи спикера. Однако такой способ — сравнение средних величин количества слогов на секунду аудио — признак с плохой разделительной способностью. &lt;br&gt;&lt;br&gt;&lt;strong&gt;Что предложили&lt;br&gt;&lt;/strong&gt;&lt;br&gt;В статье предложили метрику U3D (Unit Duration Distribution Distance), которая оценивает одну из динамических характеристик речи спикера — её ритм. Метрика основана на сравнении распределений длительности групп фонем. Это не фонемы в буквальном смысле (они извлекаются в unsupervised-сетапе путём кластеризации эмбеддингов HuBERT), но дальше для простоты буду называть их фонемами. &lt;br&gt;&lt;br&gt;Каждому элементу в последовательности из спич-юнитов присваивается индекс ближайшей к нему фонемы, после чего последовательность разделяется на сегменты идущих друг за другом фонем. Для каждой фонемы считается длительность в количестве спич-юнитов для каждой записи спикера. Затем тестовая и контрольная выборки распределений сравниваются через метрику Вассерштейна. В результате авторы показали, что метрика обладает высокой разделительной способностью и робастна к сравнению схожих спикеров.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Почему это круто&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Большая часть статьи посвящена не самой метрике, а подводке к тому, зачем вообще она нужна и почему не всегда достаточно просто считать косинусную близость между эмбедами какой-то модели верификации спикеров и называть это speaker-similarity. &lt;br&gt;Пайплайн unsupervised-разметки легко адаптируется и хорошо ложится не только на задачу ритма и не только для подсчёта метрики.&lt;br&gt;&lt;br&gt;Продолжение следует.&lt;br&gt;&lt;br&gt;&lt;em&gt;Дарья Дятлова&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Audio Flamingo 3</title><link>https://t.me/speechinfo/75</link><guid>https://t.me/speechinfo/75</guid><pubDate>Mon, 01 Sep 2025 08:02:43 +0000</pubDate><description>&lt;strong&gt;Audio Flamingo 3&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разбираем &lt;a href="https://arxiv.org/abs/2507.08128" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; о модели Audio Flamingo 3, в которой авторы предлагают новый энкодер AF-Whisper. Одно из его ключевых отличий — умение обрабатывать все три типа аудио: речь, звуки и музыку. По словам авторов, большинство аудио-LLM используют три отдельных энкодера для этих задач.&lt;br&gt;&lt;br&gt;Основной вклад работы, который отмечают в статье: новый аудиоэнкодер, использование chain-of-thought, поддержка multi-turn-диалогов, понимание длинных записей и voice-to-voice-диалоги. Кроме этого, модель полностью в открытом доступе, включая код обучения и использованные датасеты.&lt;br&gt;&lt;br&gt;Что касается бенчмарков, авторы сравнились как с опенсорсными, так и с проприетарными решениями — модель везде показала лучшие результаты. Наиболее близкой они считают GPT-4 Audio, но при этом отмечают её закрытость.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Архитектура&lt;/strong&gt;&lt;br&gt;&lt;br&gt;AF-Whisper построен на базе Whisper, который дообучили вместе с LLM. Есть недостаток — модель не стриминговая: работает с 30-секундными фрагментами звука, обрабатывая соседние куски без маскировки, а затем собирает аудио произвольной длины. Whisper разморозили, добавили адаптер с кросс-аттеншеном (как в Audio Flamingo 2) и сгенерировали синтетические описания готовых аудио с помощью GPT-4.1.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Этапы обучения&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сначала обучают только адаптер, чтобы не повредить энкодер и LLM. Затем идёт совместное обучение энкодера и адаптера, после чего следуют дополнительные стадии: 1) SFT — разморожена вся сеть; 2) расширение контекста и reasoning — разморожена только LLM; 3) для добавления диалогов снова разморожена вся сеть.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Данные&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Основная часть статьи посвящена описанию данных. Первая и вторая стадии используют пост-опенсорсные датасеты, конвертированные в единый формат: например, в задачах ASR модель явно просили выполнить транскрибацию. Далее идёт стадия Audio Skills XL с добавлением пар «вопрос-ответ».&lt;br&gt;&lt;br&gt;Авторы отмечают, что одного ASR и классификации аудио по открытым датасетам недостаточно для появления reasoning, поэтому они генерируют дополнительные данные:&lt;br&gt;&lt;br&gt;— берут 30-секундные аудиофрагменты;&lt;br&gt;— создают датасет из 4,5 млн новых вопросов-ответов, в основном multi-choice;&lt;br&gt;— источники — YouTube8M, Music4All, Million Song Dataset;&lt;br&gt;— на основе метаданных и аудио GPT-4.1 генерирует промпты и ответы.&lt;br&gt;&lt;br&gt;Для описания звуковых событий применяют аналогичный подход, используя также Audio Flamingo 2, который умеет давать базовые описания.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Reasoning&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Отдельный датасет сделали для длинных аудио с задачами на рассуждение. Разметку reasoning добавляли в небольшое число сэмплов и прямо на уровне промпта просили модель объяснить ход рассуждений. Ответы — до 40 слов. Префиксы для reasoning генерировали в Gemini, так как он давал меньше галлюцинаций.&lt;br&gt;&lt;br&gt;Примеры решаемых задач: определение сарказма и эмоционального состояния, извлечение информации из длинного аудио, определение порядка событий, суммаризация,&lt;br&gt;отслеживание смены темы разговора.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Multi-turn-диалоги&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Последним этапом авторы добавили данные для естественных многошаговых диалогов — 75 тысяч примеров, сгенерированных GPT.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Инфраструктура&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Обучение проводили на кластере из 128 A100. Авторы отмечают, что ключ к качественной модели — чистый датасет. В экспериментах вариант с reasoning давал заметный прирост качества.&lt;br&gt;&lt;br&gt;&lt;em&gt;Всеволод Ковшов&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Streaming Sortformer: Speaker Cache-Based Online Speaker Diarization with Arrival-Time Ordering</title><link>https://t.me/speechinfo/74</link><guid>https://t.me/speechinfo/74</guid><pubDate>Wed, 27 Aug 2025 08:05:43 +0000</pubDate><description>&lt;strong&gt;Streaming Sortformer: Speaker Cache-Based Online Speaker Diarization with Arrival-Time Ordering&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Сегодня разбираем &lt;a href="https://arxiv.org/html/2507.18446v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; с Interspeech 2025 от NVIDIA, посвящённую стриминговой end-to-end-диаризации спикеров с использованием Arrival-Time Ordering Cache. Основное применение — интеграция в multi-talker ASR. На конференции статью представлял основной автор, исследователь NVIDIA, Иван Меденников. &lt;br&gt;&lt;br&gt;В работе представляют улучшение предыдущей модели &lt;a href="https://arxiv.org/html/2409.06656v1" rel="nofollow noopener noreferrer"&gt;Sortformer&lt;/a&gt;, в которой были предложены архитектура с Sort Loss и метод выравнивания сегментов диаризации с токенами ASR. Ключевой новинкой стал Arrival-Order Speaker Cache (AOSC) — кэш эмбеддингов спикеров, упорядоченных по времени появления. Модель работает в скользящем окне: в кэш добавляются фреймы с наивысшими оценками уверенности для каждого спикера, с динамическим распределением (минимум K фреймов на спикера и silence embeddings для переходов). &lt;br&gt;&lt;br&gt;Интересные аспекты:&lt;br&gt;&lt;br&gt;— Sort Loss (сортирует спикеров по времени появления, в отличие от attractor-based EEND) не заменяет полностью PIL, но их комбинация работает лучше, так как Sort Loss выполяет функцию регуляризации.&lt;br&gt;— Стриминговая версия превосходит офлайн-версию на длинных записях, устраняя train-inference mismatch (обучение на 90-секундных сегментах vs произвольная длина теста).&lt;br&gt;— Инициализация от предобученного офлайн Sortformer полезна, но fine-tuning с AOSC обязателен, так как фреймы в кэше могут быть непоследовательными.&lt;br&gt;— Обучение проводилось на 5150 часах симулированных смесей и 2030 часах реальных данных. С синтетикой нужно быть осторожными: модель склонна к оверфиту на background noise.&lt;br&gt;&lt;br&gt;Эксперименты показывают SOTA для E2E-онлайн-диаризации с достаточно низкой latency. &lt;br&gt;&lt;br&gt;Ограничения модели следующие: фиксированное максимальное число спикеров (4 в работе), масштабирование требует данных с большим числом дикторов и растёт вычислительная сложность PIL (O(N!) для перестановок). &lt;br&gt;&lt;br&gt;&lt;em&gt;Дмитрий Попов &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Сегодня завершается Interspeech 2025</title><link>https://t.me/speechinfo/71</link><guid>https://t.me/speechinfo/71</guid><pubDate>Thu, 21 Aug 2025 13:50:01 +0000</pubDate><description>&lt;strong&gt;Сегодня завершается Interspeech 2025&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Под занавес конференции делимся несколькими атмосферными фото и видео:&lt;br&gt;&lt;br&gt;— Фрагмент Show&amp;amp;Tell-сессии с физической моделью голосового тракта. Редкий случай, когда на конференции показывают не абстрактные алгоритмы, а реальную говорящую машину. &lt;br&gt;&lt;br&gt;— Команда Яндекса — как обычно, в эпицентре идей и технологий.&lt;br&gt;&lt;br&gt;— Анонс Interspeech 2026: в следующем году встречаемся в Сиднее!&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>В этом году Яндекс привёз на Interspeech статью Multichannel Keyword Spotting for Noisy Conditions о нейросетевой архите</title><link>https://t.me/speechinfo/69</link><guid>https://t.me/speechinfo/69</guid><pubDate>Wed, 20 Aug 2025 12:06:21 +0000</pubDate><description>В этом году Яндекс привёз на Interspeech статью &lt;a href="https://arxiv.org/abs/2507.15558" rel="nofollow noopener noreferrer"&gt;Multichannel Keyword Spotting for Noisy Conditions&lt;/a&gt; о нейросетевой архитектуре KWS.&lt;br&gt;&lt;br&gt;Решение объединяет мультиканальный вход и attention-механизм для более точного распознавания голосовых команд в шумных помещениях. &lt;br&gt;&lt;br&gt;Подробнее о работе рассказывали &lt;a href="https://t.me/speechinfo/64" rel="nofollow noopener noreferrer"&gt;здесь&lt;/a&gt;, а теперь делимся маленьким фоторепортажем с постера!&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Интересные статьи на Interspeech 2025</title><link>https://t.me/speechinfo/67</link><guid>https://t.me/speechinfo/67</guid><pubDate>Wed, 20 Aug 2025 09:12:51 +0000</pubDate><description>&lt;strong&gt;Интересные статьи на Interspeech 2025&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В Роттердаме проходит &lt;a href="https://www.interspeech2025.org/home" rel="nofollow noopener noreferrer"&gt;Interspeech 2025&lt;/a&gt;, крупнейшая мировая конференция по речевым технологиям. Тема этого года — Fair and Inclusive Speech Science and Technology. Спешим поделиться двумя интересными статьями от Alibaba Group (создателей Cosy Voice, около-SOTA TTS-модели).&lt;br&gt;&lt;br&gt;&lt;a href="https://www.isca-archive.org/interspeech_2025/li25b_interspeech.html?utm_source=chatgpt.com" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Long-Context Speech Synthesis with Context-Aware Memory&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Для сохранения контекста и натуральности синтеза длинных предложений авторы предлагают механизм памяти — раздельно для текста и звука, — который авторегрессионно обновляется. При обучении история поддерживается на уровне параграфа.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/pdf/2507.05911" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Differentiable Reward Optimization for LLM based TTS system&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;В работе предложили метод вычисления reward-функции напрямую из токенов аудиокодека с помощью Multi-Task Reward. Модель одновременно оценивает несколько аспектов синтеза: точность произношения (через задачу ASR), эмоциональную окраску (SER), качество звучания (SQA), а также характеристики говорящего — пол и возраст. Для дифференцируемости используют Gumbel-Softmax. Главные результаты: SOTA на SEED-TTS, а также возможность контролировать в TTS-системе эмоции, пол, возраст и MOS (Mean Opinion Score).&lt;br&gt;&lt;br&gt;&lt;em&gt;Работы отобрал &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Дмитрий Попов &lt;br&gt;&lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Voxtral</title><link>https://t.me/speechinfo/66</link><guid>https://t.me/speechinfo/66</guid><pubDate>Fri, 15 Aug 2025 09:34:44 +0000</pubDate><description>&lt;strong&gt;Voxtral&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разбираем &lt;a href="https://arxiv.org/html/2507.13264v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; об опенсорсной модели Voxtral от Mistral AI. Ключевая идея решения в том, чтобы к уже обученной текстовой LLM «прикрутить» аудио. Для этого используют готовый ASR-энкодер (Whisper) и адаптер, после чего ответы генерирует языковой декодер. Аудио режут на фрагменты по 30 секунд, обрабатывают их энкодером, склеивают эмбеддинги и прореживают в четыре раза в адаптере, уменьшая длину последовательности. На вход декодеру можно подать и текстовые токены, например вопрос или инструкцию.&lt;br&gt;&lt;br&gt;Есть две версии модели. В составе Mini-версии — аудиоэнкодер на 640 млн параметров, адаптер на 25 млн, текстовые эмбеддинги на 400 млн и декодер на ~3,6 млрд (всего ~4,7 млрд); в Small — аналогичный аудиоэнкодер и адаптер на 52 млн, но уже 670 млн в эмбеддингах и 22,9 млрд в декодере (всего ~24,3 млрд). Контекст аудиоветки — до 32 тысяч токенов, что соответствует примерно 40 минутам звука.&lt;br&gt;&lt;br&gt;Для предобучения длинное аудио сначала размечают (VAD → транскрипция → диаризация), затем разбивают на пары (Aₙ, Tₙ) и учат на двух паттернах: repetition, где по аудио восстанавливают его транскрипцию, и continuation, где по аудио восстанавливают следующий текст. На первом проходе замораживают аудиоэнкодер и языковой декодер, обучая только адаптер — это заметно помогает в задачах понимания речи, тогда как на чистом ASR почти не сказывается.&lt;br&gt;&lt;br&gt;Стадия SFT нужна, чтобы модель умела больше, чем просто распознавание речи. Датасет SFT состоит из синтетических примеров. В случае, когда инструкция передается текстом для длинных аудио, транскрипцию из ASR обрабатывает LLM, генерируя пары «вопрос-ответ». Если же инструкция задана в аудио формате, то авторы адаптируют текстовые SFT-датасеты с помощью озвучки инструкций через предобученную TTS-модель.&lt;br&gt;&lt;br&gt;Есть и стадия RL/DPO-подобного обучения по парам ответов, которая даёт выигрыш в основном на маленькой модели. При этом для задачи ASR на большой модели данный этап даже снижал качество, поэтому в релиз он не вошёл.&lt;br&gt;&lt;br&gt;Авторы отдельно показывают, что обучение только на interleaved-паттерне портит ASR, а только на ASR-паттерне — не даёт навыков понимания. Смешение двух задач примерно 50/50 даёт хороший баланс распознавания и понимания.&lt;br&gt;&lt;br&gt;В бенчмарках Voxtral улучшает Whisper (взятый за энкодер) и показывает SOTA среди открытых моделей на части тестов по ASR. В переводе речи и аудиопонимании результаты конкурентны открытым моделям, а по синтетическим мультимодальным тестам на озвученных TTS данных местами уступают проприетарным системам уровня GPT-4o и Gemini. При этом текстовые навыки LLM после добавления аудио практически не страдают.&lt;br&gt;&lt;br&gt;&lt;em&gt;Влад Батаев &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Обзор статей с ICASSP 25. Часть 4: другие интересные статьи</title><link>https://t.me/speechinfo/65</link><guid>https://t.me/speechinfo/65</guid><pubDate>Fri, 08 Aug 2025 14:19:52 +0000</pubDate><description>&lt;strong&gt;Обзор статей с ICASSP 25. Часть 4: другие интересные статьи&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В заключительной части — три статьи: оценка качества аудио с помощью self-supervised-моделей, сравнение претрейнов для speaker recognition и новый подход к мультиспикерной ASR с учётом информации о говорящем. Предыдущие части: &lt;a href="https://t.me/speechinfo/38" rel="nofollow noopener noreferrer"&gt;1&lt;/a&gt;, &lt;a href="https://t.me/speechinfo/39" rel="nofollow noopener noreferrer"&gt;2&lt;/a&gt;, &lt;a href="https://t.me/speechinfo/46" rel="nofollow noopener noreferrer"&gt;3&lt;/a&gt;.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2502.05356" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Distillation and Pruning for Scalable Self-Supervised Representation-Based Speech Quality Assessment&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы предлагают модель оценки качества речи на базе XLS-R. Сначала они обучают большую модель (XLS-R-SQA) на разных датасетах, включая Zoom-звонки, синтетические и музыкальные данные. Чтобы учесть различия между датасетами, в архитектуру добавляют обучаемые scale и shift для каждого из них. На инференсе используется общий вариант модели, который, судя по результатам, хорошо работает на разных типах данных. Но полученная модель слишком большая, чтобы использовать её для оценки качества шумоподавления.&lt;br&gt;&lt;br&gt;Чтобы её уменьшить используют два способа: дистиллируют в меньшую (DistillMOS) и обрезку параметров (PruneMOS). Обе версии показывают стабильное качество на звонках, синтетических и музыкальных датасетах.&lt;br&gt;&lt;br&gt;Авторы сравнивают полученные модели с DNSMOS — популярной системой оценки качества для шумоподавления, обученной на данных DNS Challenge. Показывают, что DNSMOS хорошо работает на звонках, но хуже обобщается на другие домены данных.&lt;br&gt;&lt;br&gt;Основной вывод: DistillMOS и PruneMOS достигают сопоставимого качества при меньшем размере и лучше обобщаются за пределами звонковых сетов. Однако использовать предполагается именно DistillMOS, потому что прунинг работает лучше при достаточно в большом количестве параметров.&lt;br&gt;&lt;br&gt;&lt;a href="https://www.researchgate.net/publication/390539139_In_Search_of_Optimal_Pretraining_Strategy_for_Robust_Speaker_Recognition" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;In Search of Optimal Pretraining Strategy for Robust Speaker Recognition&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Статья от российских авторов, которые изучают, как выбор претрейна влияет на устойчивость speaker verification моделей. Они используют TDNN-архитектуру поверх разных замороженных энкодеров: HuBERT, W2V, ASR-TDNN, и оценивают её на нескольких открытых датасетах.&lt;br&gt;&lt;br&gt;На VOiCES и VoxCeleb1 системы на self-supervised фичах показывают сопоставимые или немного лучшие результаты по сравнению с бейзлайнами вроде ECAPA-TDNN и CAM++. Однако основное внимание в статье уделено обобщающей способности. На SRE&amp;#x27;16, &amp;#x27;19 и &amp;#x27;21 (модели не обучались на этих датасетах) наименьший EER достигается при использовании ASR-претрейна и его фьюжена с другими энкодерами. Например, на SRE’19 CAM++ даёт 13.88, ASR-TDNN — 16.42, а их фьюжен — 9.66.&lt;br&gt;&lt;br&gt;Авторы также анализируют влияние масштаба энкодера на переносимость. Эксперименты показывают, что более крупные энкодеры (например, обученные на LibriSpeech и VoxCeleb) помогают лучше обобщаться, даже если downstream TDNN остаётся компактным.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2409.12352" rel="nofollow noopener noreferrer"&gt;META-CAT: Speaker-Informed Speech Embeddings via Meta Information Concatenation for Multi-talker ASR&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы исследуют задачу мультиспикерной ASR: модель должна распознавать речь сразу нескольких говорящих и приписывать реплики каждому из них. Решение основано на использовании speaker-aware эмбеддингов, собранных через элементное перемножение двух компонентов: ASR-эмбеддингов и вероятностей принадлежности каждого временного кадра конкретному спикеру.&lt;br&gt;&lt;br&gt;Модель состоит из замороженного энкодера для диаризации и обучаемых компонентов — ASR-энкодера, speaker encoding слоя и RNNT-декодера. На вход модель получает аудио с несколькими спикерами и (опционально) короткий «query»-пример нужного говорящего. Выходом становится либо полная транскрипция с разметкой по спикерам (MS-ASR), либо только текст нужного говорящего (TS-ASR).&lt;br&gt;&lt;br&gt;Ключевая часть архитектуры — блок speaker encoding. Он принимает ASR-эмбеддинги и вероятности по спикерам (из диаризации) и формирует многомерное представление, в котором каждый из каналов отвечает за конкретного спикера. Это представление затем поступает в декодер.&lt;br&gt;&lt;br&gt;Авторы отдельно отмечают, что модель можно использовать и в сценарии, где нужно отслеживать только одного говорящего. В будущей работе авторы обещают поддержку стриминга.&lt;br&gt;&lt;br&gt;&lt;em&gt;Алексей Рак &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Архитектура KWS от Яндекса: как колонка с Алисой выбирает, куда слушать</title><link>https://t.me/speechinfo/64</link><guid>https://t.me/speechinfo/64</guid><pubDate>Wed, 30 Jul 2025 06:01:01 +0000</pubDate><description>&lt;strong&gt;Архитектура KWS от Яндекса: как колонка с Алисой выбирает, куда слушать&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Исследователи из Яндекса представят на конференции &lt;a href="https://www.interspeech2025.org/home" rel="nofollow noopener noreferrer"&gt;Interspeech 2025&lt;/a&gt; в Роттердаме статью &lt;a href="https://arxiv.org/abs/2507.15558" rel="nofollow noopener noreferrer"&gt;Multichannel Keyword Spotting for Noisy Conditions&lt;/a&gt;. Мы поговорили с авторами и узнали, как устроена нейросетевая архитектура KWS (keyword spotting), объединяющая два подхода: мультиканальный вход и attention-механизм для более точного распознавания голосовых команд в шумных помещениях.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Задача: распознавать команды в шуме &lt;/strong&gt;&lt;br&gt;&lt;br&gt;В колонках есть задача голосовой активации — нужно, чтобы устройство услышало команду даже когда работает телевизор, пылесос или кто-то говорит фоном. Для улучшения работы в таких условиях можно использовать алгоритмы шумоподавления, как, например, в Zoom. Однако даже если такие модели улучшают звук для пользователей, они могут заметно ухудшать качество для моделей. Скорее всего, это происходит из-за того, что модели шумоподавления обучаются на синтетических данных, а модели голосовой активации — на реальных данных и учатся очищать шумы во внутреннем представлении сигнала.  &lt;br&gt;&lt;br&gt;&lt;strong&gt;Решение: несколько микрофонов&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Получая информацию с нескольких микрофонов, можно сделать модель шумоподавления ощутимо лучше. Микрофоны расположены в разных точках устройства, и звук доходит до каждого с небольшой задержкой — за счёт этого можно понимать, откуда он пришёл, и подавлять сигнал конкретного направления. &lt;br&gt;&lt;br&gt;В статье предлагается считать, что основной сигнал в каждый момент времени — это шум. И мы можем всегда очищать это направление. А чтобы услышать активационную фразу пользователя — «Алиса» — для очистки использовать направления сигнала секунду назад. Такой подход помогает убрать шумы, не затрагивая голосовую команду.&lt;br&gt;&lt;br&gt;Но тогда возникает риск подавить голос пользователя, если он говорил до этого. Поэтому канал после шумоподавления не используется отдельно, а подаётся вместе с обычным. Чтобы модель могла выбрать между ними, добавили модуль attention. Он получает оба сигнала, вычисляет веса для частот каждого канала и складывает их с этими весами. В итоге на вход основной модели поступает комбинированный сигнал.&lt;br&gt;&lt;strong&gt;&lt;br&gt;Архитектура: SVDF E2E + Attention + ANC&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В основе модели — &lt;a href="https://arxiv.org/pdf/1812.02802" rel="nofollow noopener noreferrer"&gt;SVDF E2E&lt;/a&gt;. Это базовая архитектура, которая уже используется в проде Алисы. Добавляются механизм внимания и блок адаптивного шумоподавления &lt;a href="https://storage.googleapis.com/gweb-research2023-media/pubtools/5180.pdf" rel="nofollow noopener noreferrer"&gt;Adaptive Noise Cancellation&lt;/a&gt; (ANC).&lt;br&gt;&lt;br&gt;В статье эту архитектуру сравнивают с другими подходами. Приходят к выводу, что, например, Beamforming хоть и усиливает голос с нужного направления, но в целом работает хуже. Ещё пробовали вариант с двумя отдельными моделями, где каждая обрабатывает свой канал, а активация срабатывает, если сработала хотя бы одна модель. Такой способ даёт худшее качество и требует больше параметров. Удивительнее всего было увидеть, что Ensemble дает качество хуже, чем агрегация с помощью attention. Модель не просто выбирает звуковой сигнал, который нужно слушать, а некоторую комбинацию из звуковых каналов.&lt;br&gt;&lt;br&gt;Полученные результаты: FRR — 5,5% при FA/h = 0,1. FRR отвечает за отзывчивость, а fah — за ложные срабатывания, и в обоих случаях — чем меньше, тем лучше. Этот результат превосходит Beamforming (6,7%) и Ensemble (6,4%). При этом модель остаётся компактной и не требует дополнительных ресурсов.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Обучение на двух датасетах&lt;br&gt;&lt;/strong&gt;&lt;br&gt;Модель обучалась и тестировалась на двух датасетах. Лабораторный — содержит 900 симулированных шумовых сцен (улица, кухня, пылесос и прочее) с разными голосами и уровнями шума. Полевой — это 10 млн анонимизированных примеров команд. &lt;br&gt;&lt;br&gt;Технология, описанная в статье, проверена временем: она  в проде с 2022 года и сейчас используется во всех современных колонках с Алисой. Архитектура хорошо масштабируется на edge-устройства — смарт-колонки и другие бытовые ИИ. В перспективе тот же механизм можно использовать, чтобы выбирать наилучший звуковой канал для передачи в облако.&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;Speech Info&lt;/a&gt;</description></item><item><title>Aligner-Encoders: Self-Attention Transformers Can Be Self-Transducers</title><link>https://t.me/speechinfo/63</link><guid>https://t.me/speechinfo/63</guid><pubDate>Fri, 25 Jul 2025 09:04:17 +0000</pubDate><description>&lt;strong&gt;Aligner-Encoders: Self-Attention Transformers Can Be Self-Transducers&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Можно ли выучить выравнивание между аудио и текстом без архитектур вроде RNN-T и без использования blank-токенов? Авторы этой &lt;a href="https://arxiv.org/abs/2502.05232" rel="nofollow noopener noreferrer"&gt;статьи &lt;/a&gt;считают, что можно. Достаточно self-attention-энкодера с отдельной головой, которая решает, на каких шагах нужно выпускать токены.&lt;br&gt;&lt;br&gt;Классические ASR-модели (RNN-T, AED) формируют выравнивание во время декодирования: логиты зависят от возможных переходов по временной оси. Это требует либо динамического программирования (в CTC), либо перебора всех допустимых путей (в RNN-T). В Aligner-Encoder модель учится решать, стоит ли выпускать токен на каждом аудиофрейме. В энкодер добавляют FF-слой (aligner head), обучаемый по меткам из CTC loss. Принудительное выравнивание не требуется.&lt;br&gt;&lt;br&gt;Токены добавляются только тогда, когда aligner говорит «да» — без использования blank-символов или графа выравнивания. Модель не создаёт лишних гипотез, декодинг упрощается, сложность по памяти — существенно ниже: O(U×Vocab) против O(U×T×Vocab) у RNN-T.&lt;br&gt;&lt;br&gt;Что касается архитектуры, энкодер состоит из 2D-свёрток и Conformer-блоков (FFN, multi-head attention, 1D conv, residuals). Вход — log-mel-спектрограммы (окно 32 мс, шаг 10 мс), токены — WordPiece, используется label smoothing (δ = 2/V), чтобы избежать смещения к коротким предсказаниям.&lt;br&gt;&lt;br&gt;Начиная с 14-го слоя self-attention, первые текстовые токены начинают фокусироваться на соответствующих аудиофреймах — это можно проследить по диагональному паттерну. Модель при этом «сдвигает» важные представления ближе к началу, сохраняя порядок токенов. В обычных энкодерах такого сдвига не происходит.&lt;br&gt;&lt;br&gt;Модель обучалась на трёх англоязычных датасетах:&lt;br&gt;— LibriSpeech (960 часов),&lt;br&gt;— Voice Search,&lt;br&gt;— YouTube (670 тысяч часов псевдозаписей длиной 5–15 секунд).&lt;br&gt;&lt;br&gt;Для оценки на YouTube выделили 30 часов 8-минутных аудиофрагментов (по 15 часов на валидацию и тест). Модель показывает точность на уровне CTC-базлайна на LibriSpeech и превосходит его на YouTube.&lt;br&gt;&lt;br&gt;Авторы также проверяют, можно ли использовать обученный aligner в других моделях. В одном из экспериментов инициализируют RNN-T слоями из выученного энкодера  и получают улучшение по метрикам. Это показывает, что aligner-head может использоваться как самостоятельный механизм выравнивания.&lt;br&gt;&lt;br&gt;Несмотря на то, что в названии статьи сделан акцент на выравнивание, главная польза модели — в скорости и простоте. В сравнительном эксперименте все модели были одного размера (100 млн параметров). На обучении Aligner оказался в 10 раз быстрее RNN-T (29 мс против 290 мс на шаг), главным образом за счёт отказа от сканирования по временной оси в join-сети. Это также позволило снизить пиковое потребление памяти на 18 % (−1.4 ГБ). На инференсе модель тоже самая быстрая: каждый шаг декодера занимает 0,19 мс против 8,5 мс у AED. Общая сложность — O(U), тогда как у RNN-T — O(U+T), где U — длина текста, T — длина аудио. Переупорядочивание гипотез в beam почти не требуется. Отдельно подчёркивается, что хоть AED и делает шаги почти так же быстро, как Aligner, благодаря трансформерной природе он сходится за меньшее число итераций.&lt;br&gt;&lt;br&gt;&lt;em&gt;Илья Новицкий &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Как прошла ICLR 2025: впечатления инженеров Яндекса</title><link>https://t.me/speechinfo/53</link><guid>https://t.me/speechinfo/53</guid><pubDate>Wed, 16 Jul 2025 09:53:47 +0000</pubDate><description>&lt;strong&gt;Как прошла ICLR 2025: впечатления инженеров Яндекса&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Мы попросили инженеров Яндекса подвести личные итоги конференции ICLR 2025 и рассказать, чем она запомнилась. О трендах в индустрии, интересных статьях на тему аудио и впечатлениях — в наших карточках.&lt;br&gt;&lt;br&gt;Работы и ссылки, которые упоминаются в посте:&lt;br&gt;&lt;br&gt;— &lt;a href="https://www.physicalintelligence.company/blog/pi05" rel="nofollow noopener noreferrer"&gt;π0.5: a VLA with Open-World Generalization&lt;/a&gt;&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2411.19842" rel="nofollow noopener noreferrer"&gt;Scaling Transformers for Low-Bitrate High-Quality Speech Coding&lt;/a&gt;&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2409.00750" rel="nofollow noopener noreferrer"&gt;MaskGCT: Zero-Shot Text-to-Speech with Masked Generative Codec Transformer&lt;/a&gt;&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2503.00733" rel="nofollow noopener noreferrer"&gt;UniWav: Towards Unified Pre-training for Speech Representation Learning and Generation&lt;/a&gt;&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2503.01485" rel="nofollow noopener noreferrer"&gt;FlowDec: A flow-based full-band general audio codec with high perceptual&lt;/a&gt;&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2502.07243" rel="nofollow noopener noreferrer"&gt;Vevo: Controllable Zero-Shot Voice Imitation with Self-Supervised Disentanglement&lt;/a&gt;&lt;br&gt;— &lt;a href="https://blog.iclr.cc/2025/04/14/announcing-the-test-of-time-award-winners-from-iclr-2015/" rel="nofollow noopener noreferrer"&gt;Announcing the Test of Time Award Winners from ICLR 2015&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;#YaICLR</description></item><item><title>Как TortoiseTTS изменил правила игры в синтезе речи</title><link>https://t.me/speechinfo/50</link><guid>https://t.me/speechinfo/50</guid><pubDate>Thu, 10 Jul 2025 08:05:37 +0000</pubDate><description>&lt;strong&gt;Как TortoiseTTS изменил правила игры в синтезе речи&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В 2017–2019 годах TTS-сообщество начало учиться на заметно больших объёмах данных, чем до этого, и выбирало между двумя классами моделей, которые можно обучать. Первый вариант — взять трансформер из NLP и научить его предсказывать аудиотокены. Второй — использовать диффузии, как в генерации изображений, и генерировать спектрограммы. Оба варианта давали частичный результат. Диффузии хорошо передавали голос, но интонацию — слабо. Трансформеры, наоборот, хорошо моделировали интонацию, но теряли сходство с голосом.&lt;br&gt;&lt;br&gt;В 2022 году инженер Джеймс Беткер, много лет &lt;a href="https://www.linkedin.com/in/james-betker-4a051013/" rel="nofollow noopener noreferrer"&gt;проработавший&lt;/a&gt; в Garmin, решил пойти другим путём. В одиночку он начал собирать свою модель дома! Он купил восемь б/у RTX 3090, которые до этого майнили крипту, собрал из них кластер, и два года вёл &lt;a href="https://nonint.com/2022/page/2/" rel="nofollow noopener noreferrer"&gt;блог&lt;/a&gt;, в котором подробно описывал каждую итерацию своего ресёрча. Формат — не статьи с графиками, а Markdown и картинки от руки. Иногда — просто пост с одной мыслью и решением.&lt;br&gt;&lt;br&gt;Спустя два года такой работы появился TortoiseTTS. Гибрид трансформера и диффузии, вдохновленный архитектурой DALL-e 1, только вместо изображений — аудио.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Что сделал Беткер:&lt;/strong&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;1. Сначала — кодек. Беткер обучил VQ-VAE, который сжимал аудио до 25 токенов в секунду. Это довольно маленький битрейт для получения качественного восстановления, но такой цели и не стояло — кодек нужен был как интерфейс между аудио и трансформером.&lt;br&gt;&lt;br&gt;2. Потом — трансформер. Модель по тексту и примеру голоса, который надо скопировать, предсказывала токены этого кодека. Поскольку токенов было мало, он мог использовать большие батчи, что критично при ограниченных ресурсах. Но важнее другое: трансформер давал не только токены, но и латенты, из которых эти токены предсказываются. (Они понадобятся нам на следующем этапе.) Именно этот кусок пайплайна отвечает за генерацию правильной похожести голоса и разумные интонации.&lt;br&gt;&lt;br&gt;3. Дальше — диффузия. По примеру голоса и сгенерированным GPT латентам она предсказывала спектрограмму. Задача этой модельки в том, чтобы получившаяся запись была качественной и хорошо сохранилась похожесть голоса.&lt;br&gt;&lt;br&gt;4. В конце — предобученный вокодер UnivNet, который предсказывает аудио по спектрограмме.&lt;br&gt;&lt;br&gt;В результате получился пайплайн: текст → латента (из GPT) → спектрограмма (из диффузии) → аудио. В модельке есть ещё несколько хаков, но мы не останавливаемся на них, чтобы упростить повествование. &lt;br&gt;&lt;br&gt;За счёт комбинации GPT и диффузии этому способу удалось усесться на оба стула: он хорошо моделировал интонацию и клонировал голос. И это обучилось на кластере из восьми видеокарт!&lt;br&gt;&lt;br&gt;После выхода Tortoise в 2022 году появилось много похожих работ. Например:&lt;br&gt;&lt;br&gt;— &lt;a href="https://arxiv.org/abs/2407.05407" rel="nofollow noopener noreferrer"&gt;CosyVoice&lt;/a&gt; (Alibaba): заменили VQ-VAE на кодек, обученный на ASR-задаче, чтобы эмбеддинги хранили больше информации о речи. Вместо диффузии применили Flow Matching — он даёт звук быстрее за меньшее число шагов.&lt;br&gt; — &lt;a href="https://arxiv.org/abs/2406.02430" rel="nofollow noopener noreferrer"&gt;Seed-TTS&lt;/a&gt; (ByteDance): заменили токенизатор, отказались от CLVP, дообучили модель на 5 голосах.&lt;br&gt; — &lt;a href="https://arxiv.org/abs/2402.08093" rel="nofollow noopener noreferrer"&gt;Base TTS&lt;/a&gt; (Amazon): взяли большую GPT (1B параметров вместо 300M) и использовали токены из WavLM.&lt;br&gt;&lt;br&gt;Получается, что Tortoise стал не столько готовым решением, сколько универсальной схемой, которую подхватили сразу несколько крупных команд. Ну а Джеймса Беткера наняли в OpenAI сразу после релиза финальной версии модели.&lt;br&gt;&lt;br&gt;Эта история — только малая часть интересного из &lt;a href="https://github.com/yandexdataschool/speech_course" rel="nofollow noopener noreferrer"&gt;Speech Сourse&lt;/a&gt; от Яндекса и ШАД. Все лекции, слайды, домашки и полезные ссылки выложены на GitHub. Курс охватывает биометрию, распознавание, синтез, шумоподавление. А на тему TTS — целых четыре лекции. &lt;br&gt;&lt;br&gt;&lt;em&gt;Роман Кайль&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Обзор статей с ICASSP 25. Часть 3: LLM для улучшения в ASR</title><link>https://t.me/speechinfo/46</link><guid>https://t.me/speechinfo/46</guid><pubDate>Fri, 04 Jul 2025 08:43:36 +0000</pubDate><description>&lt;strong&gt;Обзор статей с ICASSP 25. Часть 3: LLM для улучшения в ASR&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Две статьи от Meta* с ICASSP 2025 показывают, как сократить число вызовов декодера в ASR: в одной модель сразу предсказывает несколько токенов, в другой — принимает только те, у которых логиты выше порога. Разбираем, как устроены эти методы и как они влияют на скорость и WER.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2410.03752" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Efficient Streaming LLM for Speech Recognition&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Статья о стриминговой ASR-модели SpeechLLM-XL. Её архитектура состоит из двух компонентов: аудиоэнкодера и LLM-декодера. На вход декодеру одновременно подаются выходы аудиоэнкодера (как в обычной ASR) и токены, которые декодер уже успел предсказать.&lt;br&gt;&lt;br&gt;В обычном последовательном предсказании на вход сразу передаются звуковые токены, а затем модель догенерирует предсказание по одному токену — и каждый раз сгенерированный токен добавляется ко входу. Таким образом модель работает в decoder-only-режиме.&lt;br&gt;&lt;br&gt;Основная сложность со стримингом в том, что нужно попеременно передавать новый полученный звук и текстовые токены, которые предсказала модель. Это делается следующим образом. Во время инференса модель обрабатывает аудио по чанкам. После каждого декодер может сгенерировать не один токен, а сразу несколько — пока не встретит специальный маркер конца предсказания. Это позволяет системе работать в стриминге и не откладывать вывод до самого конца. Такой режим авторы реализуют через модифицированную схему тренировки, где модель учат предсказывать текст по частичному аудиоконтексту.&lt;br&gt;&lt;br&gt;Особенность SpeechLLM-XL — в устройстве генерации: в каждый момент LLM-декодер видит и текущий аудиочанк, и собственные предыдущие предсказания. Это позволяет ему лучше моделировать зависимость между звучанием и текстом, особенно в условиях ограниченного контекста.&lt;br&gt;&lt;br&gt;Авторы сравнивают свою модель с другими стриминговыми ASR-решениями. По качеству SpeechLLM-XL обходит все перечисленные в работе бейзлайны на dev-наборах LibriSpeech. Например, на clean-части она показывает WER 2,5% против 2,9% у Transducer и 2,7% у ReaLLM при схожем размере чанка и lookahead — хотя сложно не заметить, что в целом скоры у бейзлайнов великоваты.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2409.08148" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Faster Speech-LLaMA with Multi-token Prediction&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы пытаются ускорить LLM-декодер в ASR. Идея в том, что вместо генерации одного токена за раз, как в обычной LLM, они учат декодер предсказывать сразу несколько токенов. Чтобы не вызывать LLM отдельно для каждого из них, добавляют в декодер несколько «голов» — по числу токенов, которые нужно предсказать. Эти головы работают параллельно: каждая предсказывает свой токен, зная предыдущие.&lt;br&gt;&lt;br&gt;Получается схема из трёх шагов:&lt;br&gt;&lt;br&gt;1) Predict: модель сразу предсказывает K токенов.&lt;br&gt;2)  Verify: среди них ищем самую длинную префикс-последовательность, которую можно подтвердить более строгим one-step-декодером.&lt;br&gt;3) Accept: принимаем только подтверждённые токены и продолжаем с новой гипотезой.&lt;br&gt;&lt;br&gt;Это позволяет сократить число вызовов декодера без сильной потери качества. На графике видно, как число вызовов на слово (ось Y) падает, особенно при 4–6 головах, а качество (WER по оси X) остаётся на уровне. Лучший компромисс — 4 головы: ускорение ×2, при этом WER почти не растёт.&lt;br&gt;&lt;br&gt;Верификацию авторы реализуют двумя способами:&lt;br&gt;&lt;br&gt;— по порогу вероятности;&lt;br&gt;— по позиции гипотезы в top-N (например, если гипотеза оказалась в топ-5, то её можно принять).&lt;br&gt;&lt;br&gt;Интересно, что при увеличении числа голов качество даже немного улучшалось. Хотя авторы отмечают это только на LibriSpeech, а на других датасетах наблюдается небольшая просадка.&lt;br&gt;&lt;br&gt;По сути, это доработка идеи DeepSeek: там тоже пробовали multi-token prediction, но здесь её применили именно в ASR.&lt;br&gt;&lt;br&gt;&lt;em&gt;Алексей Рак &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;&lt;em&gt;&lt;br&gt;&lt;/em&gt;&lt;br&gt;&lt;em&gt;* Компания Meta&lt;/em&gt; &lt;em&gt;признана экстремистской; её деятельность в России запрещена.&lt;/em&gt;</description></item><item><title>DMDSpeech: Distilled Diffusion Model Surpassing The Teacher in Zero-shot Speech Synthesis via Direct Metric Optimization</title><link>https://t.me/speechinfo/45</link><guid>https://t.me/speechinfo/45</guid><pubDate>Fri, 27 Jun 2025 07:45:01 +0000</pubDate><description>&lt;strong&gt;DMDSpeech: Distilled Diffusion Model Surpassing The Teacher in Zero-shot Speech Synthesis via Direct Metric Optimization&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Сегодня разберём &lt;a href="https://arxiv.org/abs/2410.11097v1" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; о синтезе речи с помощью диффузионных моделей. Авторы из Adobe Research утверждают, что им удалось избавиться от главного недостатка такого подхода — медленного итеративного инференса — при помощи оригинального метода дистилляции.&lt;br&gt;&lt;br&gt;Называется новый метод Direct Metric Optimization. Именно он вкупе с уже известной (но не очень популярной) методикой дистилляции DMD и бейзлайн-архитектурой Latent Speech Diffusion позволяет улучшить качество генераций.&lt;br&gt;&lt;br&gt;Latent Speech Diffusion — диффузионный трансформер, оперирующий в пространстве непрерывных латентов (continious latents). Латенты авторы получают из чистой wave-формы при помощи энкодера дискретного аудиокодека. Потом добавляют к ним шум, U-net-подобной архитектурой итеративно расшумляют и декодируют с помощью стандартного диффузионного лосса.&lt;br&gt;&lt;br&gt;Поскольку модель не авторегрессионная, размерность выхода необходимо знать заранее. Её выясняют, перемножая количество фонем на speaking rate речевого промпта. &lt;br&gt;&lt;br&gt;Метод DMD работает так: расшумлённый результат ученика в заданный момент времени приближают к аналогичному результату учителя от одного зашумлённого латента. Для этого обучают специальную состязательную модель: &lt;br&gt;&lt;br&gt;- при помощи дискриминатора отличать результаты ученика и учителя;&lt;br&gt;- сокращать за счёт ученика разницу между ним и учителем.&lt;br&gt;&lt;br&gt;Предложенный метод генерации речи — end-to-end. Это значит, что в обучение для Direct Metric Optimization можно добавлять SV- и ASR-лоссы.&lt;br&gt;&lt;br&gt;Аудиосэмплы доступны &lt;a href="https://dmdspeech.github.io/" rel="nofollow noopener noreferrer"&gt;на GitHub&lt;/a&gt;.&lt;br&gt;&lt;br&gt;&lt;em&gt;Дмитрий Попов&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Synthio, Fugatto и MMAU: интересное с аудио на ICLR 2025</title><link>https://t.me/speechinfo/41</link><guid>https://t.me/speechinfo/41</guid><pubDate>Fri, 20 Jun 2025 12:36:41 +0000</pubDate><description>&lt;strong&gt;Synthio, Fugatto и MMAU: интересное с аудио на ICLR 2025&lt;/strong&gt;&lt;br&gt;&lt;br&gt;На ICLR в этом году было не так много статей на тему аудио, но несколько интересных работ всё же встретились — продолжаем разбирать их в этом и следующих постах. &lt;br&gt;&lt;br&gt;Сегодня расскажем, как синтетические данные помогают обучать аудиоклассификаторы (Synthio), об универсальной модели, которая по тексту и аудио решает множество задач (Fugatto), и о свежем бенчмарке на понимание сложных аудиозадач — от ритма до аккордов (MMAU).&lt;br&gt;&lt;br&gt;&lt;a href="https://openreview.net/forum?id=bR1J7SpzrD" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Synthio: Augmenting Small-Scale Audio Classification Datasets with Synthetic Data&lt;/strong&gt;&lt;/a&gt; &lt;br&gt;&lt;br&gt;В статье предлагают пайплайн для генерации синтетических аудиоданных с помощью T2A-модели, которая по текстовому описанию создаёт аудио. Её сначала выравнивают на основе предпочтений, используя ограниченное количество размеченных примеров. После этого модель генерирует синтетику, пригодную для задач классификации.&lt;br&gt;&lt;br&gt;На втором этапе добавляют фильтрацию: оценивают соответствие между текстом и аудио и отбирают качественные пары. Дополнительно текст можно уточить с помощью LLM. На выходе — расширенный синтетический датасет, который даёт прирост точности в разных аудиоклассификационных задачах.&lt;br&gt;&lt;br&gt;&lt;a href="https://openreview.net/forum?id=B2Fqu7Y2cd" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Fugatto 1: Foundational Generative Audio Transformer Opus 1&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Fugatto — универсальная аудиомодель, которая по текстовому описанию и/или аудиопримеру решает задачи синтеза речи (TTS), преобразования голоса (VC), генерации аудио по тексту (T2A), шумоподавления и другие. Всё в одной архитектуре.&lt;br&gt;&lt;br&gt;Модель построена на flow matching — это позволяет отказаться от GAN-дискриминаторов и легче масштабировать обучение. В качестве данных собирают максимально разнообразные открытые датасеты по всем типам задач. Для генерации инструкций, которым должна следовать модель, используют LLM: она пишет код на Python, который вызывает нужный аудиоэффект (например, через библиотеку Pedalboard).&lt;br&gt;&lt;br&gt;Авторы показывают emergent-эффекты: модель способна выполнять необычные преобразования, которых явно не было в обучении — например, «лающий женский голос» или «мяукание саксофона». Также они демонстрируют, как можно итеративно прогонять сэмплы между A2T- и T2A-моделью, уточняя выходы на каждом шаге.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2410.19168" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;MMAU: A Massive Multi-Task Audio Understanding and Reasoning Benchmark&lt;br&gt;&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;Авторы собрали бенчмарк из 10 000 аудиозаданий, вручную размеченных специалистами. Каждое задание состоит из аудио, текстового вопроса и нескольких вариантов ответа. Примеры задач — от понимания какой конкретный звук длится дольше всего на аудио до музыкального анализа: нужно определить аккорд-прогрессию, ритмический рисунок или эмоциональную окраску.&lt;br&gt;&lt;br&gt;Бенчмарк сложный: требует не просто услышать звук, но и понять его структуру. Некоторые модели (например, MuLaLaMa и SALMONN) почти не теряют точности при замене аудио на шум — значит, не используют сам звук. А вот Gemini 1.5 Pro и Qwen2 действительно извлекают аудиосигнал: при шуме качество падает. Gemini 1.5 Pro лучше всего справляется с задачами фонетического анализа.&lt;br&gt;&lt;br&gt;MMAU подчёркивает важность реального аудиопонимания: на нём даже сильные мультимодели работают на уровне 59% точности. Из аблейшна авторов следует, что основная доля ошибок приходится на perceptual errors. То есть моделям пока сложно понимать, что именно происходит на записи. &lt;br&gt;&lt;br&gt;&lt;em&gt;Влад Батаев &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;#YaICLR</description></item><item><title>Обзор статей с ICASSP 25. Часть 2: голосовая активация</title><link>https://t.me/speechinfo/39</link><guid>https://t.me/speechinfo/39</guid><pubDate>Wed, 11 Jun 2025 10:05:31 +0000</pubDate><description>&lt;strong&gt;Обзор статей с ICASSP 25. Часть 2: голосовая активация&lt;br&gt;&lt;/strong&gt;&lt;br&gt;В &lt;a href="https://t.me/speechinfo/38" rel="nofollow noopener noreferrer"&gt;прошлой части&lt;/a&gt; рассказали о работах на тему шумоподавления в наушниках, теперь переходим к голосовой активации. Сегодня кратко о двух статьях: одна — о визуальном споттере (активация по звуку и видео, но без активационной фразы), вторая — о кастомных keyword spotters.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2409.09018" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;An Efficient and Streaming Audio Visual Active Speaker Detection System&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Статья от Apple на тему детекции активного спикера в стриминговом видео с помощью аудио- и видеосигналов. Такая задача уже решается в колонках Amazon и Google. Архитектура построена на двух похоже устроенных энкодерах: аудио- и визуальном. В них используются каузальные свёртки, которые не «заглядывают» в будущее — это важно для стриминга.&lt;br&gt;&lt;br&gt;После извлечения признаков фреймы выравниваются и объединяются, чтобы для каждого момента времени были и аудио-, и визуальные фичи. Поверх этого авторы обучают трансформер. Трансформеру за счёт использования масок также ограничивали возможность «заглядывать» в будущее.&lt;br&gt;&lt;br&gt;Ключевое исследование — о том, какие маски использовать в трансформере: сколько контекста из прошлого и будущего ему давать. Контекст из будущего начинает помогать, только если в модель уже подаётся достаточно длинный контекст из прошлого — примерно от 15 фреймов.&lt;br&gt;&lt;br&gt;По ощущениям, решение довольно зрелое: авторы утверждают, что обучали модель не только на YouTube, но и на внутренних данных. &lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/html/2409.09067v1" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;SLiCK: Exploiting Subsequences for Length-Constrained Keyword Spotting&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Ещё одна статья — о кастомных keyword-spotters: пользователь задаёт произвольную фразу, на которую должна реагировать модель. На эту тему в последнее время выходит довольно большое количество статей. Для начала GPT-подобная модель превращает текст в последовательность фонем.&lt;br&gt;&lt;br&gt;Архитектура включает fully connected-слой, который кодирует фонемы в эмбеддинги, и аудиопарсер, который учится по звуку восстанавливать ту же последовательность. Главная особенность работы — продуманные лоссы, которые помогают модели устойчиво обучаться.&lt;br&gt;&lt;br&gt;Во-первых, аудиомодель учат предсказывать последовательность фонем — это даёт хорошую привязку к произнесённому тексту. Во-вторых, добавляют рантайм-механизм сопоставления между аудио и заданной последовательностью: с помощью cross-attention проверяют, совпадают ли векторы в нужных местах. И в-третьих, делают то же самое, но уже для всех префиксов заданной последовательности. Если на нужной фонеме случается несовпадение — срабатывает сигнал об ошибке.&lt;br&gt;&lt;br&gt;Если первые два пункта уже встречались ранее, то третий — нововведение этой статьи, которое, судя по результатам, приносит заметный прирост по качеству.&lt;br&gt;&lt;br&gt;Основной вывод: такой подход с дополнительными лоссами и проверкой совпадений позволяет сильно улучшить точность детекции по сравнению с базовыми моделями. Концепция не совсем новая, но реализация аккуратная и работающая.&lt;br&gt;&lt;br&gt;В следующей части обзора расскажем о двух LLM для улучшения ASR.&lt;br&gt;&lt;br&gt;&lt;em&gt;Алексей&lt;/em&gt; &lt;em&gt;Рак&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt; &lt;em&gt;Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Обзор статей с ICASSP 25. Часть 1: шумоподавление в наушниках</title><link>https://t.me/speechinfo/38</link><guid>https://t.me/speechinfo/38</guid><pubDate>Thu, 05 Jun 2025 08:00:00 +0000</pubDate><description>&lt;strong&gt;Обзор статей с ICASSP 25. Часть 1: шумоподавление в наушниках&lt;/strong&gt;&lt;br&gt;&lt;br&gt;В апреле в Индии прошла конференция ICASSP 2025, на которой побывал руководитель группы встроенного голосового ввода Алексей Рак. В этом году обошлось без откровений, но кое-что любопытное всё же нашлось. Пожалуй, главный тренд: заметно меньше статей о колонках — индустрия уходит в наушники и стриминг. В этом и следующем постах разберём интересные статьи с конференции — начнём двух работ о шумоподавлении в наушниках.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2409.18239" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Towards Sub-millisecond Latency Real-Time Speech Enhancement Models on Hearables&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Статья от Google о шумоподавлении в режиме прозрачности для наушников. Такая технология нужна, когда не хочешь снимать наушники, но хочешь слышать речь вокруг. При этом нужно, чтобы голоса усиливались, а шум — наоборот, глушился. Но вся магия работает, только если нет сильной задержки. Иначе речь дублируется, так как амбушюры не полностью поглощают речь, а наушники проигрывают очищенные разговор с задержкой. Поэтому важно уложиться в лаг в пару миллисекунд.&lt;br&gt;&lt;br&gt;Авторы сделали компактную нейросеть, которая предсказывает параметры FIR-фильтра — по сути, какую свёртку применить к звуку. Эта свёртка обновляется каждые 8 мс, но применяется сразу к новым аудиофрагментам, так что задержка остаётся минимальной — 2–3 мс (алгоритмическая задержка — 1 мс, а всё остальное — вычислительная). Работает даже на слабом железе — тестировали на 600 MHz HiFi4 Audio DSP(Cadence), и там всё летает.&lt;br&gt;&lt;br&gt;Статья даёт понять, насколько вообще можно опустить задержку в таких системах, если аккуратно подойти к задаче и сделать лёгкую модель.&lt;br&gt;&lt;br&gt;&lt;a href="https://www.researchgate.net/publication/390537997_Bone_Conducted_Signal_Guided_Speech_Enhancement_For_Voice_Assistant_on_Earbuds" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;BONE CONDUCTED SIGNAL GUIDED SPEECH ENHANCEMENT FOR VOICE ASSISTANTON EARBUDS&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Ещё одна статья о шумоподавлении, но уже для очистки того, что пользователь наушников говорит, а не слышит. Человек говорит в шумной обстановке (на улице, на ветру, в метро), и сам этого может даже не замечать. Снаружи всё гудит, а внутри уха — тишина. Только вот собеседнику слышно совсем не так.&lt;br&gt;&lt;br&gt;В современных наушниках уже есть не только внешние микрофоны, но и внутренние, которые улавливают сигнал через кость черепа. Он искажён, но в нём почти нет внешнего шума. Его и используют.&lt;br&gt;&lt;br&gt;Вход у модели — два канала: грязный внешний микрофон и искажённый, но «чистый» костный сигнал. Всё это подаётся в Cleanformer — это их старая модель, адаптированная под такую задачу. Cleanformer предсказывает маску, которую потом накладывают на внешний сигнал, чтобы его «почистить»: сохранить полезные частоты и убрать шум. Похожую модель Google использует уже довольно давно для очистки звука в умных колонках.&lt;br&gt;&lt;br&gt;Цель — сделать так, чтобы в особо шумных условиях голос всё равно звучал понятно. Для реального применения такой подход годится, если в устройстве есть костный канал — а он уже есть во многих моделях наушников.&lt;br&gt;&lt;br&gt;В следующей части разберём пару работ о голосовой активации.&lt;br&gt;&lt;br&gt;&lt;em&gt;Алексей&lt;/em&gt; &lt;em&gt;Рак&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt; &lt;em&gt;Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Moshi в деталях: новая архитектура диалоговой системы в реальном времени. Часть 2/2</title><link>https://t.me/speechinfo/37</link><guid>https://t.me/speechinfo/37</guid><pubDate>Tue, 27 May 2025 08:05:48 +0000</pubDate><description>&lt;strong&gt;Moshi в деталях: новая архитектура диалоговой системы в реальном времени. Часть 2/2 &lt;/strong&gt;&lt;br&gt;&lt;br&gt;Продолжаем разбирать &lt;a href="https://arxiv.org/abs/2410.00037" rel="nofollow noopener noreferrer"&gt;Moshi &lt;/a&gt;— диалоговую систему, которая совмещает распознавание, чат-бота и синтез речи в одной модели. В первой части речь шла о LLM Helium и аудиокодеке Mimi. Здесь — о том, как устроена сама Moshi и как работает механизм переключения между «слушать» и «говорить».&lt;br&gt;&lt;br&gt;&lt;strong&gt;Moshi &lt;/strong&gt;&lt;br&gt;&lt;br&gt;На следующем этапе авторы хотят научить текстовую LLM Helium аудиомодальности, а конкретно — предсказывать токены от Mimi. Да ещё и так, чтобы модель не потеряла свои LLM-ные знания.&lt;br&gt;&lt;br&gt;Наша задача — предсказывать матрицу из токенов с размерностями времени на 8 кодеков. Для этого модель Moshi состоит из двух трансформеров: Temporal Transformer и Depth Transformer.&lt;br&gt;&lt;br&gt;Temporal Transformer — это большой трансформер, проинициализированный весами Helium. Он будет авторегрессивно идти по размерности времени и генерировать эмбеддинг для каждого тика времени. Depth Transformer инициализируется шумом. Его задача — на каждом шаге Temporal Transformer-a закондишениться на сгенерированный эмбеддинг и развернуть его в 8 Mimi-токенов.&lt;br&gt;&lt;br&gt;Учиться вся эта конструкция будет в три этапа. Тут опускаем много подробностей, но идея примерно такая:&lt;br&gt;&lt;br&gt;1. Учимся на огромном, шумном audio-only датасете. На этом этапе моделька познаёт аудиомодальность и пытается соотнести её с текстовой модальностью.&lt;br&gt;&lt;br&gt;2. Учимся на синтетических диалоговых данных. Здесь модель учиться слушать и слышать одновременно, подстраивается под диалоговый формат (так называемый full-duplex-режим).&lt;br&gt;&lt;br&gt;3. Тюнимся на более качественном диалоговом датасете. Модель обретает свой голос и выучивает более осознанные диалоговые ответы.&lt;br&gt;&lt;br&gt;Важнейшая фича Moshi — full-duplex: способность модели одновременно слушать и говорить. С ней диалог получается плавнее и человечнее, в нём могут быть одновременные реплики, перебивания и междометия. Модель достигает режима full-duplex с помощью алгоритма Inner Monologue.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Inner-monologue&lt;/strong&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;Для начала, мы хотим сделать так, чтобы одно и то же слово, представленное в виде текстовых токенов и в виде аудиотокенов, занимало одно и то же количество токенов. Для этого авторы взяли датасет и модель WhisperV3 и сделали алайнмент. То есть для каждого слова в тексте нашли время, когда оно начинает и заканчивает произноситься. После этого авторы взяли специальные паддинг-токены и в текстовой модальности добавили их после каждого слова — столько, чтобы по длине они совпадали с количеством токенов, которое занимает это слово в аудиомодальности.&lt;br&gt;&lt;br&gt;Дальше мы хотим учить модельку на этих данных. Тут полезно посмотреть на картинку.&lt;br&gt;&lt;br&gt;— Мы хотим, чтобы в каждый момент времени наша моделька работала с тремя стримами информации: аудио, которое произносит пользователь (8 токенов), аудио, которое произносит Moshi (8 токенов), и текст, разбавленный паддингами, который произносит Moshi (1 токен). На картинке они показаны сверху вниз.&lt;br&gt;&lt;br&gt;— Мы хотим все три стрима подавать на вход к модельке. Соответственно для каждого стрима токенов будет своя матрица эмбеддингов, которые  в итоге складываются.&lt;br&gt;&lt;br&gt;— На выход мы хотим получать только текст и аудио реплик. На картинке — это оранжево-жёлто-зелёные (каждый цвет — отдельное слово) токены. Текст предсказывает линейная голова поверх Temporal Transformer, а для аудиотокенов есть Depth Transformer.&lt;br&gt;&lt;br&gt;— В такой парадигме моделька учится и инферится.&lt;br&gt;&lt;br&gt;Moshi вышла 7 месяцев назад и, кажется, уже потихоньку устаревает. Если попользоваться демкой, сначала она приводит в восхищение, но потом становятся заметны косяки: модель говорит глупости, неуместно перебивает, начинает отвечать с большой задержкой. Она ощутимо слабее, чем, например, VoiceMode от OpenAI. Но у ребят подробная статья, много интересных выводов и экспериментов, а также выложенный в открытый доступ кодек. Это довольно большой вклад в область.&lt;br&gt;&lt;br&gt;&lt;em&gt;Роман Кайль&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt; &lt;em&gt;Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Moshi в деталях: новая архитектура диалоговой системы в реальном времени. Часть 1/2</title><link>https://t.me/speechinfo/36</link><guid>https://t.me/speechinfo/36</guid><pubDate>Wed, 21 May 2025 08:04:46 +0000</pubDate><description>&lt;strong&gt;Moshi в деталях: новая архитектура диалоговой системы в реальном времени. Часть 1/2 &lt;/strong&gt;&lt;br&gt;&lt;br&gt;Разбираем &lt;a href="https://arxiv.org/abs/2410.00037" rel="nofollow noopener noreferrer"&gt;статью&lt;/a&gt; о real-time dialogue-модели Moshi, которая, в отличие от предыдущих диалоговых систем, объединяет в одной архитектуре три компонента: ASR (распознавание речи), LLM (языковая модель) и TTS (синтез речи). Такая схема позволяет воспринимать речь и генерировать ответ одновременно. Управление тем, когда говорить и когда слушать, реализовано через специальный управляющий токен. (Даже я не всегда так умею &lt;em&gt;— прим. автора&lt;/em&gt;). &lt;br&gt;&lt;br&gt;Архитектура модели состоит из четырёх частей, и у всех звучные названия. В этом посте уместим разбор двух первых частей, а в следующем — ещё двух.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Helium&lt;/strong&gt;&lt;br&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;Простая текстовая модель, предсказывающая следующий токен. &lt;br&gt;&lt;br&gt;Претрейн модели проводился на 2,1 трлн токенов. (Для сравнения: Llama 2 — 1,8 трлн, Llama 3 — 15,6 трлн). Данные собирали, фильтруя CommonCrawl — огромный дамп интернета, где много мусора, но если хорошо почистить, получается неплохой датасет. В итоге датасет состоит из 87,5% CommonCrawl и 12,5% Wikipedia.&lt;br&gt;&lt;br&gt;После претрейна провели три дополнительных этапа обучения: пост-тренировку, файнтюнинг и инструкционное обучение — чтобы модель лучше справлялась с диалогами. По оценке авторов, Helium сравнима с Llama 2 и первым Mistral, но не дотягивает до Llama 3.&lt;br&gt;&lt;br&gt;&lt;strong&gt;Mimi&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Нейросетевой аудиокодек на основе Residual Vector Quantization (RVQ). Архитектура — стандартный энкодер-декодер, но с интересными деталями: обычно в аудиокодеках используются только свёрточные слои, а тут добавили трансформеры — в конце энкодера и в начале декодера. Это сделало кодек умнее (и тяжелее).&lt;br&gt;&lt;br&gt;Ещё одно важное отличие Mimi от остальных аудиокодеков — у него довольно маленькая герцовка. Mimi нужно 12,5 векторов, чтобы закодировать секунду аудио. Для сравнения у EnCodec — 75, WavTokenizer — 40. За счёт этого трансформер поверх такого кодека можно учить с бóльшим батчем (в секундах) и быстрее инферить.&lt;br&gt;&lt;br&gt;Набор лоссов у Moshi примерно такой же, как и у HiFi-GAN-a. Единственное отличие — это то, что авторы убрали L1-loss между STFT-спектрограммами, из-за плохой корреляции с человеческим восприятием. Без него субъективные метрики получались лучше.&lt;br&gt;&lt;br&gt;Главное ноу-хау Mimi — семантическая дистилляция, которая позволяет получить акустические токены со свойствами семантических.&lt;br&gt;&lt;br&gt;Акустические токены создаются кодек-моделями вроде Mimi. Из них можно хорошо и качественно восстановить аудиозапись, но они плохо кодируют смысл и плохо связаны между собой. Из-за этого дальнейшей модели (в нашем случае — Moshi) сложно их предсказывать. &lt;br&gt;&lt;br&gt;Семантические токены делаются SSL-моделями — здесь это WavLM. Эти токены хорошо связаны между собой, они кодируют смысл сказанного в аудиозаписи. Но они не предназначены для того, чтобы восстанавливать из них аудиозапись.&lt;br&gt;&lt;br&gt;Получается, что нужны акустические токены со свойствами семантических — это то, чего авторы пытались достичь семантической дистилляцией.&lt;br&gt;&lt;br&gt;Решение — дистиллировать семантические эмбеддинги WavLM в акустические эмбеддинги Mimi. Для этого нужно посчитать косинусное расстояние между эмбеддингами WavLM и Mimi и использовать это как дополнительную компоненту лосса. Есть одна проблема — у моделей разные герцовки: у WavLM — 50, а у Moshi — 12.5, в 4 раза реже. Мы не можем просто посчитать косинусное расстояние между соответствующими эмбеддингами. Чтобы справиться с этим, авторы применили AveragePooling со stride-ом 4 к последовательности эмбеддингов из WavLM и привели обе последовательности к одной частоте — 12,5.&lt;br&gt;&lt;br&gt;В следующей части разберём главное об устройстве модели Moshi и алгоритма Inner-monologue. &lt;br&gt;&lt;br&gt;&lt;em&gt;Роман Кайль&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt; &lt;em&gt;Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>WavChat: A Survey of Spoken Dialogue Models. Часть 4/4</title><link>https://t.me/speechinfo/34</link><guid>https://t.me/speechinfo/34</guid><pubDate>Tue, 13 May 2025 08:05:41 +0000</pubDate><description>&lt;strong&gt;WavChat: A Survey of Spoken Dialogue Models. Часть 4/4&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Публикуем последнюю часть классификации и выводы из &lt;a href="https://arxiv.org/abs/2411.13577" rel="nofollow noopener noreferrer"&gt;большого обзора&lt;/a&gt; современных разговорных ИИ. &lt;br&gt;&lt;br&gt;&lt;em&gt;В предыдущих сериях: &lt;/em&gt;&lt;a href="https://t.me/speechinfo/10" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;1&lt;/em&gt;&lt;/a&gt;&lt;em&gt;, &lt;/em&gt;&lt;a href="https://t.me/speechinfo/11" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;2&lt;/em&gt;&lt;/a&gt;&lt;em&gt;, &lt;/em&gt;&lt;a href="https://t.me/speechinfo/33" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;3&lt;/em&gt;&lt;/a&gt;&lt;em&gt;.&lt;br&gt;&lt;/em&gt;&lt;br&gt;Классификация по подходу к обеспечению диалоговости: стриминг, симплекс, дюплекс, полудюплекс. Стриминговая модель может обрабатывать запросы пользователя прямо в процессе их появления, не дожидаясь конца монолога. Например, Qwen, нестриминговая модель — она ждёт, пока вы договорите, и обрабатывает всё аудио, прежде чем ответить. В настоящем же диалоге всё по-другому: собеседник слушает и осмысляет вашу реплику непрерывно, и может начать отвечать после неё с минимальной задержкой. Нестриминговые модели могут работать в симплекс-подходе, когда диалог больше похож на обмен голосовыми сообщениями. &lt;br&gt;&lt;br&gt;Полудюплекс включает в себя автоматическое определение конца речи, после которого она обрабатывается и ответ возвращается в виде аудио — как это реализовано в Alexa, Алисе и других умных помощниках.&lt;br&gt;&lt;br&gt;В полноценной дюплекс-реализации модель каждый чанк времени обрабатывает входящие реплики и генерирует выходные. Когда она слушает, она генерирует тишину или поддакивает, показывая что на связи. А если её перебить, сможет естественно остановиться, договорив слово до конца. Так получаются наиболее живые диалоги, но попытку сделать полноценный дюплекс на момент написания статьи сделали только в Moshi.&lt;br&gt;&lt;br&gt;Ещë в статье была часть про бенчи, которая скорее расстроила: эффективно измерять качество именно диалоговых систем пока толком не на чем. Есть замеры, которые сравнивают отдельные аспекты «умности» диалоговых систем/ALM. При этом у выигрывающих по бенчам статей далеко не всегда самые впечатляющие демо. &lt;br&gt;&lt;br&gt;Если пытаться идти вглубь и смотреть, как сравниваются исходные статьи, то можно найти противоречия даже в базовых замерах. Например, в задержках. &lt;br&gt;&lt;br&gt;Авторы проделали большую работу: собрали и систематизировали значимые статьи. Но аспекты, по которым они проводили систематизацию, коррелируют между собой, поэтому обзор повторяется, переходя от одного к другому. Например, парадигма тренировки на 90% определяется выбором представления звука.&lt;br&gt;&lt;br&gt;Для себя я вынес следующее:&lt;br&gt;&lt;br&gt;1. SpiritLLM, Moshi, SyncLM — интересные реализации диалоговых систем.&lt;br&gt;&lt;br&gt;2. Победят акустические токены + длительная стадия пост-претрейна на большом объёме аудио + файнтюн на диалогах (даже синтезированных). Но это не точно.&lt;br&gt;&lt;br&gt;3. Нормальных бенчей нет.&lt;br&gt;&lt;br&gt;4. Дюплекс — правильный путь, но работает пока только у Moshi, и то плохо. Спойлер, выходящий за пределы этого обзора: кажется, у &lt;a rel="nofollow noopener noreferrer"&gt;Sesame.com&lt;/a&gt; получилось.&lt;br&gt;&lt;br&gt;5. Статей становится всё больше, так что будущее — за e2e-диалоговыми системами.&lt;br&gt;&lt;br&gt;Итоговый вывод: скам статья или не скам? На мой взгляд, статья — не скам. Например, с неё будет полезно начать, чтобы понять, что вообще происходит в отрасли.&lt;br&gt;&lt;br&gt;&lt;em&gt;Никита Рыжиков&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt; &lt;em&gt;Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>WavChat: A Survey of Spoken Dialogue Models. Часть 3/4</title><link>https://t.me/speechinfo/33</link><guid>https://t.me/speechinfo/33</guid><pubDate>Mon, 05 May 2025 08:41:15 +0000</pubDate><description>&lt;strong&gt;WavChat: A Survey of Spoken Dialogue Models. Часть 3/4&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Продолжаем пошагово разбираться в классификации, которую предлагают в &lt;a href="https://arxiv.org/abs/2411.13577" rel="nofollow noopener noreferrer"&gt;большом обзоре&lt;/a&gt; актуальных разговорных систем. &lt;br&gt;&lt;br&gt;&lt;em&gt;В предыдущих сериях: &lt;/em&gt;&lt;a href="https://t.me/speechinfo/10" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;1&lt;/em&gt;&lt;/a&gt;&lt;em&gt;, &lt;/em&gt;&lt;a href="https://t.me/speechinfo/11" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;2&lt;/em&gt;&lt;/a&gt;&lt;em&gt;.&lt;br&gt;&lt;/em&gt;&lt;br&gt;Классификация по парадигме тренировки: использовали ли постпретрейн, какие задачи решали. Основной тейк этой части классификации довольно очевидный. Текстовые модели добились значительных успехов, а вот остальные (в том числе акустические), пока не могут похвастаться ни размером обучающих корпусов, ни количеством электричества, которое тратят на их обучение. Для выхода из этого тупика, нужно, чтобы при добавлении аудиомодальности тренировочная парадигма позволяла использовать мощности существующих текстовых моделей. Нужно научиться хорошо конвертировать входные запросы в акустические токены, а потом также хорошо оперировать ими. То есть, в обучении должны быть задачи, решение которых требует обуславливаться на аудиоконтекст. Например, задача ASR.&lt;br&gt;&lt;br&gt;Авторы рассматривают разные способы объединять текстовые и аудиоданные на этапе тренировки (как на картинке). Но одними из самых многообещающих считают интерливинг и chain-of-modality.&lt;br&gt;&lt;br&gt;Оба этих подхода позволяют учиться на больших корпусах частично структурированных данных, запоминая как структуру аудиоданных, так и взаимное обусловливание речи и текста друг на друга. А вот обучение адаптера в text-only-output-парадигме на большом наборе датасетов из разных задач (как было в SALMONN и Qwen-Audio) авторы считают не очень жизнеспособным. Полноценно обучить синтезу, в отрыве от других задач, нельзя — а значит, диалог с такой моделью проиграет в естественности другим подходам.&lt;br&gt;&lt;br&gt;Из этой части лично я сделал вывод, что в диалоговых системах критично наличие постпретрейн-стадии для аудиомодальности. Во-первых, хорошие диалоговые системы, представленные в статье, по большей части основаны на этой парадигме. Во-вторых, интуиция подсказывает, что за счëт такой стадии можно выиграть в выразительности синтеза и использовать большие датасеты неструктурированных аудиоданных.&lt;br&gt;&lt;br&gt;Продолжение следует.&lt;br&gt;&lt;br&gt;&lt;em&gt;Никита Рыжиков&lt;/em&gt; &lt;em&gt;❣&lt;/em&gt; &lt;em&gt;Специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;</description></item><item><title>Кто о чём, а мы — продолжаем делиться постерами с ICLR!</title><link>https://t.me/speechinfo/27</link><guid>https://t.me/speechinfo/27</guid><pubDate>Mon, 28 Apr 2025 14:35:47 +0000</pubDate><description>&lt;strong&gt;Кто о чём, а мы — продолжаем делиться постерами с ICLR!&lt;/strong&gt;&lt;br&gt;&lt;br&gt;Несём ещё несколько любопытных работ, которые заметили и прокомментировали наши засланные казачки.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2410.06424" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Restructuring Vector Quantization with the Rotation Trick&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Чтобы лучше реконструировать входные данные в VQ-VAE, нужен всего лишь простой советский... Rotation trick! Суть идеи в том, что за счёт поворота центры кластеров сдвигаются в разные стороны, что заставляет лучше использовать векторы в кодбуке. Добавляются три строчки кода без замедления обучения — и получается качество реконструкции на уровне VQ-GAN. Есть код — и, учитывая простоту имплементации, решение можно будет легко попробовать на практике.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2411.13543" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;BALROG: Benchmarking Agentic LLM and VLM Reasoning On Games&lt;/strong&gt;&lt;/a&gt;&lt;strong&gt;&lt;br&gt;&lt;/strong&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2502.02740" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Vision-Language Model Dialog Games for Self-Improvement&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Две независимые друг от друга работы. В первой — сделали несколько процедурно генерируемых игр. Стэйты игр скармливали разным LLM в текстовом и визуальном формате и замеряли качество работы — лучшие результаты у Gemini. Во второй статье отметили, что Gemini «из коробки» неплохо справляется с процедурно генерируемыми играми разной семантики. (Есть предположение, что Google использует текстовое описание партий игр, как источник данных на претрейне).&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/html/2403.07937v2" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Speech Robust Bench: A Robustness Benchmark For Speech Recognition&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Авторы предложили бенчмарк для сравнения моделей распознавания речи по разным аспектам: устойчивости к шуму, far-field и акценту. Правда, в их формуле расчёта упоминается не самая надёжная метрика PESQ, а обсудить этот выбор на месте, к сожалению, было не с кем: авторы не приехали.&lt;br&gt;&lt;br&gt;&lt;a href="https://arxiv.org/abs/2504.15071" rel="nofollow noopener noreferrer"&gt;&lt;strong&gt;Aria-MIDI: A Dataset of Piano MIDI Files for Symbolic Music Modeling&lt;/strong&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;Собрали датасет с YouTube — выбрали записи с чистой игрой на пианино. На основе них с помощью пайплайна MAESTRO подготовили датасет, который можно использовать для генеративной музыки. Также обучили модель, которая делает MIDI-транскрипцию аудиофайлов. Бонус: на постере есть красивая визуализация со сравнением композиторов (в самой статье её нет).&lt;br&gt;&lt;br&gt;&lt;em&gt;Никита Рыжиков, Степан Комков и Влад Батаев &lt;/em&gt;&lt;em&gt;❣&lt;/em&gt;&lt;em&gt; специально для &lt;/em&gt;&lt;a href="https://t.me/speechinfo" rel="nofollow noopener noreferrer"&gt;&lt;em&gt;Speech Info&lt;/em&gt;&lt;/a&gt;&lt;em&gt; &lt;/em&gt;&lt;br&gt;&lt;br&gt;#YaICLR</description></item></channel></rss>