AI translatedFrançaisEnglish

Fish Audio lance en open-source S2 : le contrôle granulaire rencontre le streaming en production

9 mars 2026

Shijia LiaoShijia Liao, Chief Scientist
Open SourceRecherche
Fish Audio lance en open-source S2 : le contrôle granulaire rencontre le streaming en production

S2 Pro est disponible sur Fish Audio App et son code source est accessible via le dépôt GitHub du projet et sur HuggingFace.

Fish Audio a ouvert le code source de S2, un modèle de synthèse vocale (text-to-speech) qui prend en charge un contrôle en ligne granulaire de la prosodie et des émotions à l'aide de balises en langage naturel telles que [laugh], [whispers], et [super happy]. Entraîné sur plus de 10 millions d'heures d'audio dans environ 50 langues, le système combine l'alignement par apprentissage par renforcement avec une architecture doublement autorégressive. Cette version inclut les poids du modèle, le code de fine-tuning et un moteur d'inférence en streaming basé sur SGLang.

Contrôle en ligne granulaire via le langage naturel

S2 permet un contrôle en ligne de la génération de la parole en intégrant des instructions en langage naturel directement à des positions spécifiques de mots ou de phrases dans le texte. Plutôt que de s'appuyer sur un ensemble fixe de balises prédéfinies, S2 accepte des descriptions textuelles libres — telles que [whisper in small voice], [professional broadcast tone], ou [pitch up] — permettant un contrôle de l'expression illimité au niveau du mot.

Sur le Test de Turing Audio, S2 atteint une moyenne a posteriori de 0,515 avec réécriture d'instructions, contre 0,417 pour Seed-TTS et 0,387 pour MiniMax-Speech. Sur EmergentTTS-Eval, il atteint un taux de victoire global de 81,88 % par rapport à une base de référence gpt-4o-mini-tts — le plus élevé parmi tous les modèles évalués, y compris les systèmes à source fermée de Google et OpenAI.

Exemple de format d'entrée S2 Exemple de format d'entrée S2 montrant un dialogue multi-locuteur avec des balises en ligne en langage naturel de forme libre pour un contrôle granulaire.

Une recette unifiée : Collecte de données et récompenses RL issues des mêmes modèles

Une décision architecturale centrale de S2 est que les mêmes modèles utilisés pour filtrer et annoter les données d'entraînement sont directement réutilisés comme modèles de récompense lors de l'apprentissage par renforcement :

  • Le modèle de qualité vocale évalue l'audio selon des dimensions telles que le SNR, la cohérence du locuteur et l'intelligibilité lors du filtrage des données — puis sert de récompense de préférence acoustique pendant le RL.
  • Le modèle ASR de transcription riche (pré-entraîné à partir de Qwen3-Omni-30B-A3B) génère des transcriptions augmentées de légendes avec des annotations paralinguistiques en ligne pendant la collecte des données — puis fournit la récompense d'intelligibilité et de suivi d'instructions en re-transcrivant l'audio généré et en le comparant à l'invite originale.

Cette conception à double usage élimine par construction le décalage de distribution entre les données de pré-entraînement et les objectifs de post-entraînement — un problème qui reste non résolu dans d'autres systèmes TTS qui entraînent des modèles de récompense séparément de leurs pipelines de données.

Au cœur du modèle : Architecture Dual-AR

S2 repose sur un transformateur de type décodeur seul (decoder-only) combiné à un codec audio basé sur la RVQ (10 dictionnaires de codes, taux de rafraîchissement d'environ 21 Hz). L'aplatissement de tous les dictionnaires de codes dans le temps provoquerait une explosion de la longueur de séquence par 10. S2 résout ce problème avec une architecture doublement autorégressive (Dual-AR) :

  • L'AR lente (Slow AR) opère le long de l'axe temporel et prédit le dictionnaire de codes sémantiques primaire.
  • L'AR rapide (Fast AR) génère les 9 dictionnaires de codes résiduels restants à chaque étape temporelle, reconstruisant les détails acoustiques fins.

Cette conception asymétrique — 4 milliards de paramètres le long de l'axe temporel, 400 millions de paramètres le long de l'axe de profondeur — maintient l'efficacité de l'inférence tout en préservant la fidélité audio.

Alignement par apprentissage par renforcement pour la parole

Pour le post-entraînement, S2 utilise l'optimisation de politique relative de groupe (GRPO), choisie pour éviter la surcharge mémoire des modèles de valeur de style PPO dans les contextes audio longs. Le signal de récompense combine plusieurs dimensions, notamment :

  • Précision sémantique et respect des instructions
  • Score de préférence acoustique
  • Similitude du timbre

Résultats des benchmarks

S2 obtient des résultats de premier plan sur plusieurs benchmarks publics :

BenchmarkFish Audio S2
Seed-TTS Eval — WER (Chinois)0,54 % (meilleur score global)
Seed-TTS Eval — WER (Anglais)0,99 % (meilleur score global)
Test de Turing Audio (avec instruction)Moyenne a posteriori de 0,515
EmergentTTS-Eval — Taux de victoire81,88 % (le plus élevé globalement)
Fish Instruction Benchmark — TAR93,3 %
Fish Instruction Benchmark — Qualité4,51 / 5,0
Multilingue (MiniMax Testset) — Meilleur WER11 sur 24 langues
Multilingue (MiniMax Testset) — Meilleure SIM17 sur 24 langues

Sur Seed-TTS Eval, S2 obtient le WER le plus bas parmi tous les modèles évalués, y compris les systèmes à source fermée : Qwen3-TTS (0,77/1,24), MiniMax Speech-02 (0,99/1,90), Seed-TTS (1,12/2,25). Sur le Test de Turing Audio, le score de 0,515 surpasse Seed-TTS (0,417) de 24 % et MiniMax-Speech (0,387) de 33 %. Sur EmergentTTS-Eval, S2 obtient des résultats particulièrement solides en paralinguistique (taux de victoire de 91,61 %), pour les questions (84,41 %) et la complexité syntaxique (83,39 %).

Streaming en production via SGLang

Parce que l'architecture Dual-AR de S2 est structurellement isomorphe aux LLM autorégressifs standards, elle peut directement hériter de toutes les optimisations de service natives des LLM de SGLang avec un minimum de modifications — y compris le batching continu, le cache KV paginé, la relecture de graphe CUDA et la mise en cache de préfixe basée sur RadixAttention.

Pour le clonage de voix, S2 place les jetons audio de référence dans l'invite système. Le système RadixAttention de SGLang met automatiquement en cache ces états KV, atteignant un taux de réussite moyen du cache de préfixe de 86,4 % (plus de 90 % en pic) lorsque la même voix est réutilisée d'une requête à l'autre — rendant la surcharge de pré-remplissage de l'audio de référence presque négligeable.

Sur un seul GPU NVIDIA H200 :

  • Facteur temps réel (RTF) : 0,195
  • Délai avant le premier son : environ 100 ms
  • Débit : plus de 3 000 jetons acoustiques/s tout en maintenant un RTF inférieur à 0,5

Pourquoi cette sortie est importante

S2 n'est pas seulement publié comme un point de contrôle de modèle, mais comme un système complet : poids du modèle, code de fine-tuning et pile d'inférence prête pour la production.

Deux choix de conception se distinguent. Premièrement, le pipeline unifié de données et de récompenses élimine un problème structurel — le décalage de distribution entre le pré-entraînement et le RL — que d'autres systèmes TTS n'ont pas abordé au niveau de l'architecture. Deuxièmement, l'isomorphisme structurel entre l'architecture Dual-AR et les LLM standards signifie que S2 peut tirer parti de tout l'écosystème d'optimisations de service des LLM, plutôt que de nécessiter une infrastructure d'inférence personnalisée.

S2 est disponible via le dépôt GitHub du projet, SGLang-Omni, HuggingFace, et en démo interactive sur fish.audio.

Questions Fréquemment Posées

S2 prend en charge nativement la génération multi-locuteurs et multi-tours. En intégrant des balises de locuteur et des instructions en ligne en langage naturel directement dans l'entrée, S2 tisse plusieurs voix ensemble tout en maintenant un timbre cohérent, en adaptant la prosodie et en respectant les indices émotionnels de chaque locuteur — ce qui le rend idéal pour générer des conversations complètes, et pas seulement une narration à voix unique.
Oui. S2 est disponible via l'API Fish Audio sur fish.audio. Les poids complets du modèle, le code de fine-tuning et le moteur d'inférence basé sur SGLang sont également ouverts sur GitHub (github.com/fishaudio/fish-speech) et HuggingFace (huggingface.co/fishaudio/s2-pro) pour l'auto-hébergement.
S2 accepte des balises en ligne en langage naturel de forme libre plutôt qu'un ensemble prédéfini fixe — vous n'êtes donc pas limité à un vocabulaire fermé. Des balises comme [laugh], [whispers], [super happy], [professional broadcast tone] ou [pitch up] peuvent être insérées à n'importe quelle position de mot ou de phrase. Comme le système est entraîné sur des descriptions ouvertes, les nouvelles balises se généralisent bien au-delà des exemples vus lors de l'entraînement.
S2 est entraîné sur plus de 10 millions d'heures d'audio couvrant environ 80 langues. Sur le jeu de test multilingue MiniMax — couvrant 24 langues — S2 obtient le meilleur WER dans 11 langues et la meilleure similitude de locuteur dans 17 langues, surpassant à la fois MiniMax et ElevenLabs sur la majorité du benchmark : Allemand, Anglais, Arabe, Cantonais, Chinois, Coréen, Espagnol, Finnois, Français, Grec, Hindi, Indonésien, Italien, Japonais, Néerlandais, Polonais, Portugais, Roumain, Russe, Tchèque, Thaï, Turc, Ukrainien, Vietnamien.

Créez des voix qui semblent réelles

Commencez à générer un son de la plus haute qualité dès aujourd'hui.

Vous avez déjà un compte ? Se connecter

Partager cet article


Shijia Liao

Shijia LiaoX

Lengyue is the founder of Fish Audio and a cracked researcher pushing breakthroughs in Voice AI. Follow his work at @lengyuematrix.

Lire plus de Shijia Liao >

Articles récents

Voir tout >