====== Audio et IA ====== Ressources et outils pour générer musique, voix, effets sonores, ou entraîner ses propres modèles (en ligne ou en local). ===== Musique ===== * **Suno** – Génération de chansons complètes (musique + voix). https://suno-ai.one/fr * **Stable Audio** – Génération musique + SFX haute qualité. https://stableaudio.net/ * **Udio** – Génération musicale avancée. https://www.udio.com/ * **Sonauto** – Outil IA simple pour création rapide. * **Ace Step (ComfyUI)** – Modèle local très rapide (workflow audio). * **Riffusion** – Modèle open-source (diffusion sur spectrogramme). https://github.com/riffusion/riffusion ===== Voix ===== * **ElevenLabs** – Synthèse vocale réaliste + clonage. https://elevenlabs.io/ * **OpenVoice (MyShell)** – Clonage vocal open-source. https://github.com/myshell-ai/OpenVoice * **Bark (Suno)** – Modèle TTS open-source. https://github.com/suno-ai/bark * **Coqui TTS (VITS)** – Synthèse vocale locale, entraînable. https://github.com/coqui-ai/TTS ===== Sound FX, Ambiances & Instruments ===== * **AudioLDM** – Text-to-audio open-source (SFX, ambiances, musique). https://audioldm.github.io/ * **RAVE (IRCAM)** – Modèle neuronal rapide, compatible Max/MSP. https://github.com/acids-ircam/RAVE * **Stable Audio** – Génération d’effets sonores et ambiances. * **Diff-Foley** – Foley génératif réaliste. https://github.com/IRIS-AUDIO/AudioGPT/tree/main/diff-foley ===== Entraînement ===== * **RAVE** – Entraînement simple sur ses propres datasets (instruments, voix, textures). * **AudioLDM** – Fine-tuning via scripts Python. * **VITS / Coqui TTS** – Entraînement voix personnalisées en local.