xTTS-fr-cpu / app.py
Woziii's picture
Update app.py
549ef14 verified
raw
history blame
5.84 kB
import subprocess
import os
import gradio as gr
from TTS.api import TTS
# Initialisation du modèle TTS avec GPU désactivé
tts = TTS("tts_models/multilingual/multi-dataset/xtts_v2", gpu=False)
# Répertoire de sortie pour tous les fichiers audio
output_folder = "output_audio"
os.makedirs(output_folder, exist_ok=True)
# Fonction pour générer un fichier audio à partir d'une section
def generate_section_audio(project_name, section_name, text, speaker):
try:
# Création du sous-dossier pour le projet
project_path = os.path.join(output_folder, project_name)
os.makedirs(project_path, exist_ok=True)
# Définir le chemin de sortie pour cette section
file_name = f"{section_name}.wav"
output_path = os.path.join(project_path, file_name)
# Vérifier la disponibilité des fichiers audio pour le speaker
speaker_wav_paths = [os.path.join("examples", f) for f in os.listdir("examples") if f.startswith(speaker) and f.endswith(".wav")]
if not speaker_wav_paths:
raise ValueError(f"Aucun fichier audio trouvé pour le speaker : {speaker}")
# Génération de l'audio
tts.tts_to_file(
text=text,
file_path=output_path,
speaker_wav=speaker_wav_paths,
language="fr"
)
return output_path # Retourne le chemin de l'audio généré
except Exception as e:
return str(e) # Retourne l'erreur pour gestion dans l'interface
# Fonction pour gérer la visibilité des étapes
def update_steps(current_step, target_step):
return {"visible": target_step == 1}, {"visible": target_step == 2}, {"visible": target_step == 3}
# Interface Gradio
with gr.Blocks() as demo:
# État global pour gérer les sections
sections = gr.State(value=[])
# Introduction générale
gr.Markdown("""
# 🎙️ Synthèse Vocale Margaux
## 👋 Bienvenue sur Margaux - Votre outil de synthèse vocale avancée
Margaux vous permet de générer des voix off naturelles à partir de textes, structurées par sections pour une meilleure qualité audio.
**Étapes principales :**
1. 🛠️ **Créer un projet** : Définissez le nom du projet et choisissez la voix.
2. ✍️ **Ajouter des sections** : Divisez votre texte en parties claires, chacune avec un nom unique.
3. 🎧 **Générer les audios** : Chaque section est transformée en fichier audio individuel.
4. 📁 **Sauvegardez le projet** : Finalisez et récupérez les fichiers validés.
""")
# Étape 1 : Création du Projet
with gr.Row(visible=True) as step1:
gr.Markdown("### 🛠️ Étape 1 : Création du Projet")
project_name = gr.Textbox(label="Nom du Projet", placeholder="Exemple : Capsule_Video_PLU")
speaker = gr.Dropdown(label="Voix 🎙️", choices=["Margaux"], value="Margaux") # Liste de voix
agree = gr.Checkbox(label="✅ J'accepte les conditions d'utilisation")
project_message = gr.Markdown(value="", visible=False) # Composant pour afficher les messages
next_btn_1 = gr.Button("Suivant ➡️")
# Étape 2 : Gestion des Sections
with gr.Row(visible=False) as step2:
gr.Markdown("### ✍️ Étape 2 : Ajoutez vos Sections")
sections_list = gr.Column() # Conteneur pour afficher les sections ajoutées
add_section_btn = gr.Button("+ Ajouter une Section ➕")
remove_section_btn = gr.Button("- Supprimer la dernière Section ➖")
prev_btn_2 = gr.Button("⬅️ Précédent")
next_btn_2 = gr.Button("Suivant ➡️")
# Étape 3 : Génération des Audios
with gr.Row(visible=False) as step3:
gr.Markdown("### 🎧 Étape 3 : Génération des Audios")
results_output = gr.Column() # Conteneur pour afficher les résultats
generate_btn = gr.Button("Générer les Audios ▶️")
prev_btn_3 = gr.Button("⬅️ Précédent")
save_project_btn = gr.Button("Sauvegarder le Projet ✅")
# Actions des Boutons
def create_project(project_name, speaker, agree):
if not agree:
return "❗ Veuillez accepter les conditions d'utilisation.", False, False
if not project_name:
return "❗ Le nom du projet est obligatoire.", False, False
os.makedirs(os.path.join(output_folder, project_name), exist_ok=True)
return f"✅ Projet '{project_name}' créé avec succès !", True, False
next_btn_1.click(
create_project,
inputs=[project_name, speaker, agree],
outputs=[project_message, step1, step2],
)
def add_section(sections):
section = {"name": f"Section_{len(sections) + 1}", "text": ""}
sections.append(section)
return sections
add_section_btn.click(add_section, inputs=[sections], outputs=[sections_list])
def remove_section(sections):
if sections:
sections.pop()
return sections
remove_section_btn.click(remove_section, inputs=[sections], outputs=[sections_list])
def generate_audios(project_name, sections, speaker):
results = []
for section in sections:
name = section["name"]
text = section["text"]
audio_path = generate_section_audio(project_name, name, text, speaker)
results.append(audio_path)
return results
generate_btn.click(
generate_audios,
inputs=[project_name, sections, speaker],
outputs=[results_output],
)
prev_btn_2.click(lambda: (True, False), inputs=None, outputs=[step1, step2])
next_btn_2.click(lambda: (False, True), inputs=None, outputs=[step2, step3])
prev_btn_3.click(lambda: (True, False), inputs=None, outputs=[step2, step3])
# Lancement de l'interface
demo.launch(debug=True)