xTTS-fr-cpu / app.py
Woziii's picture
Update app.py
729b788 verified
raw
history blame
4.84 kB
import subprocess
import gradio as gr
from TTS.api import TTS
import os
import time
import torch
# Initialisation du modèle TTS avec GPU désactivé
tts = TTS("tts_models/multilingual/multi-dataset/xtts_v2", gpu=False)
# Répertoire de sortie pour tous les fichiers audio
output_folder = "output_audio"
os.makedirs(output_folder, exist_ok=True)
# Fonction pour générer un fichier audio à partir d'une section
def generate_section_audio(project_name, section_name, text, speaker):
try:
# Création du sous-dossier pour le projet
project_path = os.path.join(output_folder, project_name)
os.makedirs(project_path, exist_ok=True)
# Définir le chemin de sortie pour cette section
file_name = f"{section_name}.wav"
output_path = os.path.join(project_path, file_name)
# Vérifier la disponibilité des fichiers audio pour le speaker
speaker_wav_paths = [os.path.join("examples", f) for f in os.listdir("examples") if f.startswith(speaker) and f.endswith(".wav")]
if not speaker_wav_paths:
raise ValueError(f"Aucun fichier audio trouvé pour le speaker : {speaker}")
# Génération de l'audio
tts.tts_to_file(
text=text,
file_path=output_path,
speaker_wav=speaker_wav_paths,
language="fr"
)
return output_path # Retourne le chemin de l'audio généré
except Exception as e:
return str(e) # Retourne l'erreur pour gestion dans l'interface
# Fonction pour gérer l'état d'avancement de l'interface
def update_step(step):
return {"visible": step == 1}, {"visible": step == 2}, {"visible": step == 3}
# Interface Gradio
with gr.Blocks() as demo:
step = gr.State(value=1) # État pour suivre l'étape active
sections = gr.State(value=[]) # Liste dynamique des sections
# Étape 1 : Création du Projet
with gr.Row(visible=True) as step1:
gr.Markdown("### 🛠️ Étape 1 : Création du Projet")
project_name = gr.Textbox(label="Nom du Projet", placeholder="Exemple : Capsule_Video_PLU")
speaker = gr.Dropdown(label="Voix 🎙️", choices=["Margaux"], value="Margaux") # Liste de voix
agree = gr.Checkbox(label="✅ J'accepte les conditions d'utilisation")
next_btn_1 = gr.Button("Suivant ➡️")
# Étape 2 : Gestion des Sections
with gr.Row(visible=False) as step2:
gr.Markdown("### ✍️ Étape 2 : Ajoutez vos Sections")
sections_list = gr.Column() # Conteneur pour les sections
add_section_btn = gr.Button("+ Ajouter une Section ➕")
remove_section_btn = gr.Button("- Supprimer la dernière Section ➖")
prev_btn_2 = gr.Button("⬅️ Précédent")
next_btn_2 = gr.Button("Suivant ➡️")
# Étape 3 : Génération des Audios et Sauvegarde
with gr.Row(visible=False) as step3:
gr.Markdown("### 🎧 Étape 3 : Génération et Sauvegarde")
generate_btn = gr.Button("Générer les Audios ▶️")
results_output = gr.Column() # Conteneur pour les audios générés
prev_btn_3 = gr.Button("⬅️ Précédent")
save_project_btn = gr.Button("Sauvegarder le Projet ✅")
# Actions des Boutons
def create_project(project_name, speaker, agree):
if not agree:
return gr.Error("❗ Veuillez accepter les conditions d'utilisation.")
if not project_name:
return gr.Error("❗ Le nom du projet est obligatoire.")
os.makedirs(os.path.join(output_folder, project_name), exist_ok=True)
return f"✅ Projet '{project_name}' créé avec succès !", 2
next_btn_1.click(create_project, inputs=[project_name, speaker, agree], outputs=[None, step])
step.change(update_step, inputs=step, outputs=[step1, step2, step3])
def add_section(sections):
section = {"name": f"Section_{len(sections) + 1}", "text": ""}
sections.append(section)
return sections
add_section_btn.click(add_section, inputs=[sections], outputs=[sections_list])
def remove_section(sections):
if sections:
sections.pop()
return sections
remove_section_btn.click(remove_section, inputs=[sections], outputs=[sections_list])
def generate_audios(project_name, sections, speaker):
results = process_project(project_name, sections, speaker)
return results
next_btn_2.click(lambda: 3, inputs=None, outputs=step)
prev_btn_2.click(lambda: 1, inputs=None, outputs=step)
step.change(update_step, inputs=step, outputs=[step1, step2, step3])
prev_btn_3.click(lambda: 2, inputs=None, outputs=step)
generate_btn.click(generate_audios, inputs=[project_name, sections, speaker], outputs=[results_output])
# Lancement de l'interface
demo.launch(debug=True)