SimpleFrog commited on
Commit
1cc0f11
·
verified ·
1 Parent(s): 6869d8a

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +13 -1
app.py CHANGED
@@ -47,6 +47,13 @@ split_option = st.selectbox(
47
  index=0 # par défaut "Tous"
48
  )
49
 
 
 
 
 
 
 
 
50
  # Section : Bouton pour lancer l'évaluation
51
  start_eval = st.button("🚀 Lancer l'évaluation WER")
52
 
@@ -73,6 +80,11 @@ if start_eval:
73
  st.error(f"Erreur lors du chargement du dataset : {e}")
74
  st.stop()
75
 
 
 
 
 
 
76
  # 🔹 Charger le modèle choisi
77
  with st.spinner("Chargement du modèle..."):
78
  base_model_name = "openai/whisper-large"
@@ -89,7 +101,7 @@ if start_eval:
89
  with st.spinner("Chargement du modèle de post-traitement Mistral..."):
90
  postproc_pipe = pipeline(
91
  "text2text-generation",
92
- model="NousResearch/Nous-Hermes-2-Mistral-7B",
93
  device_map="auto", # ou device=0 si tu veux forcer le GPU
94
  torch_dtype=torch.float16 # optionnel mais plus léger
95
  )
 
47
  index=0 # par défaut "Tous"
48
  )
49
 
50
+ # Section : Choix du nombre maximal d'exemples à évaluer
51
+ max_examples_option = st.selectbox(
52
+ "Nombre maximum d'audios à traiter",
53
+ options=["1", "5", "10", "Tous"],
54
+ index=3 # par défaut "Tous"
55
+ )
56
+
57
  # Section : Bouton pour lancer l'évaluation
58
  start_eval = st.button("🚀 Lancer l'évaluation WER")
59
 
 
80
  st.error(f"Erreur lors du chargement du dataset : {e}")
81
  st.stop()
82
 
83
+ # Limiter le nombre d'exemples selon la sélection
84
+ if max_examples_option != "Tous":
85
+ max_examples = int(max_examples_option)
86
+ dataset = dataset.select(range(min(max_examples, len(dataset))))
87
+
88
  # 🔹 Charger le modèle choisi
89
  with st.spinner("Chargement du modèle..."):
90
  base_model_name = "openai/whisper-large"
 
101
  with st.spinner("Chargement du modèle de post-traitement Mistral..."):
102
  postproc_pipe = pipeline(
103
  "text2text-generation",
104
+ model="NousResearch/Nous-Hermes-2-Mistral-7B-DPO",
105
  device_map="auto", # ou device=0 si tu veux forcer le GPU
106
  torch_dtype=torch.float16 # optionnel mais plus léger
107
  )