import gradio as gr from transformers import pipeline # Cargar el modelo de transcripción Whisper transcriber = pipeline("automatic-speech-recognition", model="openai/whisper-small") # Función para transcribir audio def transcribe(audio): result = transcriber(audio) return result["text"] # Crear interfaz Gradio demo = gr.Interface( fn=transcribe, inputs=gr.Audio(source="upload", type="filepath"), outputs="text", title="Transcripción de Audio en Vivo", description="Sube un archivo de audio para transcribir su contenido automáticamente." ) # Lanzar la aplicación if __name__ == "__main__": demo.launch()