Spaces:
Sleeping
Sleeping
File size: 1,610 Bytes
ed59b1d a7bc78c ed59b1d 87528f8 b0104eb 87528f8 2987966 5880eff ed59b1d 711e3aa 49a1b0a 711e3aa 49a1b0a 711e3aa 49a1b0a ed59b1d 711e3aa ed59b1d 711e3aa |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 |
import gradio as gr
from transformers import pipeline
import numpy as np
import httpcore
from googletrans import Translator
import time
# Correctif pour httpcore
setattr(httpcore, 'SyncHTTPTransport', object)
# Initialisation du modèle de transcription
transcriber = pipeline("automatic-speech-recognition", model="jonatasgrosman/wav2vec2-large-xlsr-53-arabic")
#transcriber = pipeline("automatic-speech-recognition", model="tarteel-ai/whisper-base-ar-quran")
#transcriber = pipeline("automatic-speech-recognition", model="elgeish/wav2vec2-large-xlsr-53-arabic")
# Initialisation du traducteur
translator = Translator()
def transcribe_and_translate(audio):
sr, y = audio
y = y.astype(np.float32)
y /= np.max(np.abs(y))
# Transcription du texte
transcription = transcriber({"sampling_rate": sr, "raw": y})["text"]
time.sleep(2)
# Traduction du texte transcrit
translation = translator.translate(transcription, src='ar', dest='fr').text
return transcription, translation
# Création de l'interface Gradio
demo = gr.Interface(
fn=transcribe_and_translate,
inputs=gr.Audio(sources=["microphone"], label="Enregistrement Audio"),
outputs=[
gr.Textbox(label="Texte en Arabe"),
gr.Textbox(label="Traduction en Français")
],
title="Transcription automatiques de l'Arabe et traduction en Français by PSW",
description="Utilisez le microphone pour parler en arabe, puis appuyez sur le bouton stop et Submit pour voir la transcription et la traduction."
)
# Lancement de l'application Gradio
demo.launch(show_error=True, share=True)
|