Spaces:
Runtime error
Runtime error
File size: 1,334 Bytes
bd0aafe 41b46aa 82696af a574616 82696af bd0aafe 82696af a574616 82696af 41b46aa 82696af 405c6a7 82696af 41b46aa 82696af 41b46aa 405c6a7 d6347df a574616 41b46aa a574616 82696af 41b46aa 82696af 41b46aa 82696af 41b46aa bd0aafe a574616 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 |
import gradio as gr
import torch
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
# Modèle Hugging Face sélectionné
model_name = "PoloHuggingface/French_grammar_error_corrector"
# Chargement du modèle et du tokenizer
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
# Vérification GPU/CPU
device = "cuda" if torch.cuda.is_available() else "cpu"
model.to(device)
def correction_grammaticale(texte):
"""
Fonction qui envoie le texte au modèle T5 pour correction grammaticale.
"""
# Préfixe facultatif (à tester si nécessaire)
input_text = texte
# Tokenisation
inputs = tokenizer(input_text, return_tensors="pt", truncation=True).to(device)
# Génération du texte corrigé
outputs = model.generate(
**inputs,
max_length=512,
num_beams=4,
early_stopping=True
)
# Décodage du texte corrigé
correction = tokenizer.decode(outputs[0], skip_special_tokens=True)
return correction
# Interface utilisateur Gradio
demo = gr.Interface(
fn=correction_grammaticale,
inputs=gr.Textbox(label="Texte à corriger"),
outputs=gr.Textbox(label="Texte corrigé"),
title="Correcteur Grammatical Français"
)
if __name__ == "__main__":
demo.launch()
|