Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -1,24 +1,37 @@
|
|
|
|
|
|
1 |
import requests
|
2 |
-
import os
|
3 |
|
4 |
-
#
|
5 |
-
token =
|
6 |
if not token:
|
7 |
-
raise ValueError("El token
|
8 |
|
9 |
-
# Configuración de headers para la API
|
10 |
API_URL = "https://api-inference.huggingface.co/models/Helsinki-NLP/opus-mt-en-es"
|
11 |
headers = {"Authorization": f"Bearer {token}"}
|
12 |
|
13 |
-
#
|
14 |
-
|
15 |
-
|
16 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
17 |
|
18 |
-
|
19 |
-
if 'error' in response_data:
|
20 |
-
raise ValueError(f"Error en la API de traducción: {response_data['error']}")
|
21 |
-
print("Token válido y API accesible. Respuesta de prueba:", response_data)
|
22 |
|
23 |
-
#
|
24 |
-
|
|
|
|
|
|
1 |
+
import gradio as gr
|
2 |
+
from transformers import pipeline, T5Tokenizer, T5ForConditionalGeneration
|
3 |
import requests
|
|
|
4 |
|
5 |
+
# Configura tu token de Hugging Face directamente aquí
|
6 |
+
token = "tu_nuevo_token_aqui" # Reemplaza "tu_nuevo_token_aqui" con tu token de Hugging Face real
|
7 |
if not token:
|
8 |
+
raise ValueError("El token no se configuró. Asegúrate de ingresarlo correctamente.")
|
9 |
|
10 |
+
# Configuración de los headers para la API con el token
|
11 |
API_URL = "https://api-inference.huggingface.co/models/Helsinki-NLP/opus-mt-en-es"
|
12 |
headers = {"Authorization": f"Bearer {token}"}
|
13 |
|
14 |
+
# Cargar el modelo y el tokenizador de resumen
|
15 |
+
tokenizer = T5Tokenizer.from_pretrained("sumedh/t5-base-amazonreviews", clean_up_tokenization_spaces=True)
|
16 |
+
model = T5ForConditionalGeneration.from_pretrained("sumedh/t5-base-amazonreviews")
|
17 |
+
summarizer = pipeline("summarization", model=model, tokenizer=tokenizer)
|
18 |
+
|
19 |
+
# Función para realizar el resumen y la traducción
|
20 |
+
def texto_sum(text):
|
21 |
+
# Resumir el texto de entrada
|
22 |
+
summary = summarizer(text, do_sample=False)[0]['summary_text']
|
23 |
+
|
24 |
+
# Realizar la traducción del resumen utilizando la API de Hugging Face
|
25 |
+
response = requests.post(API_URL, headers=headers, json={"inputs": summary})
|
26 |
+
translation = response.json()
|
27 |
+
|
28 |
+
# Verificar si hay errores en la respuesta de la traducción
|
29 |
+
if 'error' in translation:
|
30 |
+
return f"Error en la traducción: {translation['error']}"
|
31 |
|
32 |
+
return translation[0]['translation_text']
|
|
|
|
|
|
|
33 |
|
34 |
+
# Interfaz de Gradio
|
35 |
+
demo = gr.Interface(
|
36 |
+
fn=texto_sum,
|
37 |
+
inputs=gr.Textbox(label="Texto a introducir:", pla
|