Adriiiii24 commited on
Commit
3bde652
·
verified ·
1 Parent(s): 4e68eb9

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +28 -15
app.py CHANGED
@@ -1,24 +1,37 @@
 
 
1
  import requests
2
- import os
3
 
4
- # Configurar el token de Hugging Face como variable de entorno
5
- token = os.getenv("HF_TOKEN")
6
  if not token:
7
- raise ValueError("El token HF_TOKEN no se encontró en las variables de entorno. Asegúrate de configurarlo correctamente.")
8
 
9
- # Configuración de headers para la API de traducción
10
  API_URL = "https://api-inference.huggingface.co/models/Helsinki-NLP/opus-mt-en-es"
11
  headers = {"Authorization": f"Bearer {token}"}
12
 
13
- # Prueba de traducción para verificar el token
14
- def test_translation_api():
15
- test_response = requests.post(API_URL, headers=headers, json={"inputs": "Hello, how are you?"})
16
- response_data = test_response.json()
 
 
 
 
 
 
 
 
 
 
 
 
 
17
 
18
- # Comprobar si hay errores en la respuesta
19
- if 'error' in response_data:
20
- raise ValueError(f"Error en la API de traducción: {response_data['error']}")
21
- print("Token válido y API accesible. Respuesta de prueba:", response_data)
22
 
23
- # Ejecutar la prueba de token
24
- test_translation_api()
 
 
 
1
+ import gradio as gr
2
+ from transformers import pipeline, T5Tokenizer, T5ForConditionalGeneration
3
  import requests
 
4
 
5
+ # Configura tu token de Hugging Face directamente aquí
6
+ token = "tu_nuevo_token_aqui" # Reemplaza "tu_nuevo_token_aqui" con tu token de Hugging Face real
7
  if not token:
8
+ raise ValueError("El token no se configuró. Asegúrate de ingresarlo correctamente.")
9
 
10
+ # Configuración de los headers para la API con el token
11
  API_URL = "https://api-inference.huggingface.co/models/Helsinki-NLP/opus-mt-en-es"
12
  headers = {"Authorization": f"Bearer {token}"}
13
 
14
+ # Cargar el modelo y el tokenizador de resumen
15
+ tokenizer = T5Tokenizer.from_pretrained("sumedh/t5-base-amazonreviews", clean_up_tokenization_spaces=True)
16
+ model = T5ForConditionalGeneration.from_pretrained("sumedh/t5-base-amazonreviews")
17
+ summarizer = pipeline("summarization", model=model, tokenizer=tokenizer)
18
+
19
+ # Función para realizar el resumen y la traducción
20
+ def texto_sum(text):
21
+ # Resumir el texto de entrada
22
+ summary = summarizer(text, do_sample=False)[0]['summary_text']
23
+
24
+ # Realizar la traducción del resumen utilizando la API de Hugging Face
25
+ response = requests.post(API_URL, headers=headers, json={"inputs": summary})
26
+ translation = response.json()
27
+
28
+ # Verificar si hay errores en la respuesta de la traducción
29
+ if 'error' in translation:
30
+ return f"Error en la traducción: {translation['error']}"
31
 
32
+ return translation[0]['translation_text']
 
 
 
33
 
34
+ # Interfaz de Gradio
35
+ demo = gr.Interface(
36
+ fn=texto_sum,
37
+ inputs=gr.Textbox(label="Texto a introducir:", pla