Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -18,17 +18,24 @@ summarizer = pipeline("summarization", model=model, tokenizer=tokenizer)
|
|
18 |
|
19 |
# Función para realizar el resumen y la traducción
|
20 |
def texto_sum(text):
|
21 |
-
#
|
22 |
-
|
23 |
-
|
24 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
25 |
translation = response.json()
|
|
|
26 |
# Verificar si hay errores en la respuesta de la traducción
|
27 |
if 'error' in translation:
|
28 |
return f"Error en la traducción: {translation['error']}"
|
29 |
|
30 |
return translation[0]['translation_text']
|
31 |
-
|
32 |
# Interfaz de Gradio
|
33 |
demo = gr.Interface(
|
34 |
fn=texto_sum,
|
@@ -37,4 +44,3 @@ demo = gr.Interface(
|
|
37 |
)
|
38 |
# Lanzar la interfaz
|
39 |
demo.launch()
|
40 |
-
|
|
|
18 |
|
19 |
# Función para realizar el resumen y la traducción
|
20 |
def texto_sum(text):
|
21 |
+
# Dividir el texto en partes si es demasiado largo para el modelo de resumen
|
22 |
+
max_input_length = 512
|
23 |
+
text_chunks = [text[i:i+max_input_length] for i in range(0, len(text), max_input_length)]
|
24 |
+
|
25 |
+
# Resumir cada parte y unir los resúmenes
|
26 |
+
summaries = [summarizer(chunk, max_length=100, min_length=30, do_sample=False)[0]['summary_text'] for chunk in text_chunks]
|
27 |
+
full_summary = " ".join(summaries)
|
28 |
+
|
29 |
+
# Realizar la traducción del resumen completo utilizando la API de Hugging Face
|
30 |
+
response = requests.post(API_URL, headers=headers, json={"inputs": full_summary})
|
31 |
translation = response.json()
|
32 |
+
|
33 |
# Verificar si hay errores en la respuesta de la traducción
|
34 |
if 'error' in translation:
|
35 |
return f"Error en la traducción: {translation['error']}"
|
36 |
|
37 |
return translation[0]['translation_text']
|
38 |
+
|
39 |
# Interfaz de Gradio
|
40 |
demo = gr.Interface(
|
41 |
fn=texto_sum,
|
|
|
44 |
)
|
45 |
# Lanzar la interfaz
|
46 |
demo.launch()
|
|