Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -8,52 +8,55 @@ if not api_key:
|
|
8 |
raise ValueError("Chiave API OpenAI non trovata. Assicurati di aver impostato OPENAI_API_KEY.")
|
9 |
|
10 |
# Crea il client utilizzando la chiave API
|
11 |
-
openai.api_key = api_key # Usa direttamente api_key
|
12 |
|
13 |
-
|
14 |
-
"""
|
15 |
-
Utilizza l'API di OpenAI per riassumere un testo con un numero massimo di token specificato.
|
16 |
|
17 |
-
|
18 |
-
|
19 |
-
|
20 |
-
"""
|
21 |
try:
|
22 |
-
#
|
23 |
-
risposta =
|
24 |
-
model="gpt-3.5-turbo",
|
25 |
messages=[
|
26 |
-
{"role": "system", "content":
|
27 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
28 |
],
|
29 |
-
max_tokens=
|
30 |
-
temperature=0.5,
|
31 |
)
|
32 |
|
33 |
-
# Estrai
|
34 |
-
|
35 |
-
|
|
|
36 |
|
37 |
-
except openai.InvalidRequestError as e: # Gestisci errore nella richiesta
|
38 |
-
return f"Errore nella richiesta: {e}"
|
39 |
-
except openai.AuthenticationError:
|
40 |
-
return "Errore di autenticazione: chiave API non valida."
|
41 |
except Exception as e:
|
42 |
-
|
|
|
43 |
|
44 |
# Test del codice
|
45 |
if __name__ == "__main__":
|
46 |
-
|
47 |
-
|
48 |
-
|
49 |
-
|
50 |
-
)
|
51 |
|
52 |
-
|
53 |
-
|
|
|
54 |
|
55 |
print("Testo originale:")
|
56 |
-
print(
|
57 |
print("\nRiassunto:")
|
58 |
print(riassunto)
|
59 |
|
@@ -62,3 +65,4 @@ if __name__ == "__main__":
|
|
62 |
|
63 |
|
64 |
|
|
|
|
8 |
raise ValueError("Chiave API OpenAI non trovata. Assicurati di aver impostato OPENAI_API_KEY.")
|
9 |
|
10 |
# Crea il client utilizzando la chiave API
|
11 |
+
#openai.api_key = api_key # Usa direttamente api_key
|
12 |
|
13 |
+
client = openai.Client(api_key=api_key)
|
|
|
|
|
14 |
|
15 |
+
|
16 |
+
|
17 |
+
def rispondi_a_domanda(domanda, testo, max_token_risposta=350):
|
|
|
18 |
try:
|
19 |
+
# Chiamata API di OpenAI
|
20 |
+
risposta = client.chat.completions.create(
|
21 |
+
model="gpt-3.5-turbo",
|
22 |
messages=[
|
23 |
+
{"role": "system", "content": (
|
24 |
+
"Sei un assistente tecnico. Devi controllare la congruenza tra una domanda e un testo fornito, "
|
25 |
+
"e dare una risposta chiara, essenziale e pratica per aiutare un operatore a svolgere il compito. "
|
26 |
+
"Se il testo non contiene informazioni sufficienti per rispondere, dillo esplicitamente."
|
27 |
+
)},
|
28 |
+
{"role": "user", "content": (
|
29 |
+
f"Domanda: {domanda}\n"
|
30 |
+
f"Testo: {testo}\n"
|
31 |
+
"Rispondi in modo chiaro e operativo per un tecnico che deve svolgere la mansione."
|
32 |
+
)}
|
33 |
],
|
34 |
+
max_tokens=max_token_risposta,
|
35 |
+
temperature=0.5,
|
36 |
)
|
37 |
|
38 |
+
# Estrai la risposta
|
39 |
+
#risposta_finale = risposta['choices'][0]['message']['content']
|
40 |
+
risposta_finale = risposta.choices[0].message.content
|
41 |
+
return risposta_finale
|
42 |
|
|
|
|
|
|
|
|
|
43 |
except Exception as e:
|
44 |
+
print(f"Si è verificato un errore: {e}")
|
45 |
+
return
|
46 |
|
47 |
# Test del codice
|
48 |
if __name__ == "__main__":
|
49 |
+
domanda="GPT-3.5 è un modello avanzato che può tradurre un testo in diverse lingue?"
|
50 |
+
testo = """OpenAI ha sviluppato modelli linguistici avanzati come GPT-3.5 che sono in grado di generare testo, tradurre lingue,
|
51 |
+
e risolvere problemi complessi. Questi modelli possono essere utilizzati in molte applicazioni, inclusi chatbot,
|
52 |
+
strumenti di scrittura e sistemi di supporto decisionale."""
|
|
|
53 |
|
54 |
+
|
55 |
+
max_token = 350 # Numero massimo di token per il riassunto
|
56 |
+
riassunto = rispondi_a_domanda(testo, max_token)
|
57 |
|
58 |
print("Testo originale:")
|
59 |
+
print(testo)
|
60 |
print("\nRiassunto:")
|
61 |
print(riassunto)
|
62 |
|
|
|
65 |
|
66 |
|
67 |
|
68 |
+
|