Spaces:
Sleeping
Sleeping
import openai | |
import os | |
# Configura la tua chiave API in modo sicuro | |
api_key = os.getenv("OPENAI_API_KEY") # Imposta la chiave come variabile d'ambiente | |
if not api_key: | |
raise ValueError("Chiave API OpenAI non trovata. Assicurati di aver impostato OPENAI_API_KEY.") | |
# Crea il client utilizzando la chiave API | |
#openai.api_key = api_key # Usa direttamente api_key | |
client = openai.Client(api_key=api_key) | |
def rispondi_a_domanda(domanda, testo, max_token_risposta=350): | |
try: | |
# Chiamata API di OpenAI | |
risposta = client.chat.completions.create( | |
model="gpt-3.5-turbo", | |
messages=[ | |
{"role": "system", "content": ( | |
"Sei un assistente tecnico. Devi controllare la congruenza tra una domanda e un testo fornito, " | |
"e dare una risposta chiara, essenziale e pratica per aiutare un operatore a svolgere il compito. " | |
"Se il testo non contiene informazioni sufficienti per rispondere, dillo esplicitamente." | |
)}, | |
{"role": "user", "content": ( | |
f"Domanda: {domanda}\n" | |
f"Testo: {testo}\n" | |
"Rispondi in modo chiaro e operativo per un tecnico che deve svolgere la mansione." | |
)} | |
], | |
max_tokens=max_token_risposta, | |
temperature=0.5, | |
) | |
# Estrai la risposta | |
#risposta_finale = risposta['choices'][0]['message']['content'] | |
risposta_finale = risposta.choices[0].message.content | |
return risposta_finale | |
except Exception as e: | |
print(f"Si è verificato un errore: {e}") | |
return | |
# Test del codice | |
if __name__ == "__main__": | |
domanda="GPT-3.5 è un modello avanzato che può tradurre un testo in diverse lingue?" | |
testo = """OpenAI ha sviluppato modelli linguistici avanzati come GPT-3.5 che sono in grado di generare testo, tradurre lingue, | |
e risolvere problemi complessi. Questi modelli possono essere utilizzati in molte applicazioni, inclusi chatbot, | |
strumenti di scrittura e sistemi di supporto decisionale.""" | |
max_token = 350 # Numero massimo di token per il riassunto | |
riassunto = rispondi_a_domanda(domanda,testo, max_token) | |
print("Testo originale:") | |
print(testo) | |
print("\nRiassunto:") | |
print(riassunto) | |