Spaces:
Runtime error
Runtime error
File size: 1,747 Bytes
4839e87 d46fa4f 48ba07e b15d0ab 4aae3f6 3db2cf3 48ba07e 4aae3f6 3db2cf3 b15d0ab 8172b02 b15d0ab d46fa4f 3db2cf3 423629e 1a67d0c d46fa4f 3db2cf3 4839e87 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 |
from transformers import pipeline
import gradio as gr
import os
import spaces
# Charger le modèle GPT de Hugging Face
model_id = "deepseek-ai/deepseek-llm-7b-chat"
pipe = pipeline("text-generation", model=model_id)
# Consigne que le modèle suivra pour chaque chat
system_message = "You are a feeling analyzer."
@spaces.GPU
# Fonction pour générer une réponse à partir du message de l'utilisateur
def generate_response(user_message, history):
try:
# Ajouter le message système au début de l'historique des messages
messages = [{"role": "system", "content": system_message}] + [{"role": "user", "content": user_message}]
# Créer une chaîne de caractères représentant la conversation
conversation_text = system_message + "\n"
for past_user_input, past_bot_response in history:
conversation_text += f"User: {past_user_input}\nAssistant: {past_bot_response}\n"
# Ajouter le nouveau message de l'utilisateur
conversation_text += f"User: {user_message}\n"
# Générer une réponse
result = pipe(conversation_text, max_new_tokens=150)
response = result[0]['generated_text'].split("User: ")[-1].strip() # Extraire la réponse générée
# Mettre à jour l'historique
history.append((user_message, response))
return history, response
except Exception as e:
# En cas d'erreur, retourner l'historique inchangé et un message d'erreur
return history, f"Error: {str(e)}"
# Configurer et lancer l'interface de chat avec Gradio
iface = gr.Interface(
fn=generate_response,
inputs=["text", "state"],
outputs=["state", "text"],
live=True,
)
iface.launch()
|