alex-abb's picture
Update app.py
b15d0ab verified
raw
history blame
1.43 kB
from transformers import pipeline, Conversation
import gradio as gr
import os
import spaces
# Charger le modèle GPT de Hugging Face
model_id = "deepseek-ai/deepseek-llm-7b-chat"
pipe = pipeline("text-generation", model=model_id)
# Consigne que le modèle suivra pour chaque chat
system_message = "You are a feeling analyzer."
@spaces.GPU
# Fonction pour générer une réponse à partir du message de l'utilisateur
def generate_response(user_message, history):
# Ajouter le message système au début de l'historique des messages
messages = [{"role": "system", "content": system_message}] + [{"role": "user", "content": user_message}]
# Créer une conversation avec l'historique des messages
conversation = Conversation()
for past_user_input, past_bot_response in history:
conversation.add_user_input(past_user_input)
conversation.append_response(past_bot_response)
# Ajouter le nouveau message de l'utilisateur
conversation.add_user_input(user_message)
# Générer une réponse
result = pipe(conversation)
response = result[0]['generated_text']
# Mettre à jour l'historique
history.append((user_message, response))
return history, response
# Configurer et lancer l'interface de chat avec Gradio
iface = gr.Interface(
fn=generate_response,
inputs=["text", "state"],
outputs=["state", "text"],
live=True,
)
iface.launch()