Spaces:
Runtime error
Runtime error
File size: 1,496 Bytes
3db2cf3 d46fa4f 4aae3f6 d37ef41 a8cd301 d37ef41 3db2cf3 3e84f43 4aae3f6 3e84f43 3db2cf3 1a67d0c d46fa4f 3db2cf3 1a67d0c d46fa4f 3db2cf3 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 |
from transformers import pipeline, Conversation, ConversationalPipeline
import gradio as gr
import spaces
@space.gpu
# Charger le modèle GPT de Hugging Face
# Use a pipeline as a high-level helper
messages = [
{"role": "user", "content": "Who are you?"},
]
pipe = pipeline("text-generation", model="deepseek-ai/deepseek-llm-7b-chat")
pipe(messages)
# Consigne que le modèle suivra pour chaque chat
system_message = "You are a helpful assistant that always responds in a friendly manner."
# Fonction pour générer une réponse à partir du message de l'utilisateur
def generate_response(user_message, history):
# Ajouter le message système au début de l'historique des messages
messages = [{"role": "system", "content": system_message}] + [{"role": "user", "content": user_message}]
# Créer une conversation avec l'historique des messages
conversation = Conversation()
for message in messages:
if message["role"] == "user":
conversation.add_user_input(message["content"])
else:
conversation.append_response(message["content"])
# Générer une réponse
result = chat_pipeline(conversation)
response = result.generated_responses[-1]
history.append((user_message, response))
return history, response
# Configurer et lancer l'interface de chat avec Gradio
iface = gr.Interface(
fn=generate_response,
inputs=["text", "state"],
outputs=["state", "text"],
live=True,
)
iface.launch()
|