import gradio as gr import requests # Fonction pour interroger Ollama def query_ollama(prompt): # Configuration de l'URL et du modèle Ollama url = "http://localhost:11434/api/generate" # Le port utilisé par Ollama model_name = "hf.co/ibrahimBlyc/LA_Llama:latest" # Nom complet du modèle # Corps de la requête payload = { "model": model_name, "prompt": prompt } try: # Envoi de la requête POST response = requests.post(url, json=payload) response.raise_for_status() # Vérifie les erreurs HTTP result = response.json().get("response", "Aucune réponse reçue.") except requests.exceptions.RequestException as e: result = f"Erreur : {e}" return result # Interface Gradio interface = gr.Interface( fn=query_ollama, inputs=gr.Textbox(label="Entrée utilisateur", placeholder="Posez une question..."), outputs=gr.Textbox(label="Réponse du modèle"), title="Interface Ollama via Hugging Face Spaces", description="Une interface simple pour communiquer avec un modèle Ollama via le port 11434." ) if __name__ == "__main__": interface.launch()