File size: 718 Bytes
3b4ac2c
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
import requests
import os
from dotenv import load_dotenv

# Charger les variables d'environnement depuis .env
load_dotenv()

# Récupérer la clé API Hugging Face depuis .env
HF_API_TOKEN = os.getenv("HF_API_TOKEN")

# URL de l'API d'inférence
API_URL = "https://api-inference.huggingface.co/models/meta-llama/Meta-Llama-3-8B"
headers = {"Authorization": f"Bearer {HF_API_TOKEN}"}

# Fonction pour envoyer une requête
def query(payload):
    response = requests.post(API_URL, headers=headers, json=payload)
    return response.json()

# Test du modèle avec un exemple simple
output = query({
    "inputs": "What are the benefits of artificial intelligence in education?",
})

# Afficher le résultat
print(output)