Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -4,18 +4,17 @@ from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
|
|
4 |
|
5 |
# Définir le modèle et le tokenizer
|
6 |
# Utilisation d'un modèle français pour le domaine médical
|
7 |
-
MODEL_NAME = "
|
8 |
|
9 |
# Fonction pour charger le modèle et le tokenizer
|
10 |
def load_model():
|
11 |
print("Chargement du modèle et du tokenizer...")
|
12 |
-
tokenizer =
|
13 |
-
|
14 |
-
|
15 |
-
|
16 |
-
|
17 |
-
|
18 |
-
)
|
19 |
return model, tokenizer
|
20 |
|
21 |
# Charger le modèle et le tokenizer
|
|
|
4 |
|
5 |
# Définir le modèle et le tokenizer
|
6 |
# Utilisation d'un modèle français pour le domaine médical
|
7 |
+
MODEL_NAME = "analist/llama3.1-8B-omnimed-rl" # Vous pouvez utiliser un modèle plus adapté au français comme "camembert" ou un modèle médical spécifique
|
8 |
|
9 |
# Fonction pour charger le modèle et le tokenizer
|
10 |
def load_model():
|
11 |
print("Chargement du modèle et du tokenizer...")
|
12 |
+
model, tokenizer = FastLanguageModel.from_pretrained(
|
13 |
+
model_name = MODEL_NAME,
|
14 |
+
max_seq_length = 8192,
|
15 |
+
load_in_4bit = True,
|
16 |
+
token = "hf_...", # use one if using gated models like meta-llama/Llama-2-7b-hf
|
17 |
+
)
|
|
|
18 |
return model, tokenizer
|
19 |
|
20 |
# Charger le modèle et le tokenizer
|