analist commited on
Commit
7e39dd0
·
verified ·
1 Parent(s): 7a9b8aa

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +7 -8
app.py CHANGED
@@ -4,18 +4,17 @@ from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
4
 
5
  # Définir le modèle et le tokenizer
6
  # Utilisation d'un modèle français pour le domaine médical
7
- MODEL_NAME = "mistralai/Mistral-7B-v0.1" # Vous pouvez utiliser un modèle plus adapté au français comme "camembert" ou un modèle médical spécifique
8
 
9
  # Fonction pour charger le modèle et le tokenizer
10
  def load_model():
11
  print("Chargement du modèle et du tokenizer...")
12
- tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
13
- model = AutoModelForCausalLM.from_pretrained(
14
- MODEL_NAME,
15
- torch_dtype=torch.float16,
16
- device_map="auto",
17
- load_in_8bit=True # Quantification pour réduire l'utilisation de la mémoire
18
- )
19
  return model, tokenizer
20
 
21
  # Charger le modèle et le tokenizer
 
4
 
5
  # Définir le modèle et le tokenizer
6
  # Utilisation d'un modèle français pour le domaine médical
7
+ MODEL_NAME = "analist/llama3.1-8B-omnimed-rl" # Vous pouvez utiliser un modèle plus adapté au français comme "camembert" ou un modèle médical spécifique
8
 
9
  # Fonction pour charger le modèle et le tokenizer
10
  def load_model():
11
  print("Chargement du modèle et du tokenizer...")
12
+ model, tokenizer = FastLanguageModel.from_pretrained(
13
+ model_name = MODEL_NAME,
14
+ max_seq_length = 8192,
15
+ load_in_4bit = True,
16
+ token = "hf_...", # use one if using gated models like meta-llama/Llama-2-7b-hf
17
+ )
 
18
  return model, tokenizer
19
 
20
  # Charger le modèle et le tokenizer