Cyrano2 commited on
Commit
8ad062b
·
verified ·
1 Parent(s): e69263d

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -4
app.py CHANGED
@@ -6,14 +6,14 @@ import torch
6
  model_name = "bigcode/starcoder2-15b-instruct-v0.1"
7
  tokenizer = AutoTokenizer.from_pretrained(model_name)
8
  model = AutoModelForCausalLM.from_pretrained(
9
- model_name,
10
- torch_dtype=torch.float16,
11
- device_map="auto"
12
  )
13
 
14
  # Fonction pour générer du texte
15
  def generate_text(prompt):
16
- inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
 
17
  outputs = model.generate(inputs["input_ids"], max_length=200)
18
  return tokenizer.decode(outputs[0], skip_special_tokens=True)
19
 
 
6
  model_name = "bigcode/starcoder2-15b-instruct-v0.1"
7
  tokenizer = AutoTokenizer.from_pretrained(model_name)
8
  model = AutoModelForCausalLM.from_pretrained(
9
+ model_name,
10
+ torch_dtype=torch.float16 # Vous pouvez aussi utiliser torch.float32 pour le CPU
 
11
  )
12
 
13
  # Fonction pour générer du texte
14
  def generate_text(prompt):
15
+ # Utiliser le CPU au lieu du GPU
16
+ inputs = tokenizer(prompt, return_tensors="pt")
17
  outputs = model.generate(inputs["input_ids"], max_length=200)
18
  return tokenizer.decode(outputs[0], skip_special_tokens=True)
19