Lvk3 commited on
Commit
bcbdc75
·
verified ·
1 Parent(s): 5979a46

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +11 -8
app.py CHANGED
@@ -1,15 +1,18 @@
1
- import gradio as gr
2
  from transformers import AutoTokenizer, AutoModelForCausalLM
 
3
 
4
- # Modellname
5
  model_name = "meta-llama/Llama-3.1-8B-Instruct"
 
6
 
7
  # Tokenizer und Modell laden
8
- tokenizer = AutoTokenizer.from_pretrained(model_name)
9
  model = AutoModelForCausalLM.from_pretrained(
10
- model_name,
11
- device_map=None, # Keine GPU
12
- torch_dtype="float32" # Float32 für CPU
 
13
  )
14
 
15
  # Funktion für die Textgenerierung
@@ -23,8 +26,8 @@ interface = gr.Interface(
23
  fn=generate_response,
24
  inputs="text",
25
  outputs="text",
26
- title="LLaMA 3.1 8B Instruct Text Generator (CPU)",
27
- description="Gib einen Text ein, und LLaMA 3.1 8B Instruct generiert eine Antwort."
28
  )
29
 
30
  # App starten
 
1
+ import os
2
  from transformers import AutoTokenizer, AutoModelForCausalLM
3
+ import gradio as gr
4
 
5
+ # Modellname und Hugging Face Token
6
  model_name = "meta-llama/Llama-3.1-8B-Instruct"
7
+ hf_token = os.getenv("HF_TOKEN") # Token sicher aus den Secrets laden
8
 
9
  # Tokenizer und Modell laden
10
+ tokenizer = AutoTokenizer.from_pretrained(model_name, use_auth_token=hf_token)
11
  model = AutoModelForCausalLM.from_pretrained(
12
+ model_name,
13
+ use_auth_token=hf_token,
14
+ device_map=None, # Für CPU
15
+ torch_dtype="float32" # CPU-optimiert
16
  )
17
 
18
  # Funktion für die Textgenerierung
 
26
  fn=generate_response,
27
  inputs="text",
28
  outputs="text",
29
+ title="LLaMA 3.1 8B Instruct Text Generator",
30
+ description="Gib einen Text ein, und das Modell generiert eine Antwort basierend auf LLaMA 3.1 8B Instruct."
31
  )
32
 
33
  # App starten