steef68 commited on
Commit
a92902a
·
verified ·
1 Parent(s): 1ed045f

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +50 -3
app.py CHANGED
@@ -2,7 +2,7 @@ from huggingface_hub import InferenceClient
2
  import gradio as gr
3
 
4
  client = InferenceClient(
5
- "mistralai/Mistral-7B-Instruct-v0.1"
6
  )
7
 
8
 
@@ -15,7 +15,7 @@ def format_prompt(message, history):
15
  return prompt
16
 
17
  def generate(
18
- prompt, history, system_prompt, temperature=0.75, max_new_tokens=2048, top_p=1.0, repetition_penalty=1.1,
19
  ):
20
  temperature = float(temperature)
21
  if temperature < 1e-2:
@@ -40,9 +40,56 @@ def generate(
40
  yield output
41
  return output
42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
43
  gr.ChatInterface(
44
  fn=generate,
45
  chatbot=gr.Chatbot(show_label=False, show_share_button=False, show_copy_button=True, layout="panel"),
46
- title="Mistral-7B-Instruct-v0.2",
 
47
  concurrency_limit=10,
48
  ).launch(show_api=False)
 
2
  import gradio as gr
3
 
4
  client = InferenceClient(
5
+ "mistralai/Mistral-7B-Instruct-v0.2"
6
  )
7
 
8
 
 
15
  return prompt
16
 
17
  def generate(
18
+ prompt, history, system_prompt, temperature=0.75, max_new_tokens=2048, top_p=0.95, repetition_penalty=1.1,
19
  ):
20
  temperature = float(temperature)
21
  if temperature < 1e-2:
 
40
  yield output
41
  return output
42
 
43
+
44
+ additional_inputs=[
45
+ gr.Textbox(
46
+ label="System Prompt",
47
+ max_lines=1,
48
+ interactive=True,
49
+ value="Bonjour, je suis Mistral, un modèle de langage entraîné pour répondre à vos questions et suivre vos instructions en français. Je suis capable de fournir des informations sur une grande variété de sujets, y compris la science, la technologie, la culture, l'histoire, et bien plus encore. Je peux également vous aider à résoudre des problèmes, à donner des conseils et à fournir des recommandations. Je suis conçu pour comprendre et répondre au langage naturel, donc n'hésitez pas à me poser des questions ou à me donner des instructions comme si vous parliez à une personne réelle. Cependant, je ne peux pas accéder à des informations personnelles ou confidentielles, ni effectuer des tâches illégales ou contraires à l'éthique."
50
+ ),
51
+ gr.Slider(
52
+ label="Temperature",
53
+ value=0.75,
54
+ minimum=0.0,
55
+ maximum=1.1,
56
+ step=0.05,
57
+ interactive=True,
58
+ info="Higher values produce more diverse outputs",
59
+ ),
60
+ gr.Slider(
61
+ label="Max new tokens",
62
+ value=2048,
63
+ minimum=256,
64
+ maximum=2048,
65
+ step=64,
66
+ interactive=True,
67
+ info="The maximum numbers of new tokens",
68
+ ),
69
+ gr.Slider(
70
+ label="Top-p (nucleus sampling)",
71
+ value=0.90,
72
+ minimum=0.1,
73
+ maximum=0.95,
74
+ step=0.05,
75
+ interactive=True,
76
+ info="Higher values sample more low-probability tokens",
77
+ ),
78
+ gr.Slider(
79
+ label="Repetition penalty",
80
+ value=1.1,
81
+ minimum=1.1,
82
+ maximum=1.9,
83
+ step=0.05,
84
+ interactive=True,
85
+ info="Penalize repeated tokens",
86
+ )
87
+ ]
88
+
89
  gr.ChatInterface(
90
  fn=generate,
91
  chatbot=gr.Chatbot(show_label=False, show_share_button=False, show_copy_button=True, layout="panel"),
92
+ additional_inputs=additional_inputs,
93
+ title="Mixtral 8X7B-v0.2",
94
  concurrency_limit=10,
95
  ).launch(show_api=False)