steef68 commited on
Commit
274b005
·
verified ·
1 Parent(s): e2b7483

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +2 -48
app.py CHANGED
@@ -15,7 +15,7 @@ def format_prompt(message, history):
15
  return prompt
16
 
17
  def generate(
18
- prompt, history, system_prompt, temperature=0.75, max_new_tokens=2048, top_p=0.95, repetition_penalty=1.1,
19
  ):
20
  temperature = float(temperature)
21
  if temperature < 1e-2:
@@ -40,55 +40,9 @@ def generate(
40
  yield output
41
  return output
42
 
43
-
44
- additional_inputs=[
45
- gr.Textbox(
46
- label="System Prompt",
47
- max_lines=1,
48
- interactive=True,
49
- value="Bonjour, je suis Mistral, un modèle de langage entraîné pour répondre à vos questions et suivre vos instructions en français. Je suis capable de fournir des informations sur une grande variété de sujets, y compris la science, la technologie, la culture, l'histoire, et bien plus encore. Je peux également vous aider à résoudre des problèmes, à donner des conseils et à fournir des recommandations. Je suis conçu pour comprendre et répondre au langage naturel, donc n'hésitez pas à me poser des questions ou à me donner des instructions comme si vous parliez à une personne réelle. Cependant, je ne peux pas accéder à des informations personnelles ou confidentielles, ni effectuer des tâches illégales ou contraires à l'éthique."
50
- ),
51
- gr.Slider(
52
- label="Temperature",
53
- value=0.75,
54
- minimum=0.0,
55
- maximum=1.1,
56
- step=0.05,
57
- interactive=True,
58
- info="Higher values produce more diverse outputs",
59
- ),
60
- gr.Slider(
61
- label="Max new tokens",
62
- value=2048,
63
- minimum=256,
64
- maximum=2048,
65
- step=64,
66
- interactive=True,
67
- info="The maximum numbers of new tokens",
68
- ),
69
- gr.Slider(
70
- label="Top-p (nucleus sampling)",
71
- value=0.90,
72
- minimum=0.1,
73
- maximum=0.95,
74
- step=0.05,
75
- interactive=True,
76
- info="Higher values sample more low-probability tokens",
77
- ),
78
- gr.Slider(
79
- label="Repetition penalty",
80
- value=1.1,
81
- minimum=1.1,
82
- maximum=1.9,
83
- step=0.05,
84
- interactive=True,
85
- info="Penalize repeated tokens",
86
- )
87
- ]
88
-
89
  gr.ChatInterface(
90
  fn=generate,
91
- chatbot=gr.Chatbot(show_label=False, show_share_button=False, show_copy_button=True, layout="panel"),
92
  additional_inputs=additional_inputs,
93
  title="Mistral-7B-Instruct-v0.2",
94
  concurrency_limit=10,
 
15
  return prompt
16
 
17
  def generate(
18
+ prompt, history, system_prompt, temperature=0.75, max_new_tokens=2048, top_p=1, repetition_penalty=1.1,
19
  ):
20
  temperature = float(temperature)
21
  if temperature < 1e-2:
 
40
  yield output
41
  return output
42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
43
  gr.ChatInterface(
44
  fn=generate,
45
+ chatbot=gr.Chatbot(show_label=False, show_share_button=True, show_copy_button=True, layout="panel"),
46
  additional_inputs=additional_inputs,
47
  title="Mistral-7B-Instruct-v0.2",
48
  concurrency_limit=10,