cody82 commited on
Commit
24fb973
·
verified ·
1 Parent(s): d334b30

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -10
app.py CHANGED
@@ -15,10 +15,6 @@ context = """
15
  """
16
 
17
  def respond(message, history=None):
18
- if history is None:
19
- history = []
20
-
21
- # Формируем промпт — контекст + вопрос + "Ответ:"
22
  prompt = (
23
  f"Контекст: {context}\n"
24
  f"Вопрос: {message}\n"
@@ -32,16 +28,14 @@ def respond(message, history=None):
32
  **inputs,
33
  max_new_tokens=100,
34
  do_sample=False,
35
- eos_token_id=tokenizer.eos_token_id, # Может отсутствовать у GPT-2, можно убрать
36
- pad_token_id=tokenizer.eos_token_id, # Чтобы избежать warning
37
  )
38
 
39
- # Декодируем срез outputs после длины входа — берем только сгенерированное продолжение
40
  generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
41
  answer = generated_text[len(prompt):].strip()
42
 
43
- history.append((message, answer))
44
- return history
45
 
46
- iface = gr.ChatInterface(fn=respond, title="Innopolis Q&A (GPT-2)")
47
  iface.launch()
 
15
  """
16
 
17
  def respond(message, history=None):
 
 
 
 
18
  prompt = (
19
  f"Контекст: {context}\n"
20
  f"Вопрос: {message}\n"
 
28
  **inputs,
29
  max_new_tokens=100,
30
  do_sample=False,
31
+ pad_token_id=tokenizer.eos_token_id
 
32
  )
33
 
 
34
  generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
35
  answer = generated_text[len(prompt):].strip()
36
 
37
+ return answer # <- Возвращаем только строку, а не history
38
+
39
 
40
+ iface = gr.ChatInterface(fn=respond, title="Innopolis Q&A")
41
  iface.launch()