Felguk commited on
Commit
d12434d
·
verified ·
1 Parent(s): 126f152

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +8 -22
app.py CHANGED
@@ -61,16 +61,6 @@ def respond(
61
  yield "Ошибка: модель не найдена."
62
  return
63
 
64
- # Добавляем системное сообщение
65
- messages = [{"role": "system", "content": system_message}]
66
-
67
- # Добавляем историю сообщений
68
- for val in history:
69
- if val[0]:
70
- messages.append({"role": "user", "content": val[0]})
71
- if val[1]:
72
- messages.append({"role": "assistant", "content": val[1]})
73
-
74
  # Если загружен файл, обрабатываем его
75
  if file is not None:
76
  file_type = file.name.split(".")[-1].lower()
@@ -86,22 +76,18 @@ def respond(
86
  file_info = "Неизвестный тип файла"
87
  message += f"\n[Пользователь загрузил файл: {file.name}]\n{file_info}"
88
 
89
- # Добавляем текущее сообщение пользователя
90
- messages.append({"role": "user", "content": message})
91
-
92
  # Генерация ответа в зависимости от модели
93
  if model_name == "felguk v0":
94
- response = ""
95
- for message in client.chat_completion(
96
- messages,
97
- max_tokens=max_tokens,
98
- stream=True,
99
  temperature=temperature,
100
  top_p=top_p,
101
- ):
102
- token = message.choices[0].delta.content
103
- response += token
104
- yield response
105
  else:
106
  # Здесь можно добавить логику для других моделей
107
  yield f"Модель {model_name} пока не поддерживается."
 
61
  yield "Ошибка: модель не найдена."
62
  return
63
 
 
 
 
 
 
 
 
 
 
 
64
  # Если загружен файл, обрабатываем его
65
  if file is not None:
66
  file_type = file.name.split(".")[-1].lower()
 
76
  file_info = "Неизвестный тип файла"
77
  message += f"\n[Пользователь загрузил файл: {file.name}]\n{file_info}"
78
 
 
 
 
79
  # Генерация ответа в зависимости от модели
80
  if model_name == "felguk v0":
81
+ # Используем текстовое завершение для модели Felguk/Felguk-v0
82
+ response = client.text_generation(
83
+ prompt=message,
84
+ max_new_tokens=max_tokens,
 
85
  temperature=temperature,
86
  top_p=top_p,
87
+ stream=True,
88
+ )
89
+ for token in response:
90
+ yield token
91
  else:
92
  # Здесь можно добавить логику для других моделей
93
  yield f"Модель {model_name} пока не поддерживается."