valeriylo commited on
Commit
5992b76
·
1 Parent(s): c9ad10e

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +13 -10
app.py CHANGED
@@ -24,7 +24,7 @@ from chromadb.config import Settings
24
  from llama_cpp import Llama
25
 
26
 
27
- SYSTEM_PROMPT = "Ты — Сайга, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им. Если ты не уверен в своем ответе или запрашиваемая информация отсутвует в документах, ответь что ты не знаешь ответа на вопрос"
28
  SYSTEM_TOKEN = 1788
29
  USER_TOKEN = 1404
30
  BOT_TOKEN = 9225
@@ -52,19 +52,22 @@ LOADER_MAPPING = {
52
  ".txt": (TextLoader, {"encoding": "utf8"}),
53
  }
54
 
55
- """
56
- repo_name = "IlyaGusev/saiga2_13b_ggml"
57
- model_name = "ggml-model-q4_1.bin"
58
- embedder_name = "sentence-transformers/paraphrase-multilingual-mpnet-base-v2"
59
- """
60
 
61
- repo_name = "IlyaGusev/saiga2_13b_gguf"
62
- model_name = "ggml-model-q4_K.gguf"
 
 
 
 
 
 
 
 
63
 
64
  #repo_name = "IlyaGusev/saiga_13b_lora_llamacpp"
65
  #model_name = "ggml-model-q4_1.bin"
66
  #embedder_name = "sentence-transformers/paraphrase-multilingual-mpnet-base-v2"
67
- embedder_name = "sentence-transformers/multi-qa-MiniLM-L6-cos-v1"
68
 
69
  snapshot_download(repo_id=repo_name, local_dir=".", allow_patterns=model_name)
70
 
@@ -179,7 +182,7 @@ def bot(
179
 
180
  last_user_message = history[-1][0]
181
  if retrieved_docs:
182
- last_user_message = f"Контекст: {retrieved_docs}\n\nИспользуя контекст, ответь на вопрос: {last_user_message}"
183
  message_tokens = get_message_tokens(model=model, role="user", content=last_user_message)
184
  tokens.extend(message_tokens)
185
 
 
24
  from llama_cpp import Llama
25
 
26
 
27
+ SYSTEM_PROMPT = "Ты — Сайга, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им. В своих ответах отдавай приоритет информации в контексте, а не своим знаниям. Если информации в контексте нет или ты не уверен в ответе, напиши \"информации нет\""
28
  SYSTEM_TOKEN = 1788
29
  USER_TOKEN = 1404
30
  BOT_TOKEN = 9225
 
52
  ".txt": (TextLoader, {"encoding": "utf8"}),
53
  }
54
 
 
 
 
 
 
55
 
56
+ #repo_name = "IlyaGusev/saiga2_13b_ggml"
57
+ #model_name = "ggml-model-q4_1.bin"
58
+ #embedder_name = "sentence-transformers/paraphrase-multilingual-mpnet-base-v2"
59
+
60
+ #repo_name = "IlyaGusev/saiga2_13b_gguf"
61
+ #model_name = "ggml-model-q4_K.gguf"
62
+
63
+ repo_name = "IlyaGusev/saiga2_7b_gguf"
64
+ model_name = "ggml-model-q2_K.gguf"
65
+ embedder_name = "sentence-transformers/multi-qa-MiniLM-L6-cos-v1"
66
 
67
  #repo_name = "IlyaGusev/saiga_13b_lora_llamacpp"
68
  #model_name = "ggml-model-q4_1.bin"
69
  #embedder_name = "sentence-transformers/paraphrase-multilingual-mpnet-base-v2"
70
+
71
 
72
  snapshot_download(repo_id=repo_name, local_dir=".", allow_patterns=model_name)
73
 
 
182
 
183
  last_user_message = history[-1][0]
184
  if retrieved_docs:
185
+ last_user_message = f"Контекст: {retrieved_docs}\n\nИспользуя контекст, ответь на вопрос: {last_user_message} Не отвечай на вопрос информацией из собственных знаний."
186
  message_tokens = get_message_tokens(model=model, role="user", content=last_user_message)
187
  tokens.extend(message_tokens)
188