Update app.py
Browse files
app.py
CHANGED
@@ -24,7 +24,7 @@ from chromadb.config import Settings
|
|
24 |
from llama_cpp import Llama
|
25 |
|
26 |
|
27 |
-
SYSTEM_PROMPT = "Ты — Сайга, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им.
|
28 |
SYSTEM_TOKEN = 1788
|
29 |
USER_TOKEN = 1404
|
30 |
BOT_TOKEN = 9225
|
@@ -52,19 +52,22 @@ LOADER_MAPPING = {
|
|
52 |
".txt": (TextLoader, {"encoding": "utf8"}),
|
53 |
}
|
54 |
|
55 |
-
"""
|
56 |
-
repo_name = "IlyaGusev/saiga2_13b_ggml"
|
57 |
-
model_name = "ggml-model-q4_1.bin"
|
58 |
-
embedder_name = "sentence-transformers/paraphrase-multilingual-mpnet-base-v2"
|
59 |
-
"""
|
60 |
|
61 |
-
repo_name = "IlyaGusev/
|
62 |
-
model_name = "ggml-model-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
63 |
|
64 |
#repo_name = "IlyaGusev/saiga_13b_lora_llamacpp"
|
65 |
#model_name = "ggml-model-q4_1.bin"
|
66 |
#embedder_name = "sentence-transformers/paraphrase-multilingual-mpnet-base-v2"
|
67 |
-
|
68 |
|
69 |
snapshot_download(repo_id=repo_name, local_dir=".", allow_patterns=model_name)
|
70 |
|
@@ -179,7 +182,7 @@ def bot(
|
|
179 |
|
180 |
last_user_message = history[-1][0]
|
181 |
if retrieved_docs:
|
182 |
-
last_user_message = f"Контекст: {retrieved_docs}\n\nИспользуя контекст, ответь на вопрос: {last_user_message}"
|
183 |
message_tokens = get_message_tokens(model=model, role="user", content=last_user_message)
|
184 |
tokens.extend(message_tokens)
|
185 |
|
|
|
24 |
from llama_cpp import Llama
|
25 |
|
26 |
|
27 |
+
SYSTEM_PROMPT = "Ты — Сайга, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им. В своих ответах отдавай приоритет информации в контексте, а не своим знаниям. Если информации в контексте нет или ты не уверен в ответе, напиши \"информации нет\""
|
28 |
SYSTEM_TOKEN = 1788
|
29 |
USER_TOKEN = 1404
|
30 |
BOT_TOKEN = 9225
|
|
|
52 |
".txt": (TextLoader, {"encoding": "utf8"}),
|
53 |
}
|
54 |
|
|
|
|
|
|
|
|
|
|
|
55 |
|
56 |
+
#repo_name = "IlyaGusev/saiga2_13b_ggml"
|
57 |
+
#model_name = "ggml-model-q4_1.bin"
|
58 |
+
#embedder_name = "sentence-transformers/paraphrase-multilingual-mpnet-base-v2"
|
59 |
+
|
60 |
+
#repo_name = "IlyaGusev/saiga2_13b_gguf"
|
61 |
+
#model_name = "ggml-model-q4_K.gguf"
|
62 |
+
|
63 |
+
repo_name = "IlyaGusev/saiga2_7b_gguf"
|
64 |
+
model_name = "ggml-model-q2_K.gguf"
|
65 |
+
embedder_name = "sentence-transformers/multi-qa-MiniLM-L6-cos-v1"
|
66 |
|
67 |
#repo_name = "IlyaGusev/saiga_13b_lora_llamacpp"
|
68 |
#model_name = "ggml-model-q4_1.bin"
|
69 |
#embedder_name = "sentence-transformers/paraphrase-multilingual-mpnet-base-v2"
|
70 |
+
|
71 |
|
72 |
snapshot_download(repo_id=repo_name, local_dir=".", allow_patterns=model_name)
|
73 |
|
|
|
182 |
|
183 |
last_user_message = history[-1][0]
|
184 |
if retrieved_docs:
|
185 |
+
last_user_message = f"Контекст: {retrieved_docs}\n\nИспользуя контекст, ответь на вопрос: {last_user_message} Не отвечай на вопрос информацией из собственных знаний."
|
186 |
message_tokens = get_message_tokens(model=model, role="user", content=last_user_message)
|
187 |
tokens.extend(message_tokens)
|
188 |
|