Spaces:
Running
Running
Update app.py
Browse files
app.py
CHANGED
@@ -132,10 +132,12 @@ def vector_search(index,index_1, query_embedding, k=3, threshold=0.5):
|
|
132 |
print('\n'.join(results))
|
133 |
return results if results else None
|
134 |
def resume_QA(message, history):
|
|
|
|
|
135 |
query_embedding = get_embedding(message)
|
136 |
search_results = vector_search(faiss_index,faiss_index_1, query_embedding)
|
137 |
-
if search_results:
|
138 |
-
|
139 |
prompt = [
|
140 |
{"role": "system", "content":f"""
|
141 |
你是一位助手,幫助人家了解巫宇哲這個人。你只能根據下列提供的資訊回答問題,並且所有回答必須完全符合已提供的資訊,不能添加任何新內容或自己推測的訊息。如果問題的答案不在提供的資訊中,請明確回答 "沒有這方面的資料"。所有回答必須基於已提供的資料。
|
@@ -143,7 +145,7 @@ def resume_QA(message, history):
|
|
143 |
|
144 |
提供的資訊:
|
145 |
Name: 巫宇哲
|
146 |
-
{
|
147 |
|
148 |
請根據上面的資訊來回答問題。
|
149 |
"""}
|
|
|
132 |
print('\n'.join(results))
|
133 |
return results if results else None
|
134 |
def resume_QA(message, history):
|
135 |
+
#這變數主要儲存在多倫對話後要得到的資訊,避免使用者繼續追問時忘記原本的可能要得到的資訊是什麼。
|
136 |
+
global search_results_
|
137 |
query_embedding = get_embedding(message)
|
138 |
search_results = vector_search(faiss_index,faiss_index_1, query_embedding)
|
139 |
+
if search_results!=None:
|
140 |
+
search_results_='\n'.join(search_results)
|
141 |
prompt = [
|
142 |
{"role": "system", "content":f"""
|
143 |
你是一位助手,幫助人家了解巫宇哲這個人。你只能根據下列提供的資訊回答問題,並且所有回答必須完全符合已提供的資訊,不能添加任何新內容或自己推測的訊息。如果問題的答案不在提供的資訊中,請明確回答 "沒有這方面的資料"。所有回答必須基於已提供的資料。
|
|
|
145 |
|
146 |
提供的資訊:
|
147 |
Name: 巫宇哲
|
148 |
+
{search_results_}
|
149 |
|
150 |
請根據上面的資訊來回答問題。
|
151 |
"""}
|