Update app.py
Browse files
app.py
CHANGED
|
@@ -176,7 +176,7 @@ def umwandeln_fuer_anzeige(image):
|
|
| 176 |
####################################################
|
| 177 |
#aus einem Text-Prompt die Antwort von KI bekommen
|
| 178 |
#mit oder ohne RAG möglich
|
| 179 |
-
def generate_text (prompt, chatbot, history, vektordatenbank,
|
| 180 |
print("Text pur..............................")
|
| 181 |
if (prompt == ""):
|
| 182 |
raise gr.Error("Prompt ist erforderlich.")
|
|
@@ -186,14 +186,15 @@ def generate_text (prompt, chatbot, history, vektordatenbank, top_p=0.6, temper
|
|
| 186 |
print("HF Anfrage.......................")
|
| 187 |
#model_kwargs={"temperature": 0.5, "max_length": 512, "num_return_sequences": 1, "top_k": top_k, "top_p": top_p, "repetition_penalty": repetition_penalty}
|
| 188 |
#llm = HuggingFaceHub(repo_id=repo_id, model_kwargs=model_kwargs)
|
| 189 |
-
|
| 190 |
|
| 191 |
#Prompt an history anhängen und einen Text daraus machen
|
| 192 |
history_text_und_prompt = generate_prompt_with_history(prompt, history)
|
| 193 |
|
| 194 |
#zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
|
| 195 |
print("LLM aufrufen mit RAG: ...........")
|
| 196 |
-
result = rag_chain(history_text_und_prompt, vektordatenbank, ANZAHL_DOCS)
|
|
|
|
| 197 |
print("result regchain.....................")
|
| 198 |
print(result)
|
| 199 |
|
|
@@ -305,7 +306,7 @@ def generate_auswahl(prompt_in, file, file_history, chatbot, history, anzahl_doc
|
|
| 305 |
#kein Bild hochgeladen -> auf Text antworten...
|
| 306 |
status = "Antwort der KI ..."
|
| 307 |
if (file == None and file_history == None):
|
| 308 |
-
results, status = generate_text(prompt, chatbot, history,vektordatenbank, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=3)
|
| 309 |
else:
|
| 310 |
#Es wurde ein File neu angehängt -> das hochladen und dann Prompt bearbeiten
|
| 311 |
#das history_fiel muss neu gesetzt werden
|
|
|
|
| 176 |
####################################################
|
| 177 |
#aus einem Text-Prompt die Antwort von KI bekommen
|
| 178 |
#mit oder ohne RAG möglich
|
| 179 |
+
def generate_text (prompt, chatbot, history, vektordatenbank, retriever, top_p=0.6, temperature=0.2, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=35):
|
| 180 |
print("Text pur..............................")
|
| 181 |
if (prompt == ""):
|
| 182 |
raise gr.Error("Prompt ist erforderlich.")
|
|
|
|
| 186 |
print("HF Anfrage.......................")
|
| 187 |
#model_kwargs={"temperature": 0.5, "max_length": 512, "num_return_sequences": 1, "top_k": top_k, "top_p": top_p, "repetition_penalty": repetition_penalty}
|
| 188 |
#llm = HuggingFaceHub(repo_id=repo_id, model_kwargs=model_kwargs)
|
| 189 |
+
llm = HuggingFaceChain(model=MODEL_NAME_HF, model_kwargs={"temperature": 0.5, "max_length": 128})
|
| 190 |
|
| 191 |
#Prompt an history anhängen und einen Text daraus machen
|
| 192 |
history_text_und_prompt = generate_prompt_with_history(prompt, history)
|
| 193 |
|
| 194 |
#zusätzliche Dokumenten Splits aus DB zum Prompt hinzufügen (aus VektorDB - Chroma oder Mongo DB)
|
| 195 |
print("LLM aufrufen mit RAG: ...........")
|
| 196 |
+
#result = rag_chain(history_text_und_prompt, vektordatenbank, ANZAHL_DOCS)
|
| 197 |
+
result = rag_chain(llm, history_text_und_prompt, retriever)
|
| 198 |
print("result regchain.....................")
|
| 199 |
print(result)
|
| 200 |
|
|
|
|
| 306 |
#kein Bild hochgeladen -> auf Text antworten...
|
| 307 |
status = "Antwort der KI ..."
|
| 308 |
if (file == None and file_history == None):
|
| 309 |
+
results, status = generate_text(prompt, chatbot, history,vektordatenbank, retriever, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=3)
|
| 310 |
else:
|
| 311 |
#Es wurde ein File neu angehängt -> das hochladen und dann Prompt bearbeiten
|
| 312 |
#das history_fiel muss neu gesetzt werden
|