Update utils.py
Browse files
utils.py
CHANGED
@@ -341,6 +341,7 @@ def document_retrieval_chroma(llm, prompt):
|
|
341 |
# rag_chain Alternative für RAg mit Bild-Upload, da hier das llm so nicht genutzt werden kann und der prompt mit den RAG Erweiterungen anders übergeben wird
|
342 |
#langchain nutzen, um prompt an llm zu leiten, aber vorher in der VektorDB suchen, um passende splits zum Prompt hinzuzufügen
|
343 |
#prompt mit RAG!!!
|
|
|
344 |
def rag_chainback(prompt, db, k=3):
|
345 |
rag_template = "Nutze ausschließlich die folgenden Kontext Teile am Ende, um die Frage zu beantworten . " + template + "Frage: " + prompt + "Kontext Teile: "
|
346 |
retrieved_chunks = db.similarity_search(prompt, k)
|
@@ -363,7 +364,7 @@ def rag_chainback(prompt, db, k=3):
|
|
363 |
print("dict.............................."+ json.dumps(chunks_dict, indent=4, ensure_ascii=False))
|
364 |
|
365 |
return neu_prompt, chunks_dict # returning both the new prompt and the dictionary
|
366 |
-
|
367 |
|
368 |
###############################################
|
369 |
#Langchain anlegen für RAG Chaining
|
|
|
341 |
# rag_chain Alternative für RAg mit Bild-Upload, da hier das llm so nicht genutzt werden kann und der prompt mit den RAG Erweiterungen anders übergeben wird
|
342 |
#langchain nutzen, um prompt an llm zu leiten, aber vorher in der VektorDB suchen, um passende splits zum Prompt hinzuzufügen
|
343 |
#prompt mit RAG!!!
|
344 |
+
"""
|
345 |
def rag_chainback(prompt, db, k=3):
|
346 |
rag_template = "Nutze ausschließlich die folgenden Kontext Teile am Ende, um die Frage zu beantworten . " + template + "Frage: " + prompt + "Kontext Teile: "
|
347 |
retrieved_chunks = db.similarity_search(prompt, k)
|
|
|
364 |
print("dict.............................."+ json.dumps(chunks_dict, indent=4, ensure_ascii=False))
|
365 |
|
366 |
return neu_prompt, chunks_dict # returning both the new prompt and the dictionary
|
367 |
+
"""
|
368 |
|
369 |
###############################################
|
370 |
#Langchain anlegen für RAG Chaining
|