Update app.py
Browse files
app.py
CHANGED
|
@@ -466,7 +466,7 @@ def generate_auswahl(prompt, file, chatbot, history, rag_option, model_option, o
|
|
| 466 |
else:
|
| 467 |
#Es wurde ein Bild angehängt -> wenn prompt dazu, das Bild analysieren
|
| 468 |
#geht nur über spezielle OpenAI-Schnittstelle...
|
| 469 |
-
result= generate_text_zu_bild(file, prompt, k, rag_option)
|
| 470 |
history = history + [((file,), None),(prompt, result)]
|
| 471 |
|
| 472 |
print("result..................")
|
|
@@ -503,7 +503,7 @@ def generate_bild(prompt, chatbot, temperature=0.5, max_new_tokens=4048,top_p=0
|
|
| 503 |
|
| 504 |
##################################################
|
| 505 |
#zu einem Bild und Text-Prompt eine Analyse generieren
|
| 506 |
-
def generate_text_zu_bild(file, prompt, k, rag_option):
|
| 507 |
global splittet
|
| 508 |
|
| 509 |
prompt_neu = prompt
|
|
@@ -520,7 +520,7 @@ def generate_text_zu_bild(file, prompt, k, rag_option):
|
|
| 520 |
#für Chat LLM:
|
| 521 |
#prompt = generate_prompt_with_history_openai(neu_text_mit_chunks, history)
|
| 522 |
#als reiner prompt:
|
| 523 |
-
prompt_neu =
|
| 524 |
print("hier................................")
|
| 525 |
print(prompt_neu)
|
| 526 |
headers, payload = process_image(file, prompt_neu)
|
|
|
|
| 466 |
else:
|
| 467 |
#Es wurde ein Bild angehängt -> wenn prompt dazu, das Bild analysieren
|
| 468 |
#geht nur über spezielle OpenAI-Schnittstelle...
|
| 469 |
+
result= generate_text_zu_bild(file, prompt, k, rag_option, chatbot)
|
| 470 |
history = history + [((file,), None),(prompt, result)]
|
| 471 |
|
| 472 |
print("result..................")
|
|
|
|
| 503 |
|
| 504 |
##################################################
|
| 505 |
#zu einem Bild und Text-Prompt eine Analyse generieren
|
| 506 |
+
def generate_text_zu_bild(file, prompt, k, rag_option, chatbot):
|
| 507 |
global splittet
|
| 508 |
|
| 509 |
prompt_neu = prompt
|
|
|
|
| 520 |
#für Chat LLM:
|
| 521 |
#prompt = generate_prompt_with_history_openai(neu_text_mit_chunks, history)
|
| 522 |
#als reiner prompt:
|
| 523 |
+
prompt_neu = generate_prompt_with_history(neu_text_mit_chunks, chatbot)
|
| 524 |
print("hier................................")
|
| 525 |
print(prompt_neu)
|
| 526 |
headers, payload = process_image(file, prompt_neu)
|