alexkueck commited on
Commit
5adaaca
·
verified ·
1 Parent(s): 433a5e0

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +9 -8
app.py CHANGED
@@ -347,7 +347,7 @@ def generate_auswahl(prompt_in, file, file_history, chatbot, history, rag_option
347
  #kein Bild hochgeladen -> auf Text antworten...
348
  status = "Antwort der KI ..."
349
  if (file == None and file_history == None):
350
- result, status = generate_text(prompt, chatbot, history, rag_option, model_option, openai_api_key, db, websuche, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=3)
351
  history = history + [[prompt, result]]
352
  else:
353
  #Es wurde ein File neu angehängt -> wenn prompt dazu, das Bild analysieren
@@ -413,13 +413,13 @@ def generate_bild(prompt, chatbot, model_option_zeichnen='HuggingFace', temperat
413
 
414
  ##################################################
415
  #zu einem Bild und Text-Prompt eine Analyse generieren
416
- def generate_text_zu_bild(file, prompt, k, rag_option, chatbot, history, db):
417
  global splittet
418
  print("Text mit Bild ..............................")
419
  prompt_neu = generate_prompt_with_history(prompt, history)
420
  if (rag_option == "An"):
421
  print("Bild mit RAG..............................")
422
- neu_text_mit_chunks = rag_chain2(prompt, db, k)
423
  #für Chat LLM:
424
  #prompt = generate_prompt_with_history_openai(neu_text_mit_chunks, history)
425
  #als reiner prompt:
@@ -436,14 +436,14 @@ def generate_text_zu_bild(file, prompt, k, rag_option, chatbot, history, db):
436
 
437
  ##################################################
438
  #zu einem Bild und Text-Prompt eine Analyse generieren
439
- def generate_text_zu_doc(file, prompt, k, rag_option, chatbot, history, db):
440
  global splittet
441
  print("text mit doc ..............................")
442
 
443
  prompt_neu = generate_prompt_with_history(prompt, history)
444
  if (rag_option == "An"):
445
  print("Doc mit RAG..............................")
446
- neu_text_mit_chunks = rag_chain2(prompt, db, k)
447
  #für Chat LLM:
448
  #prompt_neu = generate_prompt_with_history_openai(neu_text_mit_chunks, history)
449
  #als reiner prompt:
@@ -456,7 +456,7 @@ def generate_text_zu_doc(file, prompt, k, rag_option, chatbot, history, db):
456
  ####################################################
457
  #aus einem Text-Prompt die Antwort von KI bekommen
458
  #mit oder ohne RAG möglich
459
- def generate_text (prompt, chatbot, history, rag_option, model_option, openai_api_key, db, websuche, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=35):
460
  #global splittet
461
  #hugchat=False
462
  suche_im_Netz="Antwort der KI ..."
@@ -569,6 +569,7 @@ def generate_text (prompt, chatbot, history, rag_option, model_option, openai_ap
569
  #Funktion wird direkt aufgerufen aus der GUI - von hier muss auch die Rückmeldung kommen....
570
  #man kann einen Text-Prompt eingeben , dazu ein Image hochladen, und dann dazu code erzeugen lassen
571
  def generate_code(prompt_in, file, file_history, chatbot, history, model_option, openai_api_key, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3,top_k=35):
 
572
  #prompt normalisieren bevor er an die KIs geht
573
  prompt = normalise_prompt(prompt_in)
574
  #falls schon ein File hochgeladen wurde, ist es in history_file gespeichert - falls ein neues File hochgeladen wurde, wird es anschließend neu gesetzt
@@ -589,9 +590,9 @@ def generate_code(prompt_in, file, file_history, chatbot, history, model_option
589
  #herausfinden, ob Bild oder Dokument...
590
  ext = analyze_file(neu_file)
591
  if (ext == "png" or ext == "PNG" or ext == "jpg" or ext == "jpeg" or ext == "JPG" or ext == "JPEG"):
592
- result= generate_text_zu_bild(neu_file, prompt, k, rag_option, chatbot, history, db)
593
  else:
594
- result = generate_text_zu_doc(neu_file, prompt, k, rag_option, chatbot, history, db)
595
 
596
  #die history erweitern - abhängig davon, ob gerade ein file hochgeladen wurde oder nicht
597
  if (file != None):
 
347
  #kein Bild hochgeladen -> auf Text antworten...
348
  status = "Antwort der KI ..."
349
  if (file == None and file_history == None):
350
+ result, status = generate_text(prompt, chatbot, history, rag_option, model_option, openai_api_key, vectorstore, websuche, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=3)
351
  history = history + [[prompt, result]]
352
  else:
353
  #Es wurde ein File neu angehängt -> wenn prompt dazu, das Bild analysieren
 
413
 
414
  ##################################################
415
  #zu einem Bild und Text-Prompt eine Analyse generieren
416
+ def generate_text_zu_bild(file, prompt, k, rag_option, chatbot, history, vectorstore):
417
  global splittet
418
  print("Text mit Bild ..............................")
419
  prompt_neu = generate_prompt_with_history(prompt, history)
420
  if (rag_option == "An"):
421
  print("Bild mit RAG..............................")
422
+ neu_text_mit_chunks = rag_chain2(prompt, vectorstore, k)
423
  #für Chat LLM:
424
  #prompt = generate_prompt_with_history_openai(neu_text_mit_chunks, history)
425
  #als reiner prompt:
 
436
 
437
  ##################################################
438
  #zu einem Bild und Text-Prompt eine Analyse generieren
439
+ def generate_text_zu_doc(file, prompt, k, rag_option, chatbot, history, vectorstore):
440
  global splittet
441
  print("text mit doc ..............................")
442
 
443
  prompt_neu = generate_prompt_with_history(prompt, history)
444
  if (rag_option == "An"):
445
  print("Doc mit RAG..............................")
446
+ neu_text_mit_chunks = rag_chain2(prompt, vectorstore, k)
447
  #für Chat LLM:
448
  #prompt_neu = generate_prompt_with_history_openai(neu_text_mit_chunks, history)
449
  #als reiner prompt:
 
456
  ####################################################
457
  #aus einem Text-Prompt die Antwort von KI bekommen
458
  #mit oder ohne RAG möglich
459
+ def generate_text (prompt, chatbot, history, rag_option, model_option, openai_api_key, vectorstore, websuche, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3, top_k=35):
460
  #global splittet
461
  #hugchat=False
462
  suche_im_Netz="Antwort der KI ..."
 
569
  #Funktion wird direkt aufgerufen aus der GUI - von hier muss auch die Rückmeldung kommen....
570
  #man kann einen Text-Prompt eingeben , dazu ein Image hochladen, und dann dazu code erzeugen lassen
571
  def generate_code(prompt_in, file, file_history, chatbot, history, model_option, openai_api_key, k=3, top_p=0.6, temperature=0.5, max_new_tokens=4048, max_context_length_tokens=2048, repetition_penalty=1.3,top_k=35):
572
+ global vectorstore
573
  #prompt normalisieren bevor er an die KIs geht
574
  prompt = normalise_prompt(prompt_in)
575
  #falls schon ein File hochgeladen wurde, ist es in history_file gespeichert - falls ein neues File hochgeladen wurde, wird es anschließend neu gesetzt
 
590
  #herausfinden, ob Bild oder Dokument...
591
  ext = analyze_file(neu_file)
592
  if (ext == "png" or ext == "PNG" or ext == "jpg" or ext == "jpeg" or ext == "JPG" or ext == "JPEG"):
593
+ result= generate_text_zu_bild(neu_file, prompt, k, rag_option, chatbot, history, vectorstore)
594
  else:
595
+ result = generate_text_zu_doc(neu_file, prompt, k, rag_option, chatbot, history, vectorstore)
596
 
597
  #die history erweitern - abhängig davon, ob gerade ein file hochgeladen wurde oder nicht
598
  if (file != None):