Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
|
@@ -322,7 +322,8 @@ def generate(text, history, rag_option, model_option, k=3, top_p=0.6, temperatu
|
|
| 322 |
#prompt = generate_prompt_with_history_openai(text, history)
|
| 323 |
#als reiner prompt:
|
| 324 |
prompt = generate_prompt_with_history(text, history)
|
| 325 |
-
|
|
|
|
| 326 |
#Anfrage an Modell (mit RAG: mit chunks aus Vektorstore, ohne: nur promt und history)
|
| 327 |
#payload = tokenizer.apply_chat_template([{"role":"user","content":prompt}],tokenize=False)
|
| 328 |
#Für LLAMA:
|
|
|
|
| 322 |
#prompt = generate_prompt_with_history_openai(text, history)
|
| 323 |
#als reiner prompt:
|
| 324 |
prompt = generate_prompt_with_history(text, history)
|
| 325 |
+
print("prompt:....................................")
|
| 326 |
+
print (prompt)
|
| 327 |
#Anfrage an Modell (mit RAG: mit chunks aus Vektorstore, ohne: nur promt und history)
|
| 328 |
#payload = tokenizer.apply_chat_template([{"role":"user","content":prompt}],tokenize=False)
|
| 329 |
#Für LLAMA:
|