Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
|
@@ -44,12 +44,6 @@ template = """Antworte in deutsch, wenn es nicht explizit anders gefordert wird.
|
|
| 44 |
llm_template = "Beantworte die Frage am Ende. " + template + "Frage: {question} Hilfreiche Antwort: "
|
| 45 |
rag_template = "Nutze die folgenden Kontext Teile, um die Frage zu beantworten am Ende. " + template + "{context} Frage: {question} Hilfreiche Antwort: "
|
| 46 |
|
| 47 |
-
#################################################
|
| 48 |
-
#Konstanten
|
| 49 |
-
LLM_CHAIN_PROMPT = PromptTemplate(input_variables = ["question"],
|
| 50 |
-
template = llm_template)
|
| 51 |
-
RAG_CHAIN_PROMPT = PromptTemplate(input_variables = ["context", "question"],
|
| 52 |
-
template = rag_template)
|
| 53 |
|
| 54 |
#################################################
|
| 55 |
# Konstanten
|
|
@@ -221,21 +215,13 @@ def llm_chain(prompt):
|
|
| 221 |
#prompt mit RAG!!!
|
| 222 |
def rag_chain(prompt, db):
|
| 223 |
rag_template = "Nutze die folgenden Kontext Teile am Ende, um die Frage zu beantworten . " + template + "Frage: " + prompt + "Kontext Teile: "
|
| 224 |
-
|
| 225 |
-
|
| 226 |
-
|
| 227 |
-
|
| 228 |
-
|
| 229 |
-
return result["result"]
|
| 230 |
-
|
| 231 |
-
|
| 232 |
-
|
| 233 |
-
#retrieved_chunks = db.query(prompt, k=3) #3 passende chunks zum Prompt hinzufügen
|
| 234 |
-
#neu_prompt = rag_template
|
| 235 |
-
#for i, chunk in enumerate(retrieved_chunks):
|
| 236 |
-
#neu_prompt += f"{i+1}. {chunk}\n"
|
| 237 |
|
| 238 |
-
|
| 239 |
|
| 240 |
|
| 241 |
|
|
|
|
| 44 |
llm_template = "Beantworte die Frage am Ende. " + template + "Frage: {question} Hilfreiche Antwort: "
|
| 45 |
rag_template = "Nutze die folgenden Kontext Teile, um die Frage zu beantworten am Ende. " + template + "{context} Frage: {question} Hilfreiche Antwort: "
|
| 46 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 47 |
|
| 48 |
#################################################
|
| 49 |
# Konstanten
|
|
|
|
| 215 |
#prompt mit RAG!!!
|
| 216 |
def rag_chain(prompt, db):
|
| 217 |
rag_template = "Nutze die folgenden Kontext Teile am Ende, um die Frage zu beantworten . " + template + "Frage: " + prompt + "Kontext Teile: "
|
| 218 |
+
retriever = db.as_retriever(search_kwargs={"k": 3})
|
| 219 |
+
retrieved_chunks = retriever(prompt)
|
| 220 |
+
neu_prompt = rag_template
|
| 221 |
+
for i, chunk in enumerate(retrieved_chunks):
|
| 222 |
+
neu_prompt += f"{i+1}. {chunk}\n"
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 223 |
|
| 224 |
+
return neu_prompt
|
| 225 |
|
| 226 |
|
| 227 |
|