Update utils.py
Browse files
utils.py
CHANGED
|
@@ -357,7 +357,11 @@ def llm_chain(llm, prompt, context):
|
|
| 357 |
# Generiere den vollständigen Prompt mit der Eingabe
|
| 358 |
# Generiere den vollständigen Prompt mit den Eingabevariablen
|
| 359 |
full_prompt = RAG_CHAIN_PROMPT.format(context=context, question=prompt)
|
| 360 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
| 361 |
result = sequence.invoke()
|
| 362 |
return result
|
| 363 |
|
|
|
|
| 357 |
# Generiere den vollständigen Prompt mit der Eingabe
|
| 358 |
# Generiere den vollständigen Prompt mit den Eingabevariablen
|
| 359 |
full_prompt = RAG_CHAIN_PROMPT.format(context=context, question=prompt)
|
| 360 |
+
# Erstellen der RunnableSequence
|
| 361 |
+
sequence = RunnableSequence([
|
| 362 |
+
{"input": full_prompt}, # Den Prompt als Eingabeobjekt
|
| 363 |
+
llm # Das Modell als Runnable-Objekt
|
| 364 |
+
])
|
| 365 |
result = sequence.invoke()
|
| 366 |
return result
|
| 367 |
|