Update utils.py
Browse files
utils.py
CHANGED
|
@@ -281,17 +281,22 @@ def document_retrieval_mongodb(llm, prompt):
|
|
| 281 |
#Langchain anlegen
|
| 282 |
###############################################
|
| 283 |
#langchain nutzen, um prompt an LLM zu leiten - llm und prompt sind austauschbar
|
| 284 |
-
def llm_chain(llm, prompt):
|
| 285 |
-
|
| 286 |
-
|
|
|
|
|
|
|
|
|
|
| 287 |
return result
|
| 288 |
|
| 289 |
#nur für HF-um bei chatverlauf kurzbeschreibung zu erzeugen
|
| 290 |
-
def llm_chain2(llm, prompt):
|
| 291 |
-
|
| 292 |
-
|
|
|
|
|
|
|
|
|
|
| 293 |
return result
|
| 294 |
-
|
| 295 |
#############################################
|
| 296 |
#langchain nutzen, um prompt an llm zu leiten, aber vorher in der VektorDB suchen, um passende splits zum Prompt hinzuzufügen
|
| 297 |
def rag_chain(llm, prompt, db):
|
|
|
|
| 281 |
#Langchain anlegen
|
| 282 |
###############################################
|
| 283 |
#langchain nutzen, um prompt an LLM zu leiten - llm und prompt sind austauschbar
|
| 284 |
+
def llm_chain(llm, prompt, hugchat):
|
| 285 |
+
if (!hugchat):
|
| 286 |
+
llm_chain = LLMChain(llm = llm, prompt = LLM_CHAIN_PROMPT)
|
| 287 |
+
result = llm_chain.run({"question": prompt})
|
| 288 |
+
else:
|
| 289 |
+
result = chatbot.query(prompt, web_search=True)
|
| 290 |
return result
|
| 291 |
|
| 292 |
#nur für HF-um bei chatverlauf kurzbeschreibung zu erzeugen
|
| 293 |
+
def llm_chain2(llm, prompt, hugchat):
|
| 294 |
+
if (!hugchat):
|
| 295 |
+
llm_chain = LLMChain(llm = llm, prompt = LLM_CHAIN_PROMPT2)
|
| 296 |
+
result = llm_chain.run({"question": prompt})
|
| 297 |
+
else:
|
| 298 |
+
result = chatbot.query(prompt, web_search=True)
|
| 299 |
return result
|
|
|
|
| 300 |
#############################################
|
| 301 |
#langchain nutzen, um prompt an llm zu leiten, aber vorher in der VektorDB suchen, um passende splits zum Prompt hinzuzufügen
|
| 302 |
def rag_chain(llm, prompt, db):
|