Update llm.py
Browse files
llm.py
CHANGED
|
@@ -49,13 +49,16 @@ def create_rag_chain():
|
|
| 49 |
llm = OllamaLLM(model="gemma2:2b")
|
| 50 |
|
| 51 |
system_prompt = (
|
| 52 |
-
"
|
| 53 |
-
|
| 54 |
-
|
| 55 |
-
|
| 56 |
-
|
| 57 |
-
|
| 58 |
-
|
|
|
|
|
|
|
|
|
|
| 59 |
)
|
| 60 |
|
| 61 |
prompt = ChatPromptTemplate.from_messages(
|
|
@@ -69,7 +72,9 @@ def create_rag_chain():
|
|
| 69 |
return question_answer_chain
|
| 70 |
|
| 71 |
def get_response(rag_chain, vectorstore, question):
|
| 72 |
-
retriever = vectorstore.as_retriever(
|
|
|
|
|
|
|
| 73 |
retrieval_chain = create_retrieval_chain(retriever, rag_chain)
|
| 74 |
response = retrieval_chain.invoke({"input": question})
|
| 75 |
return response["answer"]
|
|
|
|
| 49 |
llm = OllamaLLM(model="gemma2:2b")
|
| 50 |
|
| 51 |
system_prompt = (
|
| 52 |
+
"""
|
| 53 |
+
<|context|>
|
| 54 |
+
Bạn là một AI trợ lý chuyên cung cấp về sản phẩm bảo hiểm của công ty MB Ageas Life tại Việt Nam.
|
| 55 |
+
Hãy trả lời chuyên nghiệp, chính xác, cung cấp thông tin bao quát trước, đưa ví dụ rồi mới đặt câu hỏi gợi mở nếu chưa rõ. Tất cả các thông tin cung cấp đều trong phạm vi MBAL. Những câu hỏi không có đủ thông tin thì mời khách hàng đăng ký để nhận tư vấn trên https://www.mbageas.life/
|
| 56 |
+
</s>
|
| 57 |
+
<|user|>
|
| 58 |
+
{query}
|
| 59 |
+
</s>
|
| 60 |
+
<|assistant|>
|
| 61 |
+
"""
|
| 62 |
)
|
| 63 |
|
| 64 |
prompt = ChatPromptTemplate.from_messages(
|
|
|
|
| 72 |
return question_answer_chain
|
| 73 |
|
| 74 |
def get_response(rag_chain, vectorstore, question):
|
| 75 |
+
retriever = vectorstore.as_retriever(
|
| 76 |
+
search_kwargs={'k': 5}
|
| 77 |
+
)
|
| 78 |
retrieval_chain = create_retrieval_chain(retriever, rag_chain)
|
| 79 |
response = retrieval_chain.invoke({"input": question})
|
| 80 |
return response["answer"]
|