userlele commited on
Commit
012c898
·
verified ·
1 Parent(s): 576deb9

Update llm.py

Browse files
Files changed (1) hide show
  1. llm.py +13 -8
llm.py CHANGED
@@ -49,13 +49,16 @@ def create_rag_chain():
49
  llm = OllamaLLM(model="gemma2:2b")
50
 
51
  system_prompt = (
52
- "You are an assistant for question-answering tasks. "
53
- "Use the following pieces of retrieved context to answer "
54
- "the question. If you don't know the answer, say that you "
55
- "don't know. Provide a clear and concise answer, using "
56
- "up to three sentences."
57
- "\n\n"
58
- "{context}"
 
 
 
59
  )
60
 
61
  prompt = ChatPromptTemplate.from_messages(
@@ -69,7 +72,9 @@ def create_rag_chain():
69
  return question_answer_chain
70
 
71
  def get_response(rag_chain, vectorstore, question):
72
- retriever = vectorstore.as_retriever()
 
 
73
  retrieval_chain = create_retrieval_chain(retriever, rag_chain)
74
  response = retrieval_chain.invoke({"input": question})
75
  return response["answer"]
 
49
  llm = OllamaLLM(model="gemma2:2b")
50
 
51
  system_prompt = (
52
+ """
53
+ <|context|>
54
+ Bạn một AI trợ chuyên cung cấp về sản phẩm bảo hiểm của công ty MB Ageas Life tại Việt Nam.
55
+ Hãy trả lời chuyên nghiệp, chính xác, cung cấp thông tin bao quát trước, đưa ví dụ rồi mới đặt câu hỏi gợi mở nếu chưa rõ. Tất cả các thông tin cung cấp đều trong phạm vi MBAL. Những câu hỏi không có đủ thông tin thì mời khách hàng đăng ký để nhận tư vấn trên https://www.mbageas.life/
56
+ </s>
57
+ <|user|>
58
+ {query}
59
+ </s>
60
+ <|assistant|>
61
+ """
62
  )
63
 
64
  prompt = ChatPromptTemplate.from_messages(
 
72
  return question_answer_chain
73
 
74
  def get_response(rag_chain, vectorstore, question):
75
+ retriever = vectorstore.as_retriever(
76
+ search_kwargs={'k': 5}
77
+ )
78
  retrieval_chain = create_retrieval_chain(retriever, rag_chain)
79
  response = retrieval_chain.invoke({"input": question})
80
  return response["answer"]