VietCat commited on
Commit
5c04d26
·
1 Parent(s): 1ca0b43

fix max token error

Browse files
Files changed (1) hide show
  1. app/message_processor.py +6 -4
app/message_processor.py CHANGED
@@ -385,10 +385,12 @@ class MessageProcessor:
385
  answer = await self.channel.llm.generate_text(prompt)
386
  if answer and answer.strip():
387
  return answer.strip()
388
- return f"Tôi chưa thông tin về câu hỏi của bạn liên quan đến {topic}."
389
- except Exception as e:
390
- logger.error(f"Lỗi khi xử chủ đề {topic}: {e}")
391
- return f"Xin lỗi, tôi đang gặp sự cố khi xử lý câu hỏi về {topic}. Vui lòng thử lại sau."
 
 
392
 
393
  async def handle_khac(self, conv, conversation_context, page_token, sender_id):
394
  conv['isdone'] = True
 
385
  answer = await self.channel.llm.generate_text(prompt)
386
  if answer and answer.strip():
387
  return answer.strip()
388
+ # If LLM returns an empty answer, provide a generic response.
389
+ logger.warning(f"LLM returned an empty answer for general question on topic: {topic}")
390
+ return "Cảm ơn bạn đã hỏi, nhưng tôi chưa có thông tin về vấn đề này. Bạn có thể hỏi câu khác được không?"
391
+ except (GeminiResponseError, Exception) as e:
392
+ logger.error(f"Error handling general question on topic '{topic}': {e}")
393
+ return "Xin lỗi bạn, tôi đang gặp một chút trục trặc kỹ thuật và chưa thể trả lời câu hỏi này. Bạn vui lòng thử lại sau một lát nhé."
394
 
395
  async def handle_khac(self, conv, conversation_context, page_token, sender_id):
396
  conv['isdone'] = True