fix max token error
Browse files- app/message_processor.py +6 -4
app/message_processor.py
CHANGED
|
@@ -385,10 +385,12 @@ class MessageProcessor:
|
|
| 385 |
answer = await self.channel.llm.generate_text(prompt)
|
| 386 |
if answer and answer.strip():
|
| 387 |
return answer.strip()
|
| 388 |
-
|
| 389 |
-
|
| 390 |
-
|
| 391 |
-
|
|
|
|
|
|
|
| 392 |
|
| 393 |
async def handle_khac(self, conv, conversation_context, page_token, sender_id):
|
| 394 |
conv['isdone'] = True
|
|
|
|
| 385 |
answer = await self.channel.llm.generate_text(prompt)
|
| 386 |
if answer and answer.strip():
|
| 387 |
return answer.strip()
|
| 388 |
+
# If LLM returns an empty answer, provide a generic response.
|
| 389 |
+
logger.warning(f"LLM returned an empty answer for general question on topic: {topic}")
|
| 390 |
+
return "Cảm ơn bạn đã hỏi, nhưng tôi chưa có thông tin về vấn đề này. Bạn có thể hỏi câu khác được không?"
|
| 391 |
+
except (GeminiResponseError, Exception) as e:
|
| 392 |
+
logger.error(f"Error handling general question on topic '{topic}': {e}")
|
| 393 |
+
return "Xin lỗi bạn, tôi đang gặp một chút trục trặc kỹ thuật và chưa thể trả lời câu hỏi này. Bạn vui lòng thử lại sau một lát nhé."
|
| 394 |
|
| 395 |
async def handle_khac(self, conv, conversation_context, page_token, sender_id):
|
| 396 |
conv['isdone'] = True
|