fix bug LLM
Browse files- app/llm.py +7 -5
app/llm.py
CHANGED
|
@@ -233,7 +233,9 @@ class LLMClient:
|
|
| 233 |
response.raise_for_status()
|
| 234 |
data = response.json()
|
| 235 |
logger.info(f"[LLM][FLOW] Response data: {data}")
|
| 236 |
-
if '
|
|
|
|
|
|
|
| 237 |
return data['result']
|
| 238 |
elif 'data' in data and isinstance(data['data'], list):
|
| 239 |
return data['data'][0]
|
|
@@ -434,14 +436,14 @@ class LLMClient:
|
|
| 434 |
|
| 435 |
Trả lời dưới dạng JSON với 3 trường sau:
|
| 436 |
{{
|
| 437 |
-
"muc_dich": "
|
| 438 |
-
"phuong_tien": "
|
| 439 |
-
"hanh_vi_vi_pham": "
|
| 440 |
}}
|
| 441 |
|
| 442 |
Ví dụ:
|
| 443 |
"Tôi chạy xe hơi không bật đèn vào ban đêm thì có bị sao không?"
|
| 444 |
-
|
| 445 |
"muc_dich": "Hỏi về hậu quả/hình phạt khi không bật đèn xe hơi ban đêm",
|
| 446 |
"phuong_tien": "Xe hơi",
|
| 447 |
"hanh_vi_vi_pham": "Không bật đèn khi lái xe vào ban đêm"
|
|
|
|
| 233 |
response.raise_for_status()
|
| 234 |
data = response.json()
|
| 235 |
logger.info(f"[LLM][FLOW] Response data: {data}")
|
| 236 |
+
if 'response' in data:
|
| 237 |
+
return data['response']
|
| 238 |
+
elif 'result' in data:
|
| 239 |
return data['result']
|
| 240 |
elif 'data' in data and isinstance(data['data'], list):
|
| 241 |
return data['data'][0]
|
|
|
|
| 436 |
|
| 437 |
Trả lời dưới dạng JSON với 3 trường sau:
|
| 438 |
{{
|
| 439 |
+
"muc_dich": "mục đích của câu hỏi",
|
| 440 |
+
"phuong_tien": "loại phương tiện giao thông",
|
| 441 |
+
"hanh_vi_vi_pham": "hành vi vi phạm luật giao thông"
|
| 442 |
}}
|
| 443 |
|
| 444 |
Ví dụ:
|
| 445 |
"Tôi chạy xe hơi không bật đèn vào ban đêm thì có bị sao không?"
|
| 446 |
+
{{
|
| 447 |
"muc_dich": "Hỏi về hậu quả/hình phạt khi không bật đèn xe hơi ban đêm",
|
| 448 |
"phuong_tien": "Xe hơi",
|
| 449 |
"hanh_vi_vi_pham": "Không bật đèn khi lái xe vào ban đêm"
|