docs: metric update
Browse files
README.md
CHANGED
|
@@ -66,6 +66,105 @@ KoSGD는 한국어 LLM이 다중 도메인(21개 이상) 환경에서 얼마나
|
|
| 66 |
|
| 67 |
---
|
| 68 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 69 |
## Dataset Details
|
| 70 |
|
| 71 |
<details>
|
|
|
|
| 66 |
|
| 67 |
---
|
| 68 |
|
| 69 |
+
## Benchmark Evaluation
|
| 70 |
+
|
| 71 |
+
본 벤치마크 평가는 실시간 응답이 가능한 Local 및 API 모델을 대상으로 수행하였습니다.
|
| 72 |
+
|
| 73 |
+
**Local 모델** (8B~20B 규모 비추론 모델)
|
| 74 |
+
```
|
| 75 |
+
temperature: 0.7 | top_p: 0.8 | top_k: 20 | min_p: 0 | max_tokens: 4096
|
| 76 |
+
```
|
| 77 |
+
|
| 78 |
+
**API 모델**: 모델명만 지정, 그 외 파라미터는 API 기본값 사용
|
| 79 |
+
|
| 80 |
+
### KoSGD Dataset
|
| 81 |
+
|
| 82 |
+
| Type | Model | Intent Cls. | Action Cls. | Val\|Inform* | I-A Harm Mean |
|
| 83 |
+
|------|-------|-------------|-------------|-------------|---------------|
|
| 84 |
+
| Local | meta-llama/Meta-Llama-3.1-8B-Instruct | 54.4 | 46.2 | 57.0 | 50.0 |
|
| 85 |
+
| Local | microsoft/phi-4 | 76.6 | 72.2 | 87.5 | 78.3 |
|
| 86 |
+
| Local | google/gemma-3-12b-it | 62.6 | 64.0 | 75.6 | 66.9 |
|
| 87 |
+
| Local | Qwen/Qwen3-14B | 75.4 | 71.7 | 82.1 | 76.2 |
|
| 88 |
+
| Local | **Ours** | **90.9** | **97.7** | 94.1 | **94.2** |
|
| 89 |
+
| API | OpenAI/GPT-5-nano | 77.5 | 70.7 | 92.2 | 79.2 |
|
| 90 |
+
| API | OpenAI/GPT-5-mini | 83.3 | 77.2 | 96.6 | 85.0 |
|
| 91 |
+
| API | OpenAI/GPT-5 | 84.1 | 81.2 | 99.1 | 87.5 |
|
| 92 |
+
| API | OpenAI/GPT-5.1 | 82.7 | 71.5 | 98.3 | 82.8 |
|
| 93 |
+
| API | Google/Gemini 3 flash | 79.1 | 76.0 | 99.1 | 83.6 |
|
| 94 |
+
| API | Google/Gemini 3 pro | 86.4 | 66.5 | 99.2 | 81.8 |
|
| 95 |
+
|
| 96 |
+
```
|
| 97 |
+
- Val|Inform*: 모델이 `action`를 `INFORM`으로 예측한 경우에 한하여, `values`까지 정확하게 예측했는지 평가; 조건부 정확도이므로, Action 성능이 낮은 경우 높은 Value Accuracy가 전체 추출 성능을 대표하지 않을 수 있음.
|
| 98 |
+
- I-A Harm Mean**: Intent, Action 정확도에 대한 조화평균.
|
| 99 |
+
```
|
| 100 |
+
<details>
|
| 101 |
+
<summary><b>Intent Classification</b></summary>
|
| 102 |
+
|
| 103 |
+
평가는 예측된(Predicted) 리스트와 정답(Ground Truth) 리스트 간의 요소별 매칭을 통해 이루어집니다. 순서와 관계없이 비교합니다.
|
| 104 |
+
|
| 105 |
+
**Intent Accuracy**
|
| 106 |
+
- **정의**: 모델이 `intent` 배열을 정확하게 예측했는지 평가
|
| 107 |
+
- **조건**: 예측된 `intent` 목록이 정답 리스트와 모두 일치할 경우 정답. 정답 리스트에 없는 `intent`가 포함되면 오답.
|
| 108 |
+
</details>
|
| 109 |
+
|
| 110 |
+
<details>
|
| 111 |
+
<summary><b>Action-Value Extraction</b></summary>
|
| 112 |
+
|
| 113 |
+
평가는 예측된(Predicted) 리스트와 정답(Ground Truth) 리스트 간의 요소별 매칭을 통해 이루어집니다. 순서와 관계없이 비교합니다.
|
| 114 |
+
|
| 115 |
+
**A. Action Accuracy**
|
| 116 |
+
- **정의**: 모델이 `act`와 `slot` 쌍을 정확하게 예측했는지 평가
|
| 117 |
+
- **조건**: 예측된 `(act, slot)` 쌍이 정답 리스트에 존재하면 정답
|
| 118 |
+
|
| 119 |
+
**B. Value Accuracy (Val|Inform)**
|
| 120 |
+
- **정의**: 모델이 `act`를 `INFORM`으로 예측한 경우에 한하여, `values`까지 정확하게 예측했는지 평가
|
| 121 |
+
- **수식**: P(Value Correct | Predicted Action = INFORM)
|
| 122 |
+
- **조건**:
|
| 123 |
+
1. 모델이 `act`를 `INFORM`으로 예측
|
| 124 |
+
2. 예측된 `values` 리스트의 구성 요소가 정답과 일치
|
| 125 |
+
- **해석**: 조건부 정확도이므로, Action 성능이 낮은 경우 높은 Value Accuracy가 전체 추출 성능을 대표하지 않을 수 있음
|
| 126 |
+
- **Note**: 전체 INFORM 샘플에 대한 Value Extraction 성능은 정리 후 공개 예정
|
| 127 |
+
</details>
|
| 128 |
+
|
| 129 |
+
### aiworkx/FIN-NLU-200K Benchmark
|
| 130 |
+
|
| 131 |
+
| Type | Model | Intent Cls. | Action Cls. | Val\|Inform* | I-A Harm Mean** |
|
| 132 |
+
|------|-------|-------------|-------------|-------------|---------------|
|
| 133 |
+
| Local | meta-llama/Meta-Llama-3.1-8B-Instruct | 67.4 | 40.5 | 25.9 | 50.6 |
|
| 134 |
+
| Local | microsoft/phi-4 | 78.7 | 73.2 | 57.9 | 75.9 |
|
| 135 |
+
| Local | google/gemma-3-12b-it | 53.4 | 63.2 | 42.4 | 57.9 |
|
| 136 |
+
| Local | Qwen/Qwen3-14B | 85.3 | 79.5 | 59.5 | 82.3 |
|
| 137 |
+
| Local | **Ours** | **98.7** | **91.5** | 86.2 | **95.0** |
|
| 138 |
+
| API | OpenAI/GPT-5-nano | 95.3 | 82.7 | 77.4 | 88.6 |
|
| 139 |
+
| API | OpenAI/GPT-5-mini | 96.3 | 85.4 | 86.8 | 90.5 |
|
| 140 |
+
| API | OpenAI/GPT-5 | 83.4 | 86.0 | 93.7 | 84.7 |
|
| 141 |
+
| API | OpenAI/GPT-5.1 | 90.5 | 88.9 | 84.8 | 89.7 |
|
| 142 |
+
| API | Google/Gemini 3 flash | 95.8 | 88.2 | 92.8 | 91.8 |
|
| 143 |
+
| API | Google/Gemini 3 pro | 86.6 | 86.1 | 95.0 | 86.3 |
|
| 144 |
+
|
| 145 |
+
```
|
| 146 |
+
- Val|Inform*: 모델이 `action`를 `INFORM`으로 예측한 경우에 한하여, `values`까지 정확하게 예측했는지 평가; 조건부 정확도이므로, Action 성능이 낮은 경우 높은 Value Accuracy가 전체 추출 성능을 대표하지 않을 수 있음.
|
| 147 |
+
- I-A Harm Mean**: Intent, Action 정확도에 대한 조화평균.
|
| 148 |
+
```
|
| 149 |
+
<details>
|
| 150 |
+
|
| 151 |
+
<summary><b>aiworkx/FIN-NLU-200K Benchmark</b></summary>
|
| 152 |
+
|
| 153 |
+
aiworkx/FIN-NLU-200K는 TOD 기반 금융 상담 에이전트의 NLU 모듈 성능 평가를 위해 AIWORKX에서 자체 설계/구축한 약 200K 규모의 금융권 의도 분류 데이터셋입니다. 본 레포지토리에서는 벤치마크 데이터 원문은 공개하지 않으며, 평가 결과 수치만 공유합니다.
|
| 154 |
+
|
| 155 |
+
**평가 목표**
|
| 156 |
+
- 금융 상담 맥락에서 사용자 의도의 정확한 이해
|
| 157 |
+
- 에이전트의 다음 행동 결정을 위한 발화 구분 능력
|
| 158 |
+
- 한국어 구어체/모호적 표현에서의 정규화된 값 추출 능력
|
| 159 |
+
|
| 160 |
+
**데이터 구조**: 실제 상��� 흐름을 반영한 1-turn 대화 구조
|
| 161 |
+
- 상담사 발화 (agent utterance)
|
| 162 |
+
- 고객 발화 (user utterance)
|
| 163 |
+
- Intent / Action / Value
|
| 164 |
+
</details>
|
| 165 |
+
|
| 166 |
+
---
|
| 167 |
+
|
| 168 |
## Dataset Details
|
| 169 |
|
| 170 |
<details>
|