AIWORKX commited on
Commit
22b9c9d
·
verified ·
1 Parent(s): f4e98c3

docs: metric update

Browse files
Files changed (1) hide show
  1. README.md +99 -0
README.md CHANGED
@@ -66,6 +66,105 @@ KoSGD는 한국어 LLM이 다중 도메인(21개 이상) 환경에서 얼마나
66
 
67
  ---
68
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
69
  ## Dataset Details
70
 
71
  <details>
 
66
 
67
  ---
68
 
69
+ ## Benchmark Evaluation
70
+
71
+ 본 벤치마크 평가는 실시간 응답이 가능한 Local 및 API 모델을 대상으로 수행하였습니다.
72
+
73
+ **Local 모델** (8B~20B 규모 비추론 모델)
74
+ ```
75
+ temperature: 0.7 | top_p: 0.8 | top_k: 20 | min_p: 0 | max_tokens: 4096
76
+ ```
77
+
78
+ **API 모델**: 모델명만 지정, 그 외 파라미터는 API 기본값 사용
79
+
80
+ ### KoSGD Dataset
81
+
82
+ | Type | Model | Intent Cls. | Action Cls. | Val\|Inform* | I-A Harm Mean |
83
+ |------|-------|-------------|-------------|-------------|---------------|
84
+ | Local | meta-llama/Meta-Llama-3.1-8B-Instruct | 54.4 | 46.2 | 57.0 | 50.0 |
85
+ | Local | microsoft/phi-4 | 76.6 | 72.2 | 87.5 | 78.3 |
86
+ | Local | google/gemma-3-12b-it | 62.6 | 64.0 | 75.6 | 66.9 |
87
+ | Local | Qwen/Qwen3-14B | 75.4 | 71.7 | 82.1 | 76.2 |
88
+ | Local | **Ours** | **90.9** | **97.7** | 94.1 | **94.2** |
89
+ | API | OpenAI/GPT-5-nano | 77.5 | 70.7 | 92.2 | 79.2 |
90
+ | API | OpenAI/GPT-5-mini | 83.3 | 77.2 | 96.6 | 85.0 |
91
+ | API | OpenAI/GPT-5 | 84.1 | 81.2 | 99.1 | 87.5 |
92
+ | API | OpenAI/GPT-5.1 | 82.7 | 71.5 | 98.3 | 82.8 |
93
+ | API | Google/Gemini 3 flash | 79.1 | 76.0 | 99.1 | 83.6 |
94
+ | API | Google/Gemini 3 pro | 86.4 | 66.5 | 99.2 | 81.8 |
95
+
96
+ ```
97
+ - Val|Inform*: 모델이 `action`를 `INFORM`으로 예측한 경우에 한하여, `values`까지 정확하게 예측했는지 평가; 조건부 정확도이므로, Action 성능이 낮은 경우 높은 Value Accuracy가 전체 추출 성능을 대표하지 않을 수 있음.
98
+ - I-A Harm Mean**: Intent, Action 정확도에 대한 조화평균.
99
+ ```
100
+ <details>
101
+ <summary><b>Intent Classification</b></summary>
102
+
103
+ 평가는 예측된(Predicted) 리스트와 정답(Ground Truth) 리스트 간의 요소별 매칭을 통해 이루어집니다. 순서와 관계없이 비교합니다.
104
+
105
+ **Intent Accuracy**
106
+ - **정의**: 모델이 `intent` 배열을 정확하게 예측했는지 평가
107
+ - **조건**: 예측된 `intent` 목록이 정답 리스트와 모두 일치할 경우 정답. 정답 리스트에 없는 `intent`가 포함되면 오답.
108
+ </details>
109
+
110
+ <details>
111
+ <summary><b>Action-Value Extraction</b></summary>
112
+
113
+ 평가는 예측된(Predicted) 리스트와 정답(Ground Truth) 리스트 간의 요소별 매칭을 통해 이루어집니다. 순서와 관계없이 비교합니다.
114
+
115
+ **A. Action Accuracy**
116
+ - **정의**: 모델이 `act`와 `slot` 쌍을 정확하게 예측했는지 평가
117
+ - **조건**: 예측된 `(act, slot)` 쌍이 정답 리스트에 존재하면 정답
118
+
119
+ **B. Value Accuracy (Val|Inform)**
120
+ - **정의**: 모델이 `act`를 `INFORM`으로 예측한 경우에 한하여, `values`까지 정확하게 예측했는지 평가
121
+ - **수식**: P(Value Correct | Predicted Action = INFORM)
122
+ - **조건**:
123
+ 1. 모델이 `act`를 `INFORM`으로 예측
124
+ 2. 예측된 `values` 리스트의 구성 요소가 정답과 일치
125
+ - **해석**: 조건부 정확도이므로, Action 성능이 낮은 경우 높은 Value Accuracy가 전체 추출 성능을 대표하지 않을 수 있음
126
+ - **Note**: 전체 INFORM 샘플에 대한 Value Extraction 성능은 정리 후 공개 예정
127
+ </details>
128
+
129
+ ### aiworkx/FIN-NLU-200K Benchmark
130
+
131
+ | Type | Model | Intent Cls. | Action Cls. | Val\|Inform* | I-A Harm Mean** |
132
+ |------|-------|-------------|-------------|-------------|---------------|
133
+ | Local | meta-llama/Meta-Llama-3.1-8B-Instruct | 67.4 | 40.5 | 25.9 | 50.6 |
134
+ | Local | microsoft/phi-4 | 78.7 | 73.2 | 57.9 | 75.9 |
135
+ | Local | google/gemma-3-12b-it | 53.4 | 63.2 | 42.4 | 57.9 |
136
+ | Local | Qwen/Qwen3-14B | 85.3 | 79.5 | 59.5 | 82.3 |
137
+ | Local | **Ours** | **98.7** | **91.5** | 86.2 | **95.0** |
138
+ | API | OpenAI/GPT-5-nano | 95.3 | 82.7 | 77.4 | 88.6 |
139
+ | API | OpenAI/GPT-5-mini | 96.3 | 85.4 | 86.8 | 90.5 |
140
+ | API | OpenAI/GPT-5 | 83.4 | 86.0 | 93.7 | 84.7 |
141
+ | API | OpenAI/GPT-5.1 | 90.5 | 88.9 | 84.8 | 89.7 |
142
+ | API | Google/Gemini 3 flash | 95.8 | 88.2 | 92.8 | 91.8 |
143
+ | API | Google/Gemini 3 pro | 86.6 | 86.1 | 95.0 | 86.3 |
144
+
145
+ ```
146
+ - Val|Inform*: 모델이 `action`를 `INFORM`으로 예측한 경우에 한하여, `values`까지 정확하게 예측했는지 평가; 조건부 정확도이므로, Action 성능이 낮은 경우 높은 Value Accuracy가 전체 추출 성능을 대표하지 않을 수 있음.
147
+ - I-A Harm Mean**: Intent, Action 정확도에 대한 조화평균.
148
+ ```
149
+ <details>
150
+
151
+ <summary><b>aiworkx/FIN-NLU-200K Benchmark</b></summary>
152
+
153
+ aiworkx/FIN-NLU-200K는 TOD 기반 금융 상담 에이전트의 NLU 모듈 성능 평가를 위해 AIWORKX에서 자체 설계/구축한 약 200K 규모의 금융권 의도 분류 데이터셋입니다. 본 레포지토리에서는 벤치마크 데이터 원문은 공개하지 않으며, 평가 결과 수치만 공유합니다.
154
+
155
+ **평가 목표**
156
+ - 금융 상담 맥락에서 사용자 의도의 정확한 이해
157
+ - 에이전트의 다음 행동 결정을 위한 발화 구분 능력
158
+ - 한국어 구어체/모호적 표현에서의 정규화된 값 추출 능력
159
+
160
+ **데이터 구조**: 실제 상��� 흐름을 반영한 1-turn 대화 구조
161
+ - 상담사 발화 (agent utterance)
162
+ - 고객 발화 (user utterance)
163
+ - Intent / Action / Value
164
+ </details>
165
+
166
+ ---
167
+
168
  ## Dataset Details
169
 
170
  <details>