Ahnj-Stability commited on
Commit
aa56335
·
1 Parent(s): 02afdc0

Edit : 영어 단어 한국어로 대체

Browse files
Files changed (2) hide show
  1. README.md +8 -8
  2. README_en.md +3 -3
README.md CHANGED
@@ -24,7 +24,7 @@ tags:
24
  AI 에이전트의 능력이 고도화되면서, 그 성능을 실제 환경과 유사한 조건에서 정밀하게 측정하는 것이 중요해졌습니다. 하지만 대부분의 벤치마크는 영어권 환경을 기준으로 설계되어, 한국의 특수한 사용 맥락을 반영하는 데 한계가 있었습니다.
25
  이러한 문제를 해결하기 위해, 한국 실사용 환경에 특화된 고품질 에이전트 벤치마크를 개발하였습니다.
26
 
27
- # Key Features
28
  **1. 단계별 태스크 설계**
29
  단순 도구 호출부터 장기적 맥락 능력, 강건성 처리 능력까지 에이전트의 능력을 7단계로 입체적으로 분석하였습니다.
30
 
@@ -52,20 +52,20 @@ dataset = load_dataset("Hugging-Face-KREW/Ko-AgentBench", data_files="L1.json")
52
  dataset = load_dataset("Hugging-Face-KREW/Ko-AgentBench", data_files="*.json")
53
  ```
54
 
55
- # Overview
56
 
57
  - 에이전트 벤치마크 설계를 위한 태스크 분류 체계 정의
58
  - 에이전트의 Tool calling 활용하는 과정에서 필요한 능력을 단계적으로 분리하여 평가할 수 있도록 설계
59
 
60
- ## 범위
61
 
62
  - 평가 대상 : Open-weight sLLM(*supports tool calling), Commercial APIs
63
  - 평가 범위 : 평가 영역 : 단일턴(single-turn) 및 멀티턴(multi-turn) 대화 상황에서 Agent로써 Tool calling 수행 능력
64
  - 적용 API : 18가지 한국형 오픈API
65
 
66
- # Task Levels
67
 
68
- ## Single-Turn
69
 
70
  **L1. (단일 도구 호출) Single Tool Call**
71
  - 목표: 가장 기본적인 API 호출 능력 검증
@@ -112,7 +112,7 @@ dataset = load_dataset("Hugging-Face-KREW/Ko-AgentBench", data_files="*.json")
112
  - 특정 API 오류 시, 동일 기능을 가진 대체 API 활용 가능 여부
113
  - 예시: “네이버 영화 API 호출 실패 시 → ‘API 호출 실패’ 보고 or 카카오 영화 API 대체 호출”
114
 
115
- ## Multi-Turn
116
 
117
  **L6 (효율적인 도구 활용) Efficient Tool Utilization**
118
  - 목표: 이전 Tool 결과를 효율적으로 재활용하는 능력 검증
@@ -134,14 +134,14 @@ dataset = load_dataset("Hugging-Face-KREW/Ko-AgentBench", data_files="*.json")
134
 
135
 
136
 
137
- ## Links
138
  Ko-AgentBench에 대한 더 자세한 내용을 확인 하실 수 있습니다.
139
  - 🏆 [Live Leaderboard](https://huggingface.co/spaces/huggingface-KREW/Ko-AgentBench)
140
  - 📊 [Dataset](https://huggingface.co/datasets/huggingface-KREW/Ko-AgentBench)
141
  - 📝 [Github](https://github.com/Hugging-Face-KREW/Ko-AgentBench)
142
 
143
 
144
- ## Contact
145
  데이터셋 및 벤치마크에 대한 문의가 있으시다면 연락 주세요!
146
 
147
  Hugging Face KREW는 Hugging Face를 통해 인공지능을 깊이 이해하고, 오픈 소스에 기여하기 위해 노력하는 한국 비영리 리서치 조직입니다.
 
24
  AI 에이전트의 능력이 고도화되면서, 그 성능을 실제 환경과 유사한 조건에서 정밀하게 측정하는 것이 중요해졌습니다. 하지만 대부분의 벤치마크는 영어권 환경을 기준으로 설계되어, 한국의 특수한 사용 맥락을 반영하는 데 한계가 있었습니다.
25
  이러한 문제를 해결하기 위해, 한국 실사용 환경에 특화된 고품질 에이전트 벤치마크를 개발하였습니다.
26
 
27
+ # Ko-AgentBench 핵심 특징
28
  **1. 단계별 태스크 설계**
29
  단순 도구 호출부터 장기적 맥락 능력, 강건성 처리 능력까지 에이전트의 능력을 7단계로 입체적으로 분석하였습니다.
30
 
 
52
  dataset = load_dataset("Hugging-Face-KREW/Ko-AgentBench", data_files="*.json")
53
  ```
54
 
55
+ # 데이터셋 개요
56
 
57
  - 에이전트 벤치마크 설계를 위한 태스크 분류 체계 정의
58
  - 에이전트의 Tool calling 활용하는 과정에서 필요한 능력을 단계적으로 분리하여 평가할 수 있도록 설계
59
 
60
+ ## 데이터셋 범위
61
 
62
  - 평가 대상 : Open-weight sLLM(*supports tool calling), Commercial APIs
63
  - 평가 범위 : 평가 영역 : 단일턴(single-turn) 및 멀티턴(multi-turn) 대화 상황에서 Agent로써 Tool calling 수행 능력
64
  - 적용 API : 18가지 한국형 오픈API
65
 
66
+ # 태스크 분류 단계
67
 
68
+ ## 싱글턴
69
 
70
  **L1. (단일 도구 호출) Single Tool Call**
71
  - 목표: 가장 기본적인 API 호출 능력 검증
 
112
  - 특정 API 오류 시, 동일 기능을 가진 대체 API 활용 가능 여부
113
  - 예시: “네이버 영화 API 호출 실패 시 → ‘API 호출 실패’ 보고 or 카카오 영화 API 대체 호출”
114
 
115
+ ## 멀티턴
116
 
117
  **L6 (효율적인 도구 활용) Efficient Tool Utilization**
118
  - 목표: 이전 Tool 결과를 효율적으로 재활용하는 능력 검증
 
134
 
135
 
136
 
137
+ ## 링크 🔗
138
  Ko-AgentBench에 대한 더 자세한 내용을 확인 하실 수 있습니다.
139
  - 🏆 [Live Leaderboard](https://huggingface.co/spaces/huggingface-KREW/Ko-AgentBench)
140
  - 📊 [Dataset](https://huggingface.co/datasets/huggingface-KREW/Ko-AgentBench)
141
  - 📝 [Github](https://github.com/Hugging-Face-KREW/Ko-AgentBench)
142
 
143
 
144
+ ## 문의 📧
145
  데이터셋 및 벤치마크에 대한 문의가 있으시다면 연락 주세요!
146
 
147
  Hugging Face KREW는 Hugging Face를 통해 인공지능을 깊이 이해하고, 오픈 소스에 기여하기 위해 노력하는 한국 비영리 리서치 조직입니다.
README_en.md CHANGED
@@ -25,7 +25,7 @@ As AI agents become more sophisticated, it has become crucial to precisely measu
25
 
26
  To address this issue, we have developed a high-quality agent benchmark specialized for the Korean real-world usage environment.
27
 
28
- # Key Features ✨
29
  **1. Step-by-step Task Design**
30
  We have comprehensively analyzed agent capabilities across 7 levels, from simple tool calls to long-term contextual abilities and robustness handling capabilities.
31
 
@@ -53,12 +53,12 @@ dataset = load_dataset("Hugging-Face-KREW/Ko-AgentBench", data_files="L1.json")
53
  dataset = load_dataset("Hugging-Face-KREW/Ko-AgentBench", data_files="*.json")
54
  ```
55
 
56
- # Overview
57
 
58
  - Define task classification system for agent benchmark design
59
  - Design to evaluate agent's tool calling capabilities in a step-by-step manner
60
 
61
- ## Scope
62
 
63
  - Evaluation Target: Open-weight sLLM (supports tool calling), Commercial APIs
64
  - Evaluation Scope: Agent tool calling performance in single-turn and multi-turn conversation situations
 
25
 
26
  To address this issue, we have developed a high-quality agent benchmark specialized for the Korean real-world usage environment.
27
 
28
+ # Ko-AgentBench Key Features ✨
29
  **1. Step-by-step Task Design**
30
  We have comprehensively analyzed agent capabilities across 7 levels, from simple tool calls to long-term contextual abilities and robustness handling capabilities.
31
 
 
53
  dataset = load_dataset("Hugging-Face-KREW/Ko-AgentBench", data_files="*.json")
54
  ```
55
 
56
+ # Dataset Overview
57
 
58
  - Define task classification system for agent benchmark design
59
  - Design to evaluate agent's tool calling capabilities in a step-by-step manner
60
 
61
+ ## Dataset Scope
62
 
63
  - Evaluation Target: Open-weight sLLM (supports tool calling), Commercial APIs
64
  - Evaluation Scope: Agent tool calling performance in single-turn and multi-turn conversation situations