Datasets:
Commit ·
aa56335
1
Parent(s): 02afdc0
Edit : 영어 단어 한국어로 대체
Browse files- README.md +8 -8
- README_en.md +3 -3
README.md
CHANGED
|
@@ -24,7 +24,7 @@ tags:
|
|
| 24 |
AI 에이전트의 능력이 고도화되면서, 그 성능을 실제 환경과 유사한 조건에서 정밀하게 측정하는 것이 중요해졌습니다. 하지만 대부분의 벤치마크는 영어권 환경을 기준으로 설계되어, 한국의 특수한 사용 맥락을 반영하는 데 한계가 있었습니다.
|
| 25 |
이러한 문제를 해결하기 위해, 한국 실사용 환경에 특화된 고품질 에이전트 벤치마크를 개발하였습니다.
|
| 26 |
|
| 27 |
-
#
|
| 28 |
**1. 단계별 태스크 설계**
|
| 29 |
단순 도구 호출부터 장기적 맥락 능력, 강건성 처리 능력까지 에이전트의 능력을 7단계로 입체적으로 분석하였습니다.
|
| 30 |
|
|
@@ -52,20 +52,20 @@ dataset = load_dataset("Hugging-Face-KREW/Ko-AgentBench", data_files="L1.json")
|
|
| 52 |
dataset = load_dataset("Hugging-Face-KREW/Ko-AgentBench", data_files="*.json")
|
| 53 |
```
|
| 54 |
|
| 55 |
-
#
|
| 56 |
|
| 57 |
- 에이전트 벤치마크 설계를 위한 태스크 분류 체계 정의
|
| 58 |
- 에이전트의 Tool calling 활용하는 과정에서 필요한 능력을 단계적으로 분리하여 평가할 수 있도록 설계
|
| 59 |
|
| 60 |
-
## 범위
|
| 61 |
|
| 62 |
- 평가 대상 : Open-weight sLLM(*supports tool calling), Commercial APIs
|
| 63 |
- 평가 범위 : 평가 영역 : 단일턴(single-turn) 및 멀티턴(multi-turn) 대화 상황에서 Agent로써 Tool calling 수행 능력
|
| 64 |
- 적용 API : 18가지 한국형 오픈API
|
| 65 |
|
| 66 |
-
#
|
| 67 |
|
| 68 |
-
##
|
| 69 |
|
| 70 |
**L1. (단일 도구 호출) Single Tool Call**
|
| 71 |
- 목표: 가장 기본적인 API 호출 능력 검증
|
|
@@ -112,7 +112,7 @@ dataset = load_dataset("Hugging-Face-KREW/Ko-AgentBench", data_files="*.json")
|
|
| 112 |
- 특정 API 오류 시, 동일 기능을 가진 대체 API 활용 가능 여부
|
| 113 |
- 예시: “네이버 영화 API 호출 실패 시 → ‘API 호출 실패’ 보고 or 카카오 영화 API 대체 호출”
|
| 114 |
|
| 115 |
-
##
|
| 116 |
|
| 117 |
**L6 (효율적인 도구 활용) Efficient Tool Utilization**
|
| 118 |
- 목표: 이전 Tool 결과를 효율적으로 재활용하는 능력 검증
|
|
@@ -134,14 +134,14 @@ dataset = load_dataset("Hugging-Face-KREW/Ko-AgentBench", data_files="*.json")
|
|
| 134 |
|
| 135 |
|
| 136 |
|
| 137 |
-
##
|
| 138 |
Ko-AgentBench에 대한 더 자세한 내용을 확인 하실 수 있습니다.
|
| 139 |
- 🏆 [Live Leaderboard](https://huggingface.co/spaces/huggingface-KREW/Ko-AgentBench)
|
| 140 |
- 📊 [Dataset](https://huggingface.co/datasets/huggingface-KREW/Ko-AgentBench)
|
| 141 |
- 📝 [Github](https://github.com/Hugging-Face-KREW/Ko-AgentBench)
|
| 142 |
|
| 143 |
|
| 144 |
-
##
|
| 145 |
데이터셋 및 벤치마크에 대한 문의가 있으시다면 연락 주세요!
|
| 146 |
|
| 147 |
Hugging Face KREW는 Hugging Face를 통해 인공지능을 깊이 이해하고, 오픈 소스에 기여하기 위해 노력하는 한국 비영리 리서치 조직입니다.
|
|
|
|
| 24 |
AI 에이전트의 능력이 고도화되면서, 그 성능을 실제 환경과 유사한 조건에서 정밀하게 측정하는 것이 중요해졌습니다. 하지만 대부분의 벤치마크는 영어권 환경을 기준으로 설계되어, 한국의 특수한 사용 맥락을 반영하는 데 한계가 있었습니다.
|
| 25 |
이러한 문제를 해결하기 위해, 한국 실사용 환경에 특화된 고품질 에이전트 벤치마크를 개발하였습니다.
|
| 26 |
|
| 27 |
+
# Ko-AgentBench 핵심 특징 ✨
|
| 28 |
**1. 단계별 태스크 설계**
|
| 29 |
단순 도구 호출부터 장기적 맥락 능력, 강건성 처리 능력까지 에이전트의 능력을 7단계로 입체적으로 분석하였습니다.
|
| 30 |
|
|
|
|
| 52 |
dataset = load_dataset("Hugging-Face-KREW/Ko-AgentBench", data_files="*.json")
|
| 53 |
```
|
| 54 |
|
| 55 |
+
# 데이터셋 개요
|
| 56 |
|
| 57 |
- 에이전트 벤치마크 설계를 위한 태스크 분류 체계 정의
|
| 58 |
- 에이전트의 Tool calling 활용하는 과정에서 필요한 능력을 단계적으로 분리하여 평가할 수 있도록 설계
|
| 59 |
|
| 60 |
+
## 데이터셋 범위
|
| 61 |
|
| 62 |
- 평가 대상 : Open-weight sLLM(*supports tool calling), Commercial APIs
|
| 63 |
- 평가 범위 : 평가 영역 : 단일턴(single-turn) 및 멀티턴(multi-turn) 대화 상황에서 Agent로써 Tool calling 수행 능력
|
| 64 |
- 적용 API : 18가지 한국형 오픈API
|
| 65 |
|
| 66 |
+
# 태스크 분류 단계
|
| 67 |
|
| 68 |
+
## 싱글턴
|
| 69 |
|
| 70 |
**L1. (단일 도구 호출) Single Tool Call**
|
| 71 |
- 목표: 가장 기본적인 API 호출 능력 검증
|
|
|
|
| 112 |
- 특정 API 오류 시, 동일 기능을 가진 대체 API 활용 가능 여부
|
| 113 |
- 예시: “네이버 영화 API 호출 실패 시 → ‘API 호출 실패’ 보고 or 카카오 영화 API 대체 호출”
|
| 114 |
|
| 115 |
+
## 멀티턴
|
| 116 |
|
| 117 |
**L6 (효율적인 도구 활용) Efficient Tool Utilization**
|
| 118 |
- 목표: 이전 Tool 결과를 효율적으로 재활용하는 능력 검증
|
|
|
|
| 134 |
|
| 135 |
|
| 136 |
|
| 137 |
+
## 링크 🔗
|
| 138 |
Ko-AgentBench에 대한 더 자세한 내용을 확인 하실 수 있습니다.
|
| 139 |
- 🏆 [Live Leaderboard](https://huggingface.co/spaces/huggingface-KREW/Ko-AgentBench)
|
| 140 |
- 📊 [Dataset](https://huggingface.co/datasets/huggingface-KREW/Ko-AgentBench)
|
| 141 |
- 📝 [Github](https://github.com/Hugging-Face-KREW/Ko-AgentBench)
|
| 142 |
|
| 143 |
|
| 144 |
+
## 문의 📧
|
| 145 |
데이터셋 및 벤치마크에 대한 문의가 있으시다면 연락 주세요!
|
| 146 |
|
| 147 |
Hugging Face KREW는 Hugging Face를 통해 인공지능을 깊이 이해하고, 오픈 소스에 기여하기 위해 노력하는 한국 비영리 리서치 조직입니다.
|
README_en.md
CHANGED
|
@@ -25,7 +25,7 @@ As AI agents become more sophisticated, it has become crucial to precisely measu
|
|
| 25 |
|
| 26 |
To address this issue, we have developed a high-quality agent benchmark specialized for the Korean real-world usage environment.
|
| 27 |
|
| 28 |
-
# Key Features ✨
|
| 29 |
**1. Step-by-step Task Design**
|
| 30 |
We have comprehensively analyzed agent capabilities across 7 levels, from simple tool calls to long-term contextual abilities and robustness handling capabilities.
|
| 31 |
|
|
@@ -53,12 +53,12 @@ dataset = load_dataset("Hugging-Face-KREW/Ko-AgentBench", data_files="L1.json")
|
|
| 53 |
dataset = load_dataset("Hugging-Face-KREW/Ko-AgentBench", data_files="*.json")
|
| 54 |
```
|
| 55 |
|
| 56 |
-
# Overview
|
| 57 |
|
| 58 |
- Define task classification system for agent benchmark design
|
| 59 |
- Design to evaluate agent's tool calling capabilities in a step-by-step manner
|
| 60 |
|
| 61 |
-
## Scope
|
| 62 |
|
| 63 |
- Evaluation Target: Open-weight sLLM (supports tool calling), Commercial APIs
|
| 64 |
- Evaluation Scope: Agent tool calling performance in single-turn and multi-turn conversation situations
|
|
|
|
| 25 |
|
| 26 |
To address this issue, we have developed a high-quality agent benchmark specialized for the Korean real-world usage environment.
|
| 27 |
|
| 28 |
+
# Ko-AgentBench Key Features ✨
|
| 29 |
**1. Step-by-step Task Design**
|
| 30 |
We have comprehensively analyzed agent capabilities across 7 levels, from simple tool calls to long-term contextual abilities and robustness handling capabilities.
|
| 31 |
|
|
|
|
| 53 |
dataset = load_dataset("Hugging-Face-KREW/Ko-AgentBench", data_files="*.json")
|
| 54 |
```
|
| 55 |
|
| 56 |
+
# Dataset Overview
|
| 57 |
|
| 58 |
- Define task classification system for agent benchmark design
|
| 59 |
- Design to evaluate agent's tool calling capabilities in a step-by-step manner
|
| 60 |
|
| 61 |
+
## Dataset Scope
|
| 62 |
|
| 63 |
- Evaluation Target: Open-weight sLLM (supports tool calling), Commercial APIs
|
| 64 |
- Evaluation Scope: Agent tool calling performance in single-turn and multi-turn conversation situations
|