File size: 1,437 Bytes
c76d5cf
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
41a5d57
 
 
 
 
 
 
 
 
 
 
 
242e86d
 
41a5d57
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
242e86d
 
41a5d57
 
 
c76d5cf
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
---
license: cc-by-sa-4.0
task_categories:
- question-answering
language:
- ja
tags:
- jcrrag
- japaneserag
- llmrag
- rageval
- rag-evaluation
pretty_name: JCrRA
size_categories:
- 10K<n<100K
---
# JCrRAG : LLM Japanese RAG performance evaluation

This is a benchmark for LLM Japanese RAG performance evaluation.

The benchmark contains 20,000 data records. 

Each record has the following format : 

(Context, Question, GroundtruthAnswer)

in which Context is the context to input to an LLM for RAG evaluation. 

Evaluation script : 
https://github.com/ducalt/jcrrageval



# JCrRAG ベンチマーク

LLMのRAG性能を評価するベンチマークです。

(コンテキスト, 質問, 正解回答) の3つ組データの2万件を含みます。

LLMに入れるときに、下記のようなプロンプトで入れてください。

```
あなたはバーチャルアシスタントであり、提供された1つ以上の段落の情報に基づいて質問に回答する役割があります。以下の条件に従って質問に回答してください:
1) 回答は正確で完全でなければなりません。
2) 提供された段落の情報のみを使用してください。
3) 段落に回答が含まれていない場合、適切な説明をしてください。
質問: {Question}
段落: {Context}
```

自動評価スクリプト:
https://github.com/ducalt/jcrrageval

---
license: cc-by-sa-4.0
---