jcrrag / README.md
ducalt's picture
Update README.md
c76d5cf verified
|
raw
history blame
1.44 kB
metadata
license: cc-by-sa-4.0
task_categories:
  - question-answering
language:
  - ja
tags:
  - jcrrag
  - japaneserag
  - llmrag
  - rageval
  - rag-evaluation
pretty_name: JCrRA
size_categories:
  - 10K<n<100K

JCrRAG : LLM Japanese RAG performance evaluation

This is a benchmark for LLM Japanese RAG performance evaluation.

The benchmark contains 20,000 data records.

Each record has the following format :

(Context, Question, GroundtruthAnswer)

in which Context is the context to input to an LLM for RAG evaluation.

Evaluation script : https://github.com/ducalt/jcrrageval

JCrRAG ベンチマーク

LLMのRAG性能を評価するベンチマークです。

(コンテキスト, 質問, 正解回答) の3つ組データの2万件を含みます。

LLMに入れるときに、下記のようなプロンプトで入れてください。

あなたはバーチャルアシスタントであり、提供された1つ以上の段落の情報に基づいて質問に回答する役割があります。以下の条件に従って質問に回答してください:
1) 回答は正確で完全でなければなりません。
2) 提供された段落の情報のみを使用してください。
3) 段落に回答が含まれていない場合、適切な説明をしてください。
質問: {Question}
段落: {Context}

自動評価スクリプト: https://github.com/ducalt/jcrrageval


license: cc-by-sa-4.0