Datasets:
update: rubric_scoring_prompt_ja.txt
Browse files
data/rubric_scoring_prompt_ja.txt
ADDED
|
@@ -0,0 +1,36 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
あなたは感情知能(EI)の評価において専門家です。以下のアシスタントの回答を、複数の基準に基づき 0〜20 のスコアで評価してください。
|
| 2 |
+
|
| 3 |
+
[台本開始]
|
| 4 |
+
|
| 5 |
+
{transcript}
|
| 6 |
+
|
| 7 |
+
---
|
| 8 |
+
|
| 9 |
+
ユーザー:
|
| 10 |
+
/シーン
|
| 11 |
+
|
| 12 |
+
では、振り返りましょう。
|
| 13 |
+
|
| 14 |
+
---
|
| 15 |
+
|
| 16 |
+
アシスタント:
|
| 17 |
+
{debrief}
|
| 18 |
+
|
| 19 |
+
[台本終了]
|
| 20 |
+
|
| 21 |
+
# 評価タスク:
|
| 22 |
+
アシスタントの回答をいくつかの基準に基づいて評価します。ユーザーのメッセージはすべて事前に用意されたもの( canned )であり、アシスタントが会話の方向性を左右することはできません。評価の対象はアシスタントの回答のみです。
|
| 23 |
+
|
| 24 |
+
評価に関する注記:
|
| 25 |
+
|
| 26 |
+
- 基準はすべて「高いほど良い」わけではありません。スタイルや個性も評価対象となります。
|
| 27 |
+
- 定性的評価(高いほど良い):
|
| 28 |
+
demonstrated_empathy(共感の示現), pragmatic_ei(実践的な EI), depth_of_insight(洞察の深さ), social_dexterity(社会的機転), emotional_reasoning(感情論理), message_tailoring(メッセージの調整)
|
| 29 |
+
- 定量的評価(高いほうが必ずしも良い・悪いとは限らない):
|
| 30 |
+
boundary_setting(境界線の設定), safety_conscious(安全性への配慮), moralising(道徳説教), sycophantic(奉承的), compliant(従順), challenging(挑戦的), warmth(温かみ), validating(肯定・承認), analytical(分析的), reactive(反応的), conversational(対話的), humanlike(人間らしい)
|
| 31 |
+
- 「アシスタント」のメッセージおよび振り返り(debrief)は、回答者によって作成されています。評価は、そのロールプレイで示された EQ と、その自己評価に基づいて行ってください。
|
| 32 |
+
- あなたは批評家であり、特に欠点や未熟な要素に対して厳しく批判する役割を担ってください。
|
| 33 |
+
|
| 34 |
+
出力は、以下の形式の有効な JSON で行ってください:
|
| 35 |
+
|
| 36 |
+
{output_format}
|