File size: 6,119 Bytes
146b323
d52b837
146b323
 
 
 
 
 
 
 
 
 
 
 
1c05118
 
 
 
146b323
 
 
 
 
d52b837
 
 
 
146b323
d52b837
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
---
license: cc-by-4.0
dataset_info:
  features:
  - name: question
    dtype: string
  - name: solution
    dtype: string
  - name: answer
    dtype: string
  - name: bloom_taxonomy
    sequence: string
  splits:
  - name: train
    num_bytes: 118546502
    num_examples: 122869
  download_size: 45273435
  dataset_size: 118546502
configs:
- config_name: default
  data_files:
  - split: train
    path: data/train-*
task_categories:
- text-generation
size_categories:
- 100K<n<1M
---

# ชุดข้อมูลคณิตศาสตร์ภาษาไทย

ชุดข้อมูลนี้จัดทำขึ้นโดยการแปลและปรับปรุงโจทย์คณิตศาสตร์จากชุดข้อมูลภาษาอังกฤษที่ได้รับความนิยม โดยมุ่งเน้นให้สามารถใช้งานกับโมเดลภาษา (LLM) ในบริบทภาษาไทยได้อย่างมีประสิทธิภาพ ทั้งในด้านความถูกต้องของภาษา รูปแบบ และการจัดระดับความคิดตาม Bloom’s Taxonomy

---

## รายละเอียดชุดข้อมูล

- ครอบคลุมเนื้อหาคณิตศาสตร์ระดับมัธยมปลาย (ปัจจุบัน: พีชคณิต)
- รูปแบบของแต่ละรายการประกอบด้วย:
  - `question`: โจทย์คณิตศาสตร์ (ภาษาไทย)
  - `solution`: วิธีทำโดยละเอียด (ภาษาไทย)
  - `answer`: คำตอบสุดท้าย (ภาษาไทย)
  - `bloom_taxonomy`: ระดับความคิดตามแนวทาง Bloom’s Taxonomy ("จำ", "เข้าใจ", "นำไปใช้", "วิเคราะห์", "ประเมิน", "สร้าง")

---

## การแปลและปรับปรุงด้วย LLM

โจทย์และคำอธิบายในชุดข้อมูลนี้ได้รับการแปลและจัดรูปแบบโดยโมเดล Gemma 2 27B โดยอิง:

- **คำศัพท์และรูปแบบทางคณิตศาสตร์** จากชุดข้อมูลต้นแบบที่ได้รับการตรวจสอบโดยผู้เชี่ยวชาญจาก **สวทช.**
- **ระดับ Bloom’s Taxonomy** ซึ่งถูกเพิ่มโดย LLM โดยวิเคราะห์จากเนื้อหาโจทย์ตามแนวคิดทางการศึกษาระดับสากล

> **หมายเหตุ:** ระดับ Bloom ที่ปรากฏในชุดข้อมูลนี้ไม่ได้มาจากชุดข้อมูลต้นฉบับโดยตรง แต่เป็นผลจากการวิเคราะห์ของ LLM โดยมี Dataset ต้นแบบเป็นแนวทางในการฝึกฝนและควบคุมคุณภาพ

---

## แหล่งข้อมูลต้นทาง

การสร้างชุดข้อมูลนี้อ้างอิงและดัดแปลงจากชุดข้อมูลภาษาอังกฤษคุณภาพสูงหลายชุด ได้แก่:

1. [MathQA (allenai)](https://huggingface.co/datasets/allenai/math_qa)  
2. [MATH-500 (HuggingFaceH4)](https://huggingface.co/datasets/HuggingFaceH4/MATH-500)  
3. [MATH-Algebra](https://huggingface.co/datasets/themanas021/MATH-Algebra)  
4. [math-mixture: mix_intermediate_algebra97_algebra01_prealgebra00](https://huggingface.co/datasets/andrewsiah/math-mixture-mix_intermediate_algebra97_algebra01_prealgebra00)  
5. [math-mixture: mix_algebra76_prealgebra12_number_theory08](https://huggingface.co/datasets/andrewsiah/math-mixture-mix_algebra76_prealgebra12_number_theory08)  
6. [Math-algebra (datafreak)](https://huggingface.co/datasets/datafreak/Math-algebra)  
7. [MATH Dataset (Hendrycks et al.)](https://github.com/hendrycks/math/)  
8. [GSM8K (openai)](https://huggingface.co/datasets/openai/gsm8k)  
9. [Math QSA Dataset (Kaggle)](https://www.kaggle.com/datasets/awsaf49/math-qsa-dataset)  
10. [AQuA (DeepMind)](https://github.com/google-deepmind/AQuA)

---

## วัตถุประสงค์การใช้งาน

- สำหรับการฝึกฝน (fine-tune) โมเดลภาษาไทยที่รองรับการแก้ปัญหาทางคณิตศาสตร์
- เพื่อใช้เป็น benchmark สำหรับการประเมิน reasoning ในภาษาไทย
- เพื่อสนับสนุนงานด้านการศึกษา ปัญญาประดิษฐ์ และ NLP ที่เกี่ยวข้องกับคณิตศาสตร์

---

## การอ้างอิง

หากคุณใช้งานชุดข้อมูลนี้ กรุณาอ้างอิงแหล่งที่มาของชุดข้อมูลต้นทางตามที่ระบุไว้ด้านบน และสามารถให้เครดิตโปรเจกต์นี้ได้ด้วย

---

## ขอขอบคุณ

ผู้เชี่ยวชาญจาก **สวทช. (National Science and Technology Development Agency)** ที่ให้คำแนะนำในการออกแบบชุดข้อมูลต้นแบบซึ่งเป็นแนวทางในการพัฒนาเวอร์ชันภาษาไทยของชุดข้อมูลนี้