Update README.md
Browse files
README.md
CHANGED
|
@@ -62,6 +62,7 @@ print(result)
|
|
| 62 |
- **Epochs:** 3
|
| 63 |
- **Sequence Length:** 1024
|
| 64 |
- **Dataset:** Thai Math Dataset (~138K examples, translated + aligned)
|
|
|
|
| 65 |
โมเดลถูกฝึกด้วย QLoRA โดยใช้เทคนิค **low-rank adapter (LoRA)** ร่วมกับ quantization 4-bit
|
| 66 |
เพื่อให้สามารถฝึกบน GPU ขนาดกลาง เช่น A100 หรือ Colab Pro ได้อย่างมีประสิทธิภาพ
|
| 67 |
|
|
@@ -81,6 +82,7 @@ print(result)
|
|
| 81 |
8. [GSM8K (openai)](https://huggingface.co/datasets/openai/gsm8k)
|
| 82 |
9. [Math QSA Dataset (Kaggle)](https://www.kaggle.com/datasets/awsaf49/math-qsa-dataset)
|
| 83 |
10. [AQuA (DeepMind)](https://github.com/google-deepmind/AQuA)
|
|
|
|
| 84 |
ชุดข้อมูลถูกแปลและจัดโครงสร้างโดยใช้ LLM (Gemma 2 27B) พร้อมตรวจสอบโดยผู้เชี่ยวชาญจาก สวทช.
|
| 85 |
|
| 86 |
👉 [ดูรายละเอียดของ Dataset](https://huggingface.co/datasets/UpMath/Thai-HomeworkGen-138K)
|
|
|
|
| 62 |
- **Epochs:** 3
|
| 63 |
- **Sequence Length:** 1024
|
| 64 |
- **Dataset:** Thai Math Dataset (~138K examples, translated + aligned)
|
| 65 |
+
|
| 66 |
โมเดลถูกฝึกด้วย QLoRA โดยใช้เทคนิค **low-rank adapter (LoRA)** ร่วมกับ quantization 4-bit
|
| 67 |
เพื่อให้สามารถฝึกบน GPU ขนาดกลาง เช่น A100 หรือ Colab Pro ได้อย่างมีประสิทธิภาพ
|
| 68 |
|
|
|
|
| 82 |
8. [GSM8K (openai)](https://huggingface.co/datasets/openai/gsm8k)
|
| 83 |
9. [Math QSA Dataset (Kaggle)](https://www.kaggle.com/datasets/awsaf49/math-qsa-dataset)
|
| 84 |
10. [AQuA (DeepMind)](https://github.com/google-deepmind/AQuA)
|
| 85 |
+
|
| 86 |
ชุดข้อมูลถูกแปลและจัดโครงสร้างโดยใช้ LLM (Gemma 2 27B) พร้อมตรวจสอบโดยผู้เชี่ยวชาญจาก สวทช.
|
| 87 |
|
| 88 |
👉 [ดูรายละเอียดของ Dataset](https://huggingface.co/datasets/UpMath/Thai-HomeworkGen-138K)
|