Update README.md
Browse files
README.md
CHANGED
|
@@ -1,3 +1,42 @@
|
|
| 1 |
-
---
|
| 2 |
-
license: apache-2.0
|
| 3 |
-
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
license: apache-2.0
|
| 3 |
+
pipeline_tag: text-generation
|
| 4 |
+
language:
|
| 5 |
+
- ja
|
| 6 |
+
- en
|
| 7 |
+
datasets:
|
| 8 |
+
- hotchpotch/fineweb-2-edu-japanese
|
| 9 |
+
- HuggingFaceTB/smollm-corpus
|
| 10 |
+
- HuggingFaceFW/finepdfs
|
| 11 |
+
- OmniAICreator/WebNovels-Ja
|
| 12 |
+
---
|
| 13 |
+
|
| 14 |
+
## 概要
|
| 15 |
+
Phi3アーキテクチャのモデルです。
|
| 16 |
+
context sizeは256です。
|
| 17 |
+
|
| 18 |
+
## dataset
|
| 19 |
+
以下のデータセットで1epoch回しました。
|
| 20 |
+
- [HuggingFaceTB/smollm-corpus](huggingface.co/datasets/HuggingFaceTB/smollm-corpus)
|
| 21 |
+
- cosmopedia-v2: 10,000,000件
|
| 22 |
+
- fineweb-edu-dedup: 10,000,000件
|
| 23 |
+
- [hotchpotch/fineweb-2-edu-japanese](huggingface.co/datasets/hotchpotch/fineweb-2-edu-japanese)
|
| 24 |
+
- sample_10BT: 15,000,000件
|
| 25 |
+
- [HuggingFaceFW/finepdfs](huggingface.co/datasets/HuggingFaceFW/finepdfs)
|
| 26 |
+
- jpn_Jpan: 10,000,000件
|
| 27 |
+
- eng_Latn: 100,000件
|
| 28 |
+
- [OmniAICreator/WebNovels-Ja](huggingface.co/datasets/OmniAICreator/WebNovels-Ja)
|
| 29 |
+
- 2,560,871件
|
| 30 |
+
|
| 31 |
+
バッチサイズ: 140
|
| 32 |
+
ステップ数: 2094240
|
| 33 |
+
トレーニングトークン合計数: 75B tokens
|
| 34 |
+
学習率: 3e-4
|
| 35 |
+
|
| 36 |
+
## tokenizer
|
| 37 |
+
[Rakuten/RakutenAI-2.0-mini-instruct](Rakuten/RakutenAI-2.0-mini-instruct)を使用しました。
|
| 38 |
+
日本語対応LLMであり、vocab_sizeが48000と学習に使いやすそうだったからです。」
|
| 39 |
+
|
| 40 |
+
|
| 41 |
+
|
| 42 |
+
|