kurogane commited on
Commit
c0fee43
·
verified ·
1 Parent(s): 75dc0de

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +42 -3
README.md CHANGED
@@ -1,3 +1,42 @@
1
- ---
2
- license: apache-2.0
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ pipeline_tag: text-generation
4
+ language:
5
+ - ja
6
+ - en
7
+ datasets:
8
+ - hotchpotch/fineweb-2-edu-japanese
9
+ - HuggingFaceTB/smollm-corpus
10
+ - HuggingFaceFW/finepdfs
11
+ - OmniAICreator/WebNovels-Ja
12
+ ---
13
+
14
+ ## 概要
15
+ Phi3アーキテクチャのモデルです。
16
+ context sizeは256です。
17
+
18
+ ## dataset
19
+ 以下のデータセットで1epoch回しました。
20
+ - [HuggingFaceTB/smollm-corpus](huggingface.co/datasets/HuggingFaceTB/smollm-corpus)
21
+ - cosmopedia-v2: 10,000,000件
22
+ - fineweb-edu-dedup: 10,000,000件
23
+ - [hotchpotch/fineweb-2-edu-japanese](huggingface.co/datasets/hotchpotch/fineweb-2-edu-japanese)
24
+ - sample_10BT: 15,000,000件
25
+ - [HuggingFaceFW/finepdfs](huggingface.co/datasets/HuggingFaceFW/finepdfs)
26
+ - jpn_Jpan: 10,000,000件
27
+ - eng_Latn: 100,000件
28
+ - [OmniAICreator/WebNovels-Ja](huggingface.co/datasets/OmniAICreator/WebNovels-Ja)
29
+ - 2,560,871件
30
+
31
+ バッチサイズ: 140
32
+ ステップ数: 2094240
33
+ トレーニングトークン合計数: 75B tokens
34
+ 学習率: 3e-4
35
+
36
+ ## tokenizer
37
+ [Rakuten/RakutenAI-2.0-mini-instruct](Rakuten/RakutenAI-2.0-mini-instruct)を使用しました。
38
+ 日本語対応LLMであり、vocab_sizeが48000と学習に使いやすそうだったからです。」
39
+
40
+
41
+
42
+