beagle-pretrain-v1 / README.md
BeagleWorks's picture
Update README.md
7943374 verified
---
license: apache-2.0
language:
- ja
pipeline_tag: text-generation
tags:
- casual-lm
library_name: transformers
---
事前学習会の用のモデルです
## モデル
パラメータ数は300M強
24レイヤー、1024隠し層、16ヘッド
## 学習データ
オープンソースな日本語データセットを利用
## トークナイザー
Unigram, Metaspace
データセットからトークナイザーを学習
## 事前学習
GPT2系のデコーダから作成
DeepSpeed ZeRO-3 / CPUオフロード
1epochのみ