Yuchan
commited on
Update Model.py
Browse files
Model.py
CHANGED
|
@@ -58,7 +58,7 @@ def ids_to_text(ids):
|
|
| 58 |
return sp.decode(ids)
|
| 59 |
|
| 60 |
# ⬇️ 전처리 하이퍼파라미터
|
| 61 |
-
max_len =
|
| 62 |
batch_size = 128
|
| 63 |
|
| 64 |
# ⬇️ 인풋과 타겟 마스킹 포함된 전처리
|
|
@@ -270,9 +270,9 @@ class Block(layers.Layer):
|
|
| 270 |
class ReLaM(tf.keras.Model):
|
| 271 |
def __init__(self, vocab_size, max_seq_len, d_model, n_layers, dropout_rate=0.1):
|
| 272 |
super().__init__()
|
| 273 |
-
self.token_embedding = layers.Embedding(vocab_size,
|
| 274 |
self.pos_embedding = layers.Embedding(max_seq_len, d_model)
|
| 275 |
-
self.blocks = [Block(d_model, hyper_n=
|
| 276 |
|
| 277 |
# LayerNormalization은 float32로 해서 정밀도 문제 방지
|
| 278 |
self.ln_f = layers.LayerNormalization(epsilon=1e-5, dtype="float32")
|
|
|
|
| 58 |
return sp.decode(ids)
|
| 59 |
|
| 60 |
# ⬇️ 전처리 하이퍼파라미터
|
| 61 |
+
max_len = 230
|
| 62 |
batch_size = 128
|
| 63 |
|
| 64 |
# ⬇️ 인풋과 타겟 마스킹 포함된 전처리
|
|
|
|
| 270 |
class ReLaM(tf.keras.Model):
|
| 271 |
def __init__(self, vocab_size, max_seq_len, d_model, n_layers, dropout_rate=0.1):
|
| 272 |
super().__init__()
|
| 273 |
+
self.token_embedding = layers.Embedding(vocab_size, 128)
|
| 274 |
self.pos_embedding = layers.Embedding(max_seq_len, d_model)
|
| 275 |
+
self.blocks = [Block(d_model, hyper_n=1) for _ in range(n_layers)]
|
| 276 |
|
| 277 |
# LayerNormalization은 float32로 해서 정밀도 문제 방지
|
| 278 |
self.ln_f = layers.LayerNormalization(epsilon=1e-5, dtype="float32")
|