Yuchan commited on
Commit
1065dfd
·
verified ·
1 Parent(s): 37ba2d7

Update Model.py

Browse files
Files changed (1) hide show
  1. Model.py +3 -3
Model.py CHANGED
@@ -58,7 +58,7 @@ def ids_to_text(ids):
58
  return sp.decode(ids)
59
 
60
  # ⬇️ 전처리 하이퍼파라미터
61
- max_len = 100
62
  batch_size = 128
63
 
64
  # ⬇️ 인풋과 타겟 마스킹 포함된 전처리
@@ -270,9 +270,9 @@ class Block(layers.Layer):
270
  class ReLaM(tf.keras.Model):
271
  def __init__(self, vocab_size, max_seq_len, d_model, n_layers, dropout_rate=0.1):
272
  super().__init__()
273
- self.token_embedding = layers.Embedding(vocab_size, d_model)
274
  self.pos_embedding = layers.Embedding(max_seq_len, d_model)
275
- self.blocks = [Block(d_model, hyper_n=3) for _ in range(n_layers)]
276
 
277
  # LayerNormalization은 float32로 해서 정밀도 문제 방지
278
  self.ln_f = layers.LayerNormalization(epsilon=1e-5, dtype="float32")
 
58
  return sp.decode(ids)
59
 
60
  # ⬇️ 전처리 하이퍼파라미터
61
+ max_len = 230
62
  batch_size = 128
63
 
64
  # ⬇️ 인풋과 타겟 마스킹 포함된 전처리
 
270
  class ReLaM(tf.keras.Model):
271
  def __init__(self, vocab_size, max_seq_len, d_model, n_layers, dropout_rate=0.1):
272
  super().__init__()
273
+ self.token_embedding = layers.Embedding(vocab_size, 128)
274
  self.pos_embedding = layers.Embedding(max_seq_len, d_model)
275
+ self.blocks = [Block(d_model, hyper_n=1) for _ in range(n_layers)]
276
 
277
  # LayerNormalization은 float32로 해서 정밀도 문제 방지
278
  self.ln_f = layers.LayerNormalization(epsilon=1e-5, dtype="float32")