task3report
学号:2200017853 姓名:李长烨
model_config
该模型为一个Seq2Seq模型,由编码器和解码器组成,编码器和解码器中使用了lstm层,解码器中使用了注意力机制。
| Vocabulary Type | Size |
|---|---|
| English Vocabulary Size | 19920 |
| Japanese Vocabulary Size | 15086 |
| Parameter | Value |
|---|---|
| Embedding Size | 300 |
| Hidden State Dimension | 600 |
| Encoder Layers | 1 |
| Decoder Layers | 1 |
train details
该模型使用的数据集为eng_jpn.txt,并按照8:1:1的比例划分为训练集、测试集和验证集。
模型采用了预训练的Word2Vec嵌入层,使用交叉熵损失函数(nn.CrossEntropyLoss)和Adam优化器(optim.Adam),并引入了学习率调度和早停机制(early stopping)。
模型的训练在4070-laptop GPU上进行,整个过程大约耗时40分钟。
| Parameter | Value |
|---|---|
| Batch Size | 196 |
| Epochs | 10 |
| Initial Learning Rate | 1e-3 |
| Teacher Forcing Ratio | 0.5 |
evaluate details
模型采用了BLEU分数和困惑度(Perplexity)两种评估方法,测试时的输出方式为最大概率输出,在训练集,测试集和验证集上评估的结果如下:
| Dataset | Average BLEU Score(0,1) | Perplexity |
|---|---|---|
| Test | 0.0869 | 2.5830 |
| Valid | 0.0961 | 18.7310 |
| Train | 0.3159 | 17.8360 |
translate details
模型在翻译阶段采用temperature sampling进行生成,同时设计了可命令行交互的翻译界面。
例句的翻译结果如下:
case_1 = "私の名前は愛です"
case_2 = "昨日はお肉を食べません"
case_3 = "いただきますよう"
case_4 = "秋は好きです"
case_5 = "おはようございます"
case_1_translate_result="my name is my name ."
case_2_translate_result="i don t eat in lunch yesterday ."
case_3_translate_result="excuse you"
case_4_translate_result="autumn like it ."
case_5_translate_result="i d like to get it in the way ."
How to Use
安装依赖库:
pip install -r requirement.txt
模型的训练,评估和翻译被包装在了lstm.sh脚本中.
训练(Train)
训练模式用于从头开始或者从cheackpoint开始训练模型,可以指定训练轮数、批次大小、嵌入维度等参数来控制训练的过程。
示例命令:
bash lstm.sh --mode train --batch_size 196 --epochs 15
主要参数: --mode train:指定模式为训练。 --batch_size:设置训练的批次大小,默认为196。 --epochs:设置训练的轮数,默认为10。 --embedding_dim:设置词嵌入维度。 --model_path:设置需要初始化的模型的位置,默认为"./data/seq2seq_model.pth" --train_dataset:训练集,默认为"./data/train.txt" --valid_dataset:验证集,默认为"./data/valid.txt" --test_dataset:测试集,默认为"./data/test.txt" 模型将使用指定的参数训练,并在训练结束后保存权重。
评估(Eval)
评估模式用于测试已经训练好的模型在验证或测试数据集上的表现。该模式将计算模型的BLEU分数和困惑度(Perplexity),以衡量模型的翻译质量和生成能力。
示例命令:
bash lstm.sh --mode eval --model_path "./data/seq2seq_model.pth"
主要参数: --mode eval:指定模式为评估。 --model_path:指定预训练模型的路径,用于加载模型进行评估。 --test_dataset:指定用于评估的数据集,默认为"./data/test.txt" 评估完成后,模型将输出BLEU分数和困惑度,帮助您了解模型的性能。
翻译(Translate)
翻译模式允许用户输入日语句子,并使用训练好的模型生成对应的英语翻译。这种模式适用于用户交互,可以测试模型在实际应用中的表现。
示例命令:
bash lstm.sh --mode translate --model_path "./data/seq2seq_model.pth"
主要参数: --mode translate:指定模式为翻译。 --model_path:指定用于翻译的预训练模型路径。 在翻译模式下,您可以输入任意日语句子,模型会生成相应的英语翻译,直到输入quit退出交互模式。
Discussion
模型基于LSTM+attention,在训练中尝试了多种embedding size和hidden state dimension的参数组合,最终模型的参数确定为这些尝试在evaluate中的最优结果对应的模型参数。 具体而言,我们尝试了$hidden\ state\ dimension=100,256,300,600$ 最终基于训练cost的考虑和模型最优的考虑选择了600.
训练过程中,我们引入了学习率调度器和early-stop机制,用于避免在较大的模型上出现过拟合,我们还尝试了drop out机制,但是因为效果不佳,最终的模型训练时并没有使用。
总体而言,由于设备的限制和数据集大小的限制,最终训练完成的模型并没有很好的效果,进一步的工作将集中于采用更大的模型进行训练和引入更多的数据,或者更改模型架构,例如采用transformer架构的模型