PKU_NLPDL_Assignment1 / report /task3report.md
Antoinegg1's picture
Upload folder using huggingface_hub
0ee6a96 verified

task3report

学号:2200017853 姓名:李长烨

model_config

该模型为一个Seq2Seq模型,由编码器和解码器组成,编码器和解码器中使用了lstm层,解码器中使用了注意力机制。

Vocabulary Type Size
English Vocabulary Size 19920
Japanese Vocabulary Size 15086
Parameter Value
Embedding Size 300
Hidden State Dimension 600
Encoder Layers 1
Decoder Layers 1

train details

该模型使用的数据集为eng_jpn.txt,并按照8:1:1的比例划分为训练集、测试集和验证集。

模型采用了预训练的Word2Vec嵌入层,使用交叉熵损失函数(nn.CrossEntropyLoss)和Adam优化器(optim.Adam),并引入了学习率调度和早停机制(early stopping)。

模型的训练在4070-laptop GPU上进行,整个过程大约耗时40分钟。

Parameter Value
Batch Size 196
Epochs 10
Initial Learning Rate 1e-3
Teacher Forcing Ratio 0.5

evaluate details

模型采用了BLEU分数和困惑度(Perplexity)两种评估方法,测试时的输出方式为最大概率输出,在训练集,测试集和验证集上评估的结果如下:

Dataset Average BLEU Score(0,1) Perplexity
Test 0.0869 2.5830
Valid 0.0961 18.7310
Train 0.3159 17.8360

translate details

模型在翻译阶段采用temperature sampling进行生成,同时设计了可命令行交互的翻译界面。

例句的翻译结果如下:

case_1 = "私の名前は愛です"
case_2 = "昨日はお肉を食べません"
case_3 = "いただきますよう"
case_4 = "秋は好きです"
case_5 = "おはようございます"

case_1_translate_result="my name is my name ."
case_2_translate_result="i don t eat in lunch yesterday ."
case_3_translate_result="excuse you"
case_4_translate_result="autumn like it ."
case_5_translate_result="i d like to get it in the way ."

How to Use

安装依赖库:

pip install -r requirement.txt

模型的训练,评估和翻译被包装在了lstm.sh脚本中.

训练(Train)

训练模式用于从头开始或者从cheackpoint开始训练模型,可以指定训练轮数、批次大小、嵌入维度等参数来控制训练的过程。

示例命令:

bash lstm.sh --mode train --batch_size 196 --epochs 15 

主要参数: --mode train:指定模式为训练。 --batch_size:设置训练的批次大小,默认为196。 --epochs:设置训练的轮数,默认为10。 --embedding_dim:设置词嵌入维度。 --model_path:设置需要初始化的模型的位置,默认为"./data/seq2seq_model.pth" --train_dataset:训练集,默认为"./data/train.txt" --valid_dataset:验证集,默认为"./data/valid.txt" --test_dataset:测试集,默认为"./data/test.txt" 模型将使用指定的参数训练,并在训练结束后保存权重。

评估(Eval)

评估模式用于测试已经训练好的模型在验证或测试数据集上的表现。该模式将计算模型的BLEU分数和困惑度(Perplexity),以衡量模型的翻译质量和生成能力。

示例命令:

bash lstm.sh --mode eval --model_path "./data/seq2seq_model.pth" 

主要参数: --mode eval:指定模式为评估。 --model_path:指定预训练模型的路径,用于加载模型进行评估。 --test_dataset:指定用于评估的数据集,默认为"./data/test.txt" 评估完成后,模型将输出BLEU分数和困惑度,帮助您了解模型的性能。

翻译(Translate)

翻译模式允许用户输入日语句子,并使用训练好的模型生成对应的英语翻译。这种模式适用于用户交互,可以测试模型在实际应用中的表现。

示例命令:

bash lstm.sh --mode translate --model_path "./data/seq2seq_model.pth"

主要参数: --mode translate:指定模式为翻译。 --model_path:指定用于翻译的预训练模型路径。 在翻译模式下,您可以输入任意日语句子,模型会生成相应的英语翻译,直到输入quit退出交互模式。

Discussion

模型基于LSTM+attention,在训练中尝试了多种embedding size和hidden state dimension的参数组合,最终模型的参数确定为这些尝试在evaluate中的最优结果对应的模型参数。 具体而言,我们尝试了$hidden\ state\ dimension=100,256,300,600$ 最终基于训练cost的考虑和模型最优的考虑选择了600.

训练过程中,我们引入了学习率调度器和early-stop机制,用于避免在较大的模型上出现过拟合,我们还尝试了drop out机制,但是因为效果不佳,最终的模型训练时并没有使用。

总体而言,由于设备的限制和数据集大小的限制,最终训练完成的模型并没有很好的效果,进一步的工作将集中于采用更大的模型进行训练和引入更多的数据,或者更改模型架构,例如采用transformer架构的模型