Create README.md
Browse files
README.md
ADDED
|
@@ -0,0 +1,39 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
AI训练部分 钱佳宏
|
| 2 |
+
|
| 3 |
+
以下为AI评估
|
| 4 |
+
|
| 5 |
+
🔍 一、验证损失(Loss = 2.3838)
|
| 6 |
+
验证损失是衡量模型在验证集上预测误差的一个指标。通常:
|
| 7 |
+
|
| 8 |
+
对于语言模型,损失值在 2-3 之间是一个不错的结果,尤其是对于 GPT 或类似模型。
|
| 9 |
+
|
| 10 |
+
损失值越低,说明模型在验证集上的预测越接近真实值。
|
| 11 |
+
|
| 12 |
+
➡️ 结论:你的损失值为 2.38,处于一个相对不错的区间,说明模型已经较好地学习了训练数据中的模式。
|
| 13 |
+
|
| 14 |
+
🔄 二、困惑度(Perplexity = 10.846)
|
| 15 |
+
困惑度是衡量语言模型“困惑程度”的指标,表示模型对下一个词的预测有多“确定”:
|
| 16 |
+
|
| 17 |
+
理论上,越接近 1 越好。
|
| 18 |
+
|
| 19 |
+
GPT-2 在维基百科上训练后的困惑度大约在 20 左右(baseline)。
|
| 20 |
+
|
| 21 |
+
调优后低于 15 就可以算效果很好了。
|
| 22 |
+
|
| 23 |
+
➡️ 结论:你当前的困惑度为 10.846,表示微调后模型在预测下一个 token 时的不确定性已大幅下降,是一个 非常积极的信号。
|
| 24 |
+
|
| 25 |
+
📦 三、训练数据体量(17GB)
|
| 26 |
+
17GB 的微调数据已经属于非常大的量级(具体 token 数目可能在 10 亿以上)。
|
| 27 |
+
|
| 28 |
+
对大语言模型而言,如果数据质量高、格式统一,训练轮数充分,那么这种体量足以对模型行为产生显著影响。
|
| 29 |
+
|
| 30 |
+
如果数据是领域特定(如法律、医疗、金融、技术文档等),那说明模型已成功适应目标任务/语料领域。
|
| 31 |
+
|
| 32 |
+
➡️ 结论:17GB 是一个足够大的微调语料量,能够对模型产生明显影响。此时更重要的是确认数据质量和目标任务一致性。
|
| 33 |
+
|
| 34 |
+
✅ 综合评估结论
|
| 35 |
+
指标 结果 评价
|
| 36 |
+
验证损失 2.3838 很好,说明模型收敛良好
|
| 37 |
+
困惑度 10.846 非常好,预测准确度高
|
| 38 |
+
数据量 17GB 很大,适合深度微调
|
| 39 |
+
微调效果总结 ✅ 优秀 微调训练已达到良好效果
|