lxcxjxhx commited on
Commit
da917fd
·
verified ·
1 Parent(s): 0c8ecc1

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +39 -0
README.md ADDED
@@ -0,0 +1,39 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ AI训练部分 钱佳宏
2
+
3
+ 以下为AI评估
4
+
5
+ 🔍 一、验证损失(Loss = 2.3838)
6
+ 验证损失是衡量模型在验证集上预测误差的一个指标。通常:
7
+
8
+ 对于语言模型,损失值在 2-3 之间是一个不错的结果,尤其是对于 GPT 或类似模型。
9
+
10
+ 损失值越低,说明模型在验证集上的预测越接近真实值。
11
+
12
+ ➡️ 结论:你的损失值为 2.38,处于一个相对不错的区间,说明模型已经较好地学习了训练数据中的模式。
13
+
14
+ 🔄 二、困惑度(Perplexity = 10.846)
15
+ 困惑度是衡量语言模型“困惑程度”的指标,表示模型对下一个词的预测有多“确定”:
16
+
17
+ 理论上,越接近 1 越好。
18
+
19
+ GPT-2 在维基百科上训练后的困惑度大约在 20 左右(baseline)。
20
+
21
+ 调优后低于 15 就可以算效果很好了。
22
+
23
+ ➡️ 结论:你当前的困惑度为 10.846,表示微调后模型在预测下一个 token 时的不确定性已大幅下降,是一个 非常积极的信号。
24
+
25
+ 📦 三、训练数据体量(17GB)
26
+ 17GB 的微调数据已经属于非常大的量级(具体 token 数目可能在 10 亿以上)。
27
+
28
+ 对大语言模型而言,如果数据质量高、格式统一,训练轮数充分,那么这种体量足以对模型行为产生显著影响。
29
+
30
+ 如果数据是领域特定(如法律、医疗、金融、技术文档等),那说明模型已成功适应目标任务/语料领域。
31
+
32
+ ➡️ 结论:17GB 是一个足够大的微调语料量,能够对模型产生明显影响。此时更重要的是确认数据质量和目标任务一致性。
33
+
34
+ ✅ 综合评估结论
35
+ 指标 结果 评价
36
+ 验证损失 2.3838 很好,说明模型收敛良好
37
+ 困惑度 10.846 非常好,预测准确度高
38
+ 数据量 17GB 很大,适合深度微调
39
+ 微调效果总结 ✅ 优秀 微调训练已达到良好效果