ASLLRP_utterances_results / SignX /doc /INFERENCE_GUIDE.md
FangSen9000
Attempted to submit 4 changes, although the reasoning degraded, the reasoning could still run.
1eb306c

手语识别推理工具使用指南

📌 快速选择

选项 1: 快速推理(推荐用于测试)

conda activate signx-slt
python inference.py --video test.mp4
  • ⚡ 速度快
  • 🎯 使用 SMKD 直接预测 gloss
  • ✅ 适合快速测试和原型开发

选项 2: 完整 Pipeline(推荐用于生产)

./inference.sh test.mp4
  • 🔄 完整两阶段: SMKD → SLTUNET
  • 🎯 更准确的翻译结果
  • ✅ 自动处理环境切换
  • ⚠️ 需要更多时间

🎯 工具详解

1. inference.py - 快速推理工具

功能: 使用 SMKD 模型直接从视频预测 gloss 序列

架构:

视频 (MP4) → [SMKD 模型] → Gloss 序列

环境要求:

  • signx-slt (PyTorch)

使用方法:

# 激活环境
conda activate signx-slt

# 基本使用
python inference.py --video test.mp4

# 显示置信度
python inference.py --video test.mp4 --show-probs

# 保存结果
python inference.py --video test.mp4 --output results.txt

# 使用特定模型
python inference.py --video test.mp4 \
    --model smkd/work_dir/asllrp_smkd/best_model.pt

参数说明:

  • --video, -v: 输入视频路径(必需)
  • --config, -c: SMKD 配置文件(默认: smkd/asllrp_baseline.yaml)
  • --model, -m: 模型路径(默认: work_dir第一次训练的基线/best_model.pt)
  • --gloss-dict, -g: Gloss 字典(默认: smkd/asllrp/gloss_dict.npy)
  • --device, -d: GPU ID(默认: 0)
  • --show-probs: 显示置信度
  • --output, -o: 保存结果到文件

输出示例: ```

识别结果

识别出 8 个gloss:

1. HELLO
2. MY
3. NAME
4. IS
5. JOHN
6. NICE
7. TO
8. MEET-YOU

Gloss序列: HELLO MY NAME IS JOHN NICE TO MEET-YOU

======================================================================


---

### 2. `inference.sh` - 完整 Pipeline

**功能**: 使用完整的两阶段架构进行翻译

**架构**:

视频 (MP4) ↓ [Stage 1: SMKD - 冻结] 环境: signx-slt (PyTorch) 功能: 提取视觉特征 ↓ 特征向量 (h5) ↓ [Stage 2: SLTUNET] 环境: slt_tf1 (TensorFlow) 功能: 翻译为 gloss ↓ Gloss 序列 (带 BPE)


**环境要求**:
- 自动在 `signx-slt` 和 `slt_tf1` 之间切换

**使用方法**:
```bash
# 基本使用(自动处理环境切换)
./inference.sh test.mp4

# 指定输出文件
./inference.sh test.mp4 output.txt

工作流程:

  1. 🔵 检查输入视频
  2. 🔵 切换到 signx-slt 环境
  3. 🔵 使用 SMKD 提取视频特征 → h5 文件
  4. 🔵 切换到 slt_tf1 环境
  5. 🔵 使用 SLTUNET 从特征翻译 → gloss
  6. 🔵 保存结果

输出示例: ```

Sign Language Recognition - 完整推理 Pipeline

架构: 视频 → [SMKD] → 特征 → [SLTUNET] → Gloss

======================================================================

[1/2] 使用 SMKD 提取视频特征... 环境: signx-slt (PyTorch) ✓ 特征提取完成

[2/2] 使用 SLTUNET 生成 Gloss 序列... 环境: slt_tf1 (TensorFlow) ✓ 翻译完成

====================================================================== 推理完成!

输出文件: output.txt

识别结果预览:

WH@@ E@@ N PER@@ SO@@ N NOT USE WOR@@ LD LOOK IX-1p SI@@ ST@@ E@@ R LIKE ns-BO@@ ST@@ O@@ N

✓ 完整 Pipeline 执行成功


---

## 🔍 两者的区别

### SMKD 直接预测 vs SLTUNET 翻译

#### `inference.py` (SMKD 直接预测)
- **方法**: 使用 SMKD 模型的 CTC 输出直接解码
- **原理**: SMKD 训练时学习了 视频→gloss 的映射
- **优点**:
  - 速度快(单次前向传播)
  - 环境简单(只需 PyTorch)
  - 适合快速迭代
- **缺点**:
  - 准确度可能略低
  - 没有经过 SLTUNET 的精细处理

#### `inference.sh` (完整 Pipeline)
- **方法**: SMKD 提取特征 → SLTUNET Transformer 翻译
- **原理**:
  - SMKD 优化了视觉特征提取
  - SLTUNET 专门用这些特征训练翻译模型
- **优点**:
  - 准确度更高(训练流程一致)
  - 结果经过 BPE 处理
  - 与论文方法一致
- **缺点**:
  - 速度较慢(两个模型)
  - 需要环境切换

---

## 📚 技术细节

### 为什么需要环境切换?

SignX 使用两阶段架构,每个阶段使用不同框架:

| 阶段 | 框架 | 环境 | 原因 |
|------|------|------|------|
| SMKD | PyTorch | signx-slt | 现代视觉模型生态 |
| SLTUNET | TensorFlow 1.15 | slt_tf1 | 论文原始实现 |

**问题**: `slt_tf1` 环境**不包含 PyTorch**
**解决**: `inference.sh` 自动切换环境

### SMKD 的双重角色

SMKD 模型在训练流程中有两种用途:

1. **训练模式** (`phase='train'`):
   - 任务: 学习 视频→gloss 映射
   - 目的: 优化特征提取器
   - 评估: WER (Word Error Rate)

2. **特征提取模式** (`phase='features'`):
   - 任务: 提取中间层特征到 h5
   - 目的: 为 SLTUNET 准备输入
   - 输出: train.h5, dev.h5, test.h5

**推理时**:
- `inference.py`: 使用 SMKD 的**训练模式能力**直接预测
- `inference.sh`: 使用 SMKD 的**特征提取能力** + SLTUNET

---

## 🎓 使用建议

### 什么时候用 `inference.py`?
- ✅ 快速测试模型效果
- ✅ 原型开发和调试
- ✅ 不需要最高准确度
- ✅ 只关心 SMKD 的性能
- ✅ 想要快速结果

### 什么时候用 `inference.sh`?
- ✅ 需要最准确的翻译结果
- ✅ 生产环境部署
- ✅ 与训练流程保持一致
- ✅ 需要 BPE 处理的输出
- ✅ 论文结果复现

---

## 🛠️ 故障排除

### 问题 1: `inference.py` 报错找不到模块

ModuleNotFoundError: No module named 'torch'


**解决**: 确保激活了 signx-slt 环境
```bash
conda activate signx-slt

问题 2: inference.sh 环境切换失败

错误: 无法激活 slt_tf1 环境

解决: 检查环境是否存在

conda env list

问题 3: 视频格式不支持

错误: 无法打开视频文件

解决: 转换为 MP4 格式

ffmpeg -i input.avi output.mp4

问题 4: 内存不足

CUDA out of memory

解决:

  • 使用 CPU: --device cpu
  • 或者使用更小的视频

📊 性能对比

在 NVIDIA RTX 3090 上测试(120帧视频):

工具 速度 WER 环境切换
inference.py ~4秒 ~50%
inference.sh ~15秒 ~45%

🔗 相关文档

  • 训练文档: training_asllrp/docs/QUICKSTART.md
  • SMKD 详解: smkd/README.md
  • 完整 README: README.md

💡 小贴士

  1. 批量处理: 可以写脚本批量调用 inference.pyinference.sh
  2. 模型选择: 不同训练阶段的模型在 smkd/work_dir*/
  3. 结果分析: 使用 --show-probs 查看模型置信度
  4. 环境检查: 运行前确保环境正确激活

📝 总结

  • 快速测试inference.py
  • 最佳结果inference.sh
  • 两者结合 → 先用 py 快速验证,再用 sh 获得最终结果