#!/usr/bin/env python3 """ Sign Language Recognition Inference Script (快速推理版本) 从MP4视频输入,使用 SMKD 模型直接输出 gloss 序列 注意: 这是简化版本,直接使用 SMKD 的预测输出(不经过 SLTUNET) 如需完整的两阶段 pipeline (SMKD→SLTUNET),请使用 inference.sh 使用方法: # 1. 激活环境 conda activate signx-slt # 2. 运行推理 python inference.py --video path/to/video.mp4 python inference.py --video path/to/video.mp4 --show-probs """ import os import sys import argparse from pathlib import Path import numpy as np # 检查conda环境 def check_environment(): """检查是否在正确的conda环境中""" conda_env = os.environ.get('CONDA_DEFAULT_ENV', 'unknown') if conda_env not in ['signx-slt', 'base']: # base 用于开发测试 print("=" * 70) print("警告: 未在 signx-slt 环境中") print("=" * 70) print(f"\n当前环境: {conda_env}") print("\n推荐激活 signx-slt 环境:") print(" conda activate signx-slt") print("\n继续使用当前环境可能导致错误...") print("=" * 70) response = input("\n是否继续?(y/N): ") if response.lower() != 'y': sys.exit(0) check_environment() # 现在可以安全导入PyTorch import torch # 添加smkd目录到Python路径 SCRIPT_DIR = Path(__file__).parent SMKD_DIR = SCRIPT_DIR / "smkd" sys.path.insert(0, str(SMKD_DIR)) # 复用现有的 SignEmbedding 类来提取特征 from sign_embedder import SignEmbedding class QuickInference: """ 快速推理类 - 直接使用 SMKD 模型输出 gloss 这是简化版本,适合快速测试。完整的两阶段 pipeline 请使用 inference.sh """ def __init__(self, config_path, gloss_dict_path, model_path, device='0'): """ 初始化推理器 Args: config_path: SMKD 配置文件路径 gloss_dict_path: gloss字典路径 model_path: 训练好的 SMKD 模型路径 device: GPU ID """ print("\n" + "=" * 70) print("快速手语识别推理工具 (SMKD 直接预测)") print("=" * 70) print("\n注意: 这是简化版本,直接使用 SMKD 预测") print(" 完整的 SMKD→SLTUNET pipeline 请使用 inference.sh\n") self.config_path = str(config_path) self.gloss_dict_path = str(gloss_dict_path) self.model_path = str(model_path) self.device = str(device) # 加载gloss字典 print(f"[1/2] 加载配置") print(f" 配置文件: {config_path}") print(f" 模型路径: {model_path}") self.gloss_dict = np.load(gloss_dict_path, allow_pickle=True).item() # 创建反向字典 (id -> gloss) self.id_to_gloss = {} for gloss, (idx, _) in self.gloss_dict.items(): self.id_to_gloss[idx] = gloss print(f" 词汇表大小: {len(self.gloss_dict)}") def infer(self, video_path, return_probs=False): """ 对视频进行推理 Args: video_path: 视频文件路径 return_probs: 是否返回置信度 Returns: glosses: 识别出的gloss序列 probs: 置信度(如果return_probs=True) """ print(f"\n[2/2] 开始推理") print(f" 视频路径: {video_path}") if not os.path.exists(video_path): raise FileNotFoundError(f"视频文件不存在: {video_path}") # 创建临时目录存放视频信息 import tempfile temp_dir = tempfile.mkdtemp() try: # 准备临时视频列表文件(InferFeeder需要文本文件) video_filename = os.path.basename(video_path) video_id = os.path.splitext(video_filename)[0] # 创建视频路径列表文件 video_list_file = os.path.join(temp_dir, 'video_list.txt') with open(video_list_file, 'w') as f: f.write(os.path.abspath(video_path) + '\n') print(f"\n 初始化 SignEmbedding...") # 使用 SignEmbedding 提取特征并预测 # 注意: SignEmbedding 本身就会调用 SMKD 模型的 forward embedder = SignEmbedding( cfg=self.config_path, gloss_path=self.gloss_dict_path, sign_video_path=video_list_file, # 传入视频列表文件路径 model_path=self.model_path, gpu_id=self.device, batch_size=1 ) print(f" 模型已加载") print(f"\n 推理中...") # 获取模型的原始输出 model = embedder.model model.eval() glosses_all = [] probs_all = [] with torch.no_grad(): for batch_idx, data in enumerate(embedder.data_loader["infer"]): vid = embedder.device.data_to_device(data[0]) vid_lgt = embedder.device.data_to_device(data[1]) # 获取模型输出 ret_dict = model(vid, vid_lgt) # 获取 logits (用于 gloss 预测) if 'sequence_logits' in ret_dict: logits = ret_dict['sequence_logits'] # [T, B, num_classes] elif 'conv_logits' in ret_dict: logits = ret_dict['conv_logits'] else: raise KeyError("模型输出中没有找到 logits") # [T, B, num_classes] -> [T, num_classes] logits = logits.squeeze(1) # 解码 glosses, probs = self._decode_output(logits, return_probs=True) glosses_all.extend(glosses) probs_all.extend(probs) print(f" ✓ 推理完成") print(f" 识别出 {len(glosses_all)} 个 gloss") if return_probs: return glosses_all, probs_all return glosses_all finally: # 清理临时文件 import shutil shutil.rmtree(temp_dir, ignore_errors=True) def _decode_output(self, logits, return_probs=False): """ 解码模型输出为gloss序列 Args: logits: 模型输出 [T, num_classes] return_probs: 是否返回置信度 Returns: glosses: gloss序列 probs: 置信度 """ # 使用贪婪解码(argmax) pred_ids = torch.argmax(logits, dim=-1) # [T] # 去除连续重复和空白标签(id=0) glosses = [] probs = [] prev_id = None for i, pred_id in enumerate(pred_ids): pred_id = pred_id.item() # 跳过空白标签和重复标签 if pred_id == 0 or pred_id == prev_id: prev_id = pred_id continue # 获取gloss if pred_id in self.id_to_gloss: gloss = self.id_to_gloss[pred_id] glosses.append(gloss) if return_probs: prob = torch.softmax(logits[i], dim=-1)[pred_id].item() probs.append(prob) prev_id = pred_id if return_probs: return glosses, probs return glosses def main(): parser = argparse.ArgumentParser( description='Sign Language Recognition - 快速推理工具 (SMKD 直接预测)', formatter_class=argparse.RawDescriptionHelpFormatter, epilog=''' 示例: # 基本推理 python inference.py --video test.mp4 # 显示置信度 python inference.py --video test.mp4 --show-probs # 保存结果 python inference.py --video test.mp4 --output results.txt # 使用其他模型 python inference.py --video test.mp4 --model smkd/work_dir/asllrp_smkd/best_model.pt 注意: 这是快速推理版本,直接使用 SMKD 输出(单阶段) 完整的两阶段 pipeline (SMKD→SLTUNET) 请使用: ./inference.sh test.mp4 ''' ) parser.add_argument( '--video', '-v', type=str, required=True, help='输入视频路径 (MP4格式)' ) parser.add_argument( '--config', '-c', type=str, default='smkd/asllrp_baseline.yaml', help='SMKD 配置文件路径' ) parser.add_argument( '--model', '-m', type=str, default='smkd/work_dir第一次训练的基线/asllrp_smkd/best_model.pt', help='SMKD 模型路径' ) parser.add_argument( '--gloss-dict', '-g', type=str, default='smkd/asllrp/gloss_dict.npy', help='Gloss字典路径' ) parser.add_argument( '--device', '-d', type=str, default='0', help='GPU设备ID (默认: 0)' ) parser.add_argument( '--show-probs', action='store_true', help='显示每个gloss的置信度' ) parser.add_argument( '--output', '-o', type=str, default=None, help='保存结果到文件' ) args = parser.parse_args() # 转换为绝对路径 script_dir = Path(__file__).parent config_path = script_dir / args.config model_path = script_dir / args.model gloss_dict_path = script_dir / args.gloss_dict if not model_path.exists(): print(f"错误: 模型文件不存在: {model_path}") sys.exit(1) if not gloss_dict_path.exists(): print(f"错误: Gloss字典不存在: {gloss_dict_path}") sys.exit(1) if not config_path.exists(): print(f"错误: 配置文件不存在: {config_path}") sys.exit(1) # 初始化推理器 inferencer = QuickInference( config_path=config_path, gloss_dict_path=gloss_dict_path, model_path=model_path, device=args.device ) # 推理 if args.show_probs: glosses, probs = inferencer.infer(args.video, return_probs=True) else: glosses = inferencer.infer(args.video, return_probs=False) probs = None # 打印结果 print("\n" + "=" * 70) print("识别结果") print("=" * 70 + "\n") print(f"识别出 {len(glosses)} 个gloss:\n") if args.show_probs and probs: for i, (gloss, prob) in enumerate(zip(glosses, probs), 1): print(f" {i:3d}. {gloss:30s} (置信度: {prob:.4f})") else: for i, gloss in enumerate(glosses, 1): print(f" {i:3d}. {gloss}") print("\nGloss序列:") print(" " + " ".join(glosses)) # 保存到文件 if args.output: output_path = Path(args.output) with open(output_path, 'w', encoding='utf-8') as f: if args.show_probs and probs: for gloss, prob in zip(glosses, probs): f.write(f"{gloss}\t{prob:.4f}\n") else: for gloss in glosses: f.write(f"{gloss}\n") print(f"\n结果已保存到: {output_path}") print("\n" + "=" * 70) print("\n提示: 这是快速推理版本(SMKD 直接预测)") print(" 完整的两阶段 pipeline 请使用: ./inference.sh") print("") if __name__ == '__main__': main()