ASLLRP 数据集结构说明
概述
这是ASLLRP数据集的处理后数据,包含2108个手语utterance(句子)的视频、帧、姿态估计和精确的时间标注。
数据文件结构
1. ASLLRP_utterances_mapping.txt
作用: 每个视频utterance对应的gloss序列(简化标注)
格式:
视频ID: GLOSS1 GLOSS2 GLOSS3 ...
示例:
10006709: THAT AMONG DIFFERENT KIND VARY BELONG MEAN FOR VOICE IX INCLUDE/INVOLVE OTHER VARY BELONG WITH FOCUS/NARROW "WHAT" NOT OF-COURSE
统计:
- 总共2108个utterance
- 每个utterance包含5-25个gloss不等
2. asllrp_sentence_signs_2025_06_28.csv
作用: 精确标注每个sign(手语词)的时间、手型等详细信息
重要列:
| 列名 | 说明 | 示例 |
|---|---|---|
| Video ID number | Sign的唯一ID | 384585 |
| Main entry gloss label | 主要的gloss标签 | THAT |
| Start frame of the sign video | Sign的开始帧号 | 2409 |
| End frame of the sign video | Sign的结束帧号 | 2413 |
| Start frame of the containing utterance | 整个句子的开始帧 | 2400 |
| End frame of the containing utterance | 整个句子的结束帧 | 2680 |
| Dominant start handshape | 主手的起始手型 | Y |
| Non-dominant start handshape | 副手的起始手型 | - |
| Utterance video filename | 对应的视频文件名 | 10006709.mp4 |
| Sign type | Sign的类型 | Lexical Signs |
| Master video filename | 原始视频文件名 | 3-Voice-Life.mov |
统计:
- 总共17,522个sign标注
- 覆盖2,130个不同的utterance视频
CSV文件的关键用途:
- 精确的时间对齐: 可以根据帧号从视频中提取特定sign的片段
- Sign级别的分析: 每个sign的详细语言学特征(手型、类型等)
- Utterance级别的上下文: 了解整个句子的范围
3. ASLLRP_utterances_results/
作用: 每个视频utterance的处理结果(裁剪视频、帧、姿态估计)
目录结构:
ASLLRP_utterances_results/
├── 10006709/
│ ├── crop_frame/ # 裁剪后的视频帧
│ │ ├── 00000001.jpg
│ │ ├── 00000002.jpg
│ │ └── ... (224帧)
│ ├── crop_original_video.mp4 # 裁剪后的视频
│ └── results_dwpose/ # DWPose姿态估计结果
│ └── npz/
│ ├── 00000001.npz
│ ├── 00000002.npz
│ └── ... (224个npz文件)
├── 10036884/
│ └── ...
└── ... (2124个文件夹)
统计:
- 总共2,124个视频文件夹
- 每个文件夹包含:
- 约224帧裁剪图片
- 1个裁剪视频(约0.2-0.5 MB)
- 224个DWPose姿态估计文件
数据之间的对应关系
ASLLRP_utterances_mapping.txt asllrp_sentence_signs_2025_06_28.csv
↓ ↓
10006709: THAT AMONG ... "10006709.mp4", THAT, 2409, 2413, ...
"10006709.mp4", AMONG, 2427, 2432, ...
↓ ↓
ASLLRP_utterances_results/10006709/
├── crop_frame/
├── crop_original_video.mp4
└── results_dwpose/
关系说明:
mapping.txt中的视频ID (如10006709) 对应csv文件中的Utterance video filename(如10006709.mp4)results目录中的文件夹名 (如10006709/)
如何使用这些数据
用例1: 提取特定utterance的所有signs及其时间
import csv
def get_signs_for_utterance(utterance_id):
"""提取一个utterance中所有signs的信息"""
csv_file = "asllrp_sentence_signs_2025_06_28.csv"
signs = []
with open(csv_file, 'r') as f:
reader = csv.DictReader(f)
for row in reader:
if row['Utterance video filename'] == f"{utterance_id}.mp4":
signs.append({
'gloss': row['Main entry gloss label'],
'start_frame': int(row['Start frame of the sign video']),
'end_frame': int(row['End frame of the sign video']),
'sign_type': row['Sign type']
})
return signs
# 示例
signs = get_signs_for_utterance("10006709")
print(f"共{len(signs)}个signs:")
for sign in signs:
duration = sign['end_frame'] - sign['start_frame']
print(f" {sign['gloss']}: 帧{sign['start_frame']}-{sign['end_frame']} (持续{duration}帧)")
用例2: 从视频中提取特定sign的片段
import cv2
def extract_sign_frames(utterance_id, gloss, start_frame, end_frame):
"""从裁剪视频中提取特定sign的帧"""
video_path = f"ASLLRP_utterances_results/{utterance_id}/crop_original_video.mp4"
cap = cv2.VideoCapture(video_path)
frames = []
cap.set(cv2.CAP_PROP_POS_FRAMES, start_frame)
for i in range(start_frame, end_frame + 1):
ret, frame = cap.read()
if ret:
frames.append(frame)
cap.release()
return frames
用例3: 加载DWPose姿态估计数据
import numpy as np
def load_dwpose_for_frame(utterance_id, frame_num):
"""加载特定帧的DWPose姿态估计"""
npz_path = f"ASLLRP_utterances_results/{utterance_id}/results_dwpose/npz/{frame_num:08d}.npz"
# 需要allow_pickle=True来读取包含对象的npz文件
data = np.load(npz_path, allow_pickle=True)
return data
CSV文件中的帧号说明
重要: CSV文件中的帧号是相对于原始master视频的帧号,而不是裁剪后视频的帧号。
- 原始视频:
Master video filename(如3-Voice-Life.mov) - Utterance范围: 帧2400-2680(相对于原始视频)
- Sign范围: 帧2409-2413(相对于原始视频)
如果要使用裁剪后的视频:
# 计算相对于裁剪视频的帧号
utterance_start = 2400 # 从CSV获取
sign_start = 2409 # 从CSV获取
# 裁剪视频中的帧号 = sign帧号 - utterance开始帧号
cropped_frame_num = sign_start - utterance_start # = 9
数据总结
| 项目 | 数量 |
|---|---|
| Utterance视频 | 2,108-2,130个 |
| Sign标注 | 17,522个 |
| 总帧数 | ~470,000帧 (2124 × 224) |
| 总视频大小 | ~500 MB |
| DWPose文件 | ~470,000个npz文件 |
训练建议
基于这些数据,你可以进行:
- Sign级别识别: 使用CSV中的精确时间标注训练单个sign的识别模型
- Utterance级别翻译: 使用整个utterance的视频和gloss序列训练翻译模型
- 姿态驱动的手语生成: 使用DWPose数据训练姿态估计或生成模型
- 时间对齐研究: 研究sign的时间边界和持续时间模式
常见问题
Q: 为什么mapping.txt有2108个条目,而CSV显示2130个视频? A: 可能有些utterance没有被包含在mapping.txt中,或者CSV包含了一些额外的变体。
Q: DWPose npz文件包含什么数据?
A: 包含姿态关键点、骨架信息等,需要使用allow_pickle=True读取。
Q: 如何知道每个视频的帧率? A: 需要从原始视频metadata中获取,或者假设标准帧率(通常是25或30 FPS)。
生成日期: 2025-12-27 作者: Claude Code