ASLLRP_utterances_results / SignX /doc /ASLLRP_DATA_STRUCTURE.md
FangSen9000
Add frame-annotated gloss files and documentation
875e074

ASLLRP 数据集结构说明

概述

这是ASLLRP数据集的处理后数据,包含2108个手语utterance(句子)的视频、帧、姿态估计和精确的时间标注。

数据文件结构

1. ASLLRP_utterances_mapping.txt

作用: 每个视频utterance对应的gloss序列(简化标注)

格式:

视频ID: GLOSS1 GLOSS2 GLOSS3 ...

示例:

10006709: THAT AMONG DIFFERENT KIND VARY BELONG MEAN FOR VOICE IX INCLUDE/INVOLVE OTHER VARY BELONG WITH FOCUS/NARROW "WHAT" NOT OF-COURSE

统计:

  • 总共2108个utterance
  • 每个utterance包含5-25个gloss不等

2. asllrp_sentence_signs_2025_06_28.csv

作用: 精确标注每个sign(手语词)的时间、手型等详细信息

重要列:

列名 说明 示例
Video ID number Sign的唯一ID 384585
Main entry gloss label 主要的gloss标签 THAT
Start frame of the sign video Sign的开始帧号 2409
End frame of the sign video Sign的结束帧号 2413
Start frame of the containing utterance 整个句子的开始帧 2400
End frame of the containing utterance 整个句子的结束帧 2680
Dominant start handshape 主手的起始手型 Y
Non-dominant start handshape 副手的起始手型 -
Utterance video filename 对应的视频文件名 10006709.mp4
Sign type Sign的类型 Lexical Signs
Master video filename 原始视频文件名 3-Voice-Life.mov

统计:

  • 总共17,522个sign标注
  • 覆盖2,130个不同的utterance视频

CSV文件的关键用途:

  1. 精确的时间对齐: 可以根据帧号从视频中提取特定sign的片段
  2. Sign级别的分析: 每个sign的详细语言学特征(手型、类型等)
  3. Utterance级别的上下文: 了解整个句子的范围

3. ASLLRP_utterances_results/

作用: 每个视频utterance的处理结果(裁剪视频、帧、姿态估计)

目录结构:

ASLLRP_utterances_results/
├── 10006709/
│   ├── crop_frame/              # 裁剪后的视频帧
│   │   ├── 00000001.jpg
│   │   ├── 00000002.jpg
│   │   └── ... (224帧)
│   ├── crop_original_video.mp4   # 裁剪后的视频
│   └── results_dwpose/           # DWPose姿态估计结果
│       └── npz/
│           ├── 00000001.npz
│           ├── 00000002.npz
│           └── ... (224个npz文件)
├── 10036884/
│   └── ...
└── ... (2124个文件夹)

统计:

  • 总共2,124个视频文件夹
  • 每个文件夹包含:
    • 约224帧裁剪图片
    • 1个裁剪视频(约0.2-0.5 MB)
    • 224个DWPose姿态估计文件

数据之间的对应关系

ASLLRP_utterances_mapping.txt          asllrp_sentence_signs_2025_06_28.csv
        ↓                                           ↓
    10006709: THAT AMONG ...          "10006709.mp4", THAT, 2409, 2413, ...
                                       "10006709.mp4", AMONG, 2427, 2432, ...
        ↓                                           ↓
                    ASLLRP_utterances_results/10006709/
                            ├── crop_frame/
                            ├── crop_original_video.mp4
                            └── results_dwpose/

关系说明:

  1. mapping.txt 中的视频ID (如 10006709) 对应
  2. csv文件 中的 Utterance video filename (如 10006709.mp4)
  3. results目录 中的文件夹名 (如 10006709/)

如何使用这些数据

用例1: 提取特定utterance的所有signs及其时间

import csv

def get_signs_for_utterance(utterance_id):
    """提取一个utterance中所有signs的信息"""
    csv_file = "asllrp_sentence_signs_2025_06_28.csv"

    signs = []
    with open(csv_file, 'r') as f:
        reader = csv.DictReader(f)
        for row in reader:
            if row['Utterance video filename'] == f"{utterance_id}.mp4":
                signs.append({
                    'gloss': row['Main entry gloss label'],
                    'start_frame': int(row['Start frame of the sign video']),
                    'end_frame': int(row['End frame of the sign video']),
                    'sign_type': row['Sign type']
                })

    return signs

# 示例
signs = get_signs_for_utterance("10006709")
print(f"共{len(signs)}个signs:")
for sign in signs:
    duration = sign['end_frame'] - sign['start_frame']
    print(f"  {sign['gloss']}: 帧{sign['start_frame']}-{sign['end_frame']} (持续{duration}帧)")

用例2: 从视频中提取特定sign的片段

import cv2

def extract_sign_frames(utterance_id, gloss, start_frame, end_frame):
    """从裁剪视频中提取特定sign的帧"""
    video_path = f"ASLLRP_utterances_results/{utterance_id}/crop_original_video.mp4"

    cap = cv2.VideoCapture(video_path)
    frames = []

    cap.set(cv2.CAP_PROP_POS_FRAMES, start_frame)
    for i in range(start_frame, end_frame + 1):
        ret, frame = cap.read()
        if ret:
            frames.append(frame)

    cap.release()
    return frames

用例3: 加载DWPose姿态估计数据

import numpy as np

def load_dwpose_for_frame(utterance_id, frame_num):
    """加载特定帧的DWPose姿态估计"""
    npz_path = f"ASLLRP_utterances_results/{utterance_id}/results_dwpose/npz/{frame_num:08d}.npz"

    # 需要allow_pickle=True来读取包含对象的npz文件
    data = np.load(npz_path, allow_pickle=True)

    return data

CSV文件中的帧号说明

重要: CSV文件中的帧号是相对于原始master视频的帧号,而不是裁剪后视频的帧号。

  • 原始视频: Master video filename (如 3-Voice-Life.mov)
  • Utterance范围: 帧2400-2680(相对于原始视频)
  • Sign范围: 帧2409-2413(相对于原始视频)

如果要使用裁剪后的视频:

# 计算相对于裁剪视频的帧号
utterance_start = 2400  # 从CSV获取
sign_start = 2409       # 从CSV获取

# 裁剪视频中的帧号 = sign帧号 - utterance开始帧号
cropped_frame_num = sign_start - utterance_start  # = 9

数据总结

项目 数量
Utterance视频 2,108-2,130个
Sign标注 17,522个
总帧数 ~470,000帧 (2124 × 224)
总视频大小 ~500 MB
DWPose文件 ~470,000个npz文件

训练建议

基于这些数据,你可以进行:

  1. Sign级别识别: 使用CSV中的精确时间标注训练单个sign的识别模型
  2. Utterance级别翻译: 使用整个utterance的视频和gloss序列训练翻译模型
  3. 姿态驱动的手语生成: 使用DWPose数据训练姿态估计或生成模型
  4. 时间对齐研究: 研究sign的时间边界和持续时间模式

常见问题

Q: 为什么mapping.txt有2108个条目,而CSV显示2130个视频? A: 可能有些utterance没有被包含在mapping.txt中,或者CSV包含了一些额外的变体。

Q: DWPose npz文件包含什么数据? A: 包含姿态关键点、骨架信息等,需要使用allow_pickle=True读取。

Q: 如何知道每个视频的帧率? A: 需要从原始视频metadata中获取,或者假设标准帧率(通常是25或30 FPS)。


生成日期: 2025-12-27 作者: Claude Code