Datasets:
Search is not available for this dataset
audio audioduration (s) 0.81 49.5 |
|---|
End of preview. Expand in Data Studio
UyZh-FolkSpeech Whisper 微调数据集
维吾尔语-汉语平行语音数据集,适用于 Whisper 模型微调。
数据集来源
本数据集源自 UyZh-FolkSpeech,经过以下处理:
- 音频格式转换: M4A → WAV (16kHz, 单声道)
- 文本清洗: 移除不可见控制字符 (U+200E, U+200F 等)
- 数据集划分: train/val/test (80%/10%/10%)
- 目录重组: 按划分分文件夹存储
数据统计
| 划分 | 记录数 | 音频数 | 时长 |
|---|---|---|---|
| train | 6,348 | 6,348 | 407.60 分钟 |
| validation | 793 | 793 | 48.89 分钟 |
| test | 795 | 795 | 51.80 分钟 |
| 总计 | 7,936 | 7,936 | 508.29 分钟 |
内容分布
- 短句 (sentence): 3,812 条
- 词汇短语 (word): 4,124 条
说话人分布
每个文本条目由 4 位说话人 (S01-S04, 两男两女) 分别录制,共产生 7,936 个音频片段。
数据格式
目录结构
whisper_finetune/
├── train/
│ ├── audio/ # 训练集音频 (6,348 个)
│ └── train.jsonl # 训练集标注
├── val/
│ ├── audio/ # 验证集音频 (793 个)
│ └── val.jsonl # 验证集标注
└── test/
├── audio/ # 测试集音频 (795 个)
└── test.jsonl # 测试集标注
JSONL 格式
每条记录包含以下字段:
{
"id": "UYZH-S-0627",
"speaker": "S03",
"duration": 4.728,
"text": "سىزنىڭ بۈگۈن كەچتە ياخشى ئارام ئېلىپ، ئوبدان ئۇخلىشىڭىزنى تىلەيمەن.",
"text_uy": "سىزنىڭ بۈگۈن كەچتە ياخشى ئارام ئېلىپ، ئوبدان ئۇخلىشىڭىزنى تىلەيمەن.",
"text_zh": "祝您今晚休息好,睡个好觉。",
"audio_path": "audio/S03_UYZH-S-0627.wav"
}
| 字段 | 类型 | 说明 |
|---|---|---|
| id | string | 唯一标识符 (UYZH-S-* 为短句, UYZH-W-* 为词汇) |
| speaker | string | 说话人标识 (S01-S04) |
| duration | float | 音频时长 (秒) |
| text | string | 维吾尔语转录文本 (用于 ASR 训练) |
| text_uy | string | 维吾尔语文本 |
| text_zh | string | 中文翻译 |
| audio_path | string | 音频文件相对路径 |
音频格式
- 格式: WAV (PCM)
- 采样率: 16,000 Hz
- 声道: 单声道
- 编码: 16-bit PCM
使用方法
加载数据集
from datasets import Dataset, DatasetDict
import json
from pathlib import Path
def load_dataset(data_dir: str) -> DatasetDict:
"""加载 Whisper 微调数据集"""
data_path = Path(data_dir)
def load_split(split: str) -> Dataset:
jsonl_file = data_path / split / f"{split}.jsonl"
records = []
with open(jsonl_file, "r", encoding="utf-8") as f:
for line in f:
record = json.loads(line)
record["audio_path"] = str(data_path / split / record["audio_path"])
records.append(record)
return Dataset.from_list(records)
return DatasetDict({
"train": load_split("train"),
"validation": load_split("val"),
"test": load_split("test"),
})
# 使用示例
ds = load_dataset("./whisper_finetune")
print(f"训练集: {len(ds['train'])} 条")
print(f"验证集: {len(ds['validation'])} 条")
print(f"测试集: {len(ds['test'])} 条")
Whisper 微调示例
from transformers import WhisperProcessor, WhisperForConditionalGeneration
# 加载处理器
processor = WhisperProcessor.from_pretrained("openai/whisper-small")
# 数据预处理函数
def prepare_batch(batch, processor):
# 加载音频
import librosa
audio_arrays = [librosa.load(p, sr=16000)[0] for p in batch["audio_path"]]
# 提取特征
input_features = processor(
audio_arrays,
sampling_rate=16000,
return_tensors="pt"
).input_features
# 编码标签
labels = processor.tokenizer(batch["text"], return_tensors="pt", padding=True)
return input_features, labels
数据处理说明
清洗操作
- 移除不可见字符: 移除了 U+200E (LRM)、U+200F (RLM) 等控制字符
- 音频标准化: 统一转换为 16kHz 单声道 WAV 格式
- 路径修正: 确保音频路径相对于数据集根目录正确
划分策略
- 随机打乱后按比例划分
- 训练集: 80%
- 验证集: 10%
- 测试集: 10%
- 固定随机种子: 42
许可证
本数据集遵循 CC-BY-4.0 许可证。
原始数据集 UyZh-FolkSpeech 同样采用 CC-BY-4.0 许可证。
引用
如果使用本数据集,请引用原始数据集:
@misc{uyzh-folkspeech,
author = {mustafakali},
title = {UyZh-FolkSpeech: Uyghur-Chinese Parallel Speech Dataset},
year = {2024},
publisher = {Hugging Face},
url = {https://huggingface.co/datasets/mustafakali/UyZh-FolkSpeech}
}
致谢
- 原始数据集: mustafakali
- 维吾尔语语音数据贡献者
- Downloads last month
- 4,540