File size: 8,102 Bytes
b52d5ec |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 |
import datasets
import os
import glob
import pandas as pd
from pydub import AudioSegment # AudioSegment for reading TextGrid and wav files
import textgrid # You might need to install this: pip install praat-textgrids
_DESCRIPTION = """
A custom dataset combining L2-ARCTIC and SpeechOcean for L2 English speech analysis.
It includes non-native English speech from various L1s, transcripts, and phoneme alignments (from TextGrid).
"""
_HOMEPAGE = "https://example.com/your_dataset_homepage" # データセットのホームページURL(任意)
_LICENSE = "Creative Commons Attribution 4.0 International Public License (CC-BY-4.0)" # 適切なライセンスを記述
_L2_ARCTIC_SPEAKERS = ["ABA", "HJK", "MBMPS", "TXHC", "YBAA"] # L2-ARCTICのスピーカーIDリスト(一部のみ)
_L2_ARCTIC_L1_MAP = { # L2-ARCTICのL1情報(例、実際は公式ドキュメントで確認)
"ABA": "Hindi", "HJK": "Korean", "MBMPS": "Mandarin", "TXHC": "Spanish", "YBAA": "Arabic"
}
class MyL2SpeechDataset(datasets.GeneratorBasedBuilder):
VERSION = datasets.Version("1.0.0")
def _info(self):
# ここでデータセットの構造とフィーチャーを定義します
features = datasets.Features({
"audio": datasets.Audio(sampling_rate=16_000), # 音声データとサンプリングレート
"text": datasets.Value("string"), # 読み上げられたテキスト
"speaker_id": datasets.Value("string"), # 話者ID
"l1": datasets.Value("string"), # 話者の第一言語 (L1)
"dataset_source": datasets.Value("string"), # データソース (l2_arctic or speechocean)
"phoneme_alignment": datasets.Sequence( # 音素アライメント情報 (TextGridからパース)
{
"phoneme": datasets.Value("string"),
"start_time": datasets.Value("float"),
"end_time": datasets.Value("float"),
}
),
"pronunciation_score": datasets.Value("float"), # SpeechOceanのスコアなど
})
return datasets.DatasetInfo(
description=_DESCRIPTION,
features=features,
homepage=_HOMEPAGE,
license=_LICENSE,
)
def _split_generators(self, dl_manager):
# ここでデータセットのファイルをダウンロードしたり、ローカルパスを指定したりします
# この例では、ローカルにデータセットが配置されていることを前提とします。
# dl_manager.download() を使ってURLからダウンロードすることも可能です。
# ローカルパス(datasetsディレクトリの絶対パスを指定するか、スクリプトからの相対パスにする)
# 例: data_dir = "/path/to/your/datasets"
#data_dir = os.path.abspath("datasets") # 現在のスクリプトからの相対パスで datasets フォルダを探す
# L2-ARCTICのパス
l2_arctic_path = os.path.join("l2_arctic")
# SpeechOceanのパス
speechocean_path = os.path.join( "speechocean")
return [
datasets.SplitGenerator(
name=datasets.Split.TRAIN, # train, validation, testなど、スプリットを定義
gen_kwargs={
"l2_arctic_path": l2_arctic_path,
"speechocean_path": speechocean_path,
}
)
]
def _generate_examples(self, l2_arctic_path, speechocean_path):
# ここで実際のデータを読み込み、Yield (生成) します
# 各データポイントは、_info() で定義した features に対応するようにします
# --- L2-ARCTIC データの処理 ---
for speaker_id in _L2_ARCTIC_SPEAKERS:
speaker_dir = os.path.join(l2_arctic_path, speaker_id)
wav_dir = os.path.join(speaker_dir, "wav")
transcript_dir = os.path.join(speaker_dir, "transcript")
textgrid_dir = os.path.join(speaker_dir, "textgrid") # L2-ARCTICには'textgrid'フォルダもある
# 音声ファイルとテキストファイルのマッチング
wav_files = glob.glob(os.path.join(wav_dir, "*.wav"))
for wav_file in wav_files:
file_id = os.path.basename(wav_file).replace(".wav", "")
transcript_file = os.path.join(transcript_dir, f"{file_id}.txt")
textgrid_file = os.path.join(textgrid_dir, f"{file_id}.TextGrid")
if not os.path.exists(transcript_file):
print(f"Warning: Transcript file not found for {file_id}")
continue
if not os.path.exists(textgrid_file):
print(f"Warning: TextGrid file not found for {file_id}")
continue
with open(transcript_file, "r", encoding="utf-8") as f:
text = f.read().strip()
phoneme_alignment_data = []
try:
tg = textgrid.TextGrid.fromFile(textgrid_file)
# TextGridの構造に応じて、音素情報をパースします
# L2-ARCTICのTextGridがどのように音素情報を格納しているか確認が必要です
# 例えば 'phones' という名前のTierがある場合
for tier_name in tg.tierNames():
if tier_name == 'phones': # 音素のTierを特定
phone_tier = tg.getFirst(tier_name)
for interval in phone_tier:
phoneme_alignment_data.append({
"phoneme": interval.mark,
"start_time": interval.minTime,
"end_time": interval.maxTime,
})
break # 音素Tierを見つけたらループを抜ける
except Exception as e:
print(f"Error parsing TextGrid {textgrid_file}: {e}")
phoneme_alignment_data = [] # エラー時は空リストに
yield file_id, { # file_idをkeyとしてyield
"audio": wav_file, # `Audio` Featureはパスを受け取る
"text": text,
"speaker_id": speaker_id,
"l1": _L2_ARCTIC_L1_MAP.get(speaker_id, "unknown"),
"dataset_source": "l2_arctic",
"phoneme_alignment": phoneme_alignment_data,
"pronunciation_score": -1.0, # L2-ARCTICには直接のスコアはないので-1
}
# --- SpeechOcean データの処理 ---
speechocean_wav_dir = os.path.join(speechocean_path, "wavs")
scores_df = pd.read_csv(os.path.join(speechocean_path, "train_scores.csv"))
for index, row in scores_df.iterrows():
file_id = row['file_name'].replace(".wav", "")
wav_file = os.path.join(speechocean_wav_dir, row['file_name'])
# SpeechOceanのTextGridや詳細なアライメント情報が別途存在するか確認
# なければ、空のphoneme_alignmentとするか、MFAなどで後処理する
yield f"so_{file_id}", { # 重複を避けるためプレフィックスを付ける
"audio": wav_file,
"text": row['text'], # SpeechOceanのCSVにtextカラムがあることを想定
"speaker_id": str(row['speaker_id']), # スピーカーIDを文字列に
"l1": "Mandarin", # SpeechOcean762は主にMandarin話者
"dataset_source": "speechocean",
"phoneme_alignment": [], # SpeechOceanにデフォルトでTextGridがなければ空
"pronunciation_score": row['score'], # スコアをそのまま使う
}
|