ayousanz's picture
Upload folder using huggingface_hub
f2e4df0 verified
|
raw
history blame
3.69 kB
---
language:
- ja
license: cc-by-sa-4.0
multilinguality:
- monolingual
size_categories:
- 10K<100K
source_datasets:
- original
task_categories:
- text-to-speech
task_ids: []
---
# SSS-data-trainscript
日本語音声合成用の音声データセットです。
## データセットの説明
- **説明:** 日本語音声合成用の音声データセット
- **ライセンス:** CC BY-SA 4.0
- **言語:** 日本語
### データセットの構造
データセットは以下の構造で構成されています:
- `data/`: 音声ファイル(.wav)が格納されています
- `metadata.jsonl`: 各音声ファイルに対応するテキストデータが格納されています
### データ形式
metadata.jsonlの各行は以下の形式のJSONオブジェクトです:
```json
{
"file_name": "data/example.wav",
"text": "対応するテキスト"
}
```
## データセット作成スクリプト
データセットの作成には以下のスクリプトを使用しています:
### create_index_from_lists.py
音声ファイルとテキストデータを紐付けるためのインデックスファイル(`index_all.txt`)を生成するスクリプトです。
主な機能:
- 複数の台本ファイルからテキストデータを読み込み
- 音声ファイルとテキストデータの対応付け
- 異なるディレクトリ構造やファイル命名規則に対応
- 感情表現、朗読、通常音声など、様々な種類の音声データに対応
対応する台本ファイル:
- `emotion_transcript_no_kana_no_reading.txt`: 感情表現用の台本
- `recitation_transcript_no_kana_no_reading.txt`: 朗読用の台本
- `Rohan4600_transcript_no_kana_no_reading.txt`: ROHANコーパス用の台本
- `01 補足なし台本(JSUTコーパス・JVSコーパス版).txt`: JSUT/JVSコーパス用の台本
### create_metadata.py
`index_all.txt`から`metadata.jsonl`を生成するスクリプトです。
主な機能:
- `index_all.txt`の読み込み
- 音声ファイルの存在確認
- Hugging Faceデータセット用のメタデータ形式への変換
## 重要なファイル
### index_all.txt
音声ファイルとテキストデータの対応関係を記録した重要なファイルです。
形式:
```
音声ファイルパス:テキストデータ
```
特徴:
- 拡張子なしの音声ファイルパスとテキストデータがコロン(:)で区切られています
- 音声ファイルのパスは相対パスで記録されています
- テキストデータが存在しない場合は空文字列が記録されます
このファイルは以下の目的で使用できます:
- 音声ファイルとテキストデータの対応関係の確認
- データセットの更新や再生成
- 特定の音声ファイルのテキストデータの検索
- データセットの品質管理
## 使用方法
### データセットの読み込み
```python
from datasets import load_dataset
dataset = load_dataset("ayousanz/SSS-data-trainscript")
```
### インデックスファイルの使用例
```python
def load_index_data():
data = {}
with open('index_all.txt', 'r', encoding='utf-8') as f:
for line in f:
if ':' in line:
path, text = line.strip().split(':', 1)
data[path] = text
return data
# インデックスデータの読み込み
index_data = load_index_data()
# 特定の音声ファイルのテキストを取得
text = index_data.get('path/to/audio/file', '')
```