File size: 1,594 Bytes
6275a43
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
e6452e8
6275a43
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
---
license: cc-by-nc-4.0
task_categories:
- text-to-speech
language:
- vi
tags:
- tts
- text-to-speech
- vietnamese
- nanocodec
- kani-tts
- multi-speaker
size_categories:
- 10K<n<100K
---

# assistant_number

Dataset tiếng Việt đã được encode bằng NVIDIA NeMo NanoCodec cho training Kani TTS.

## Dataset Details

- **Source:** VieNeu-TTS-140h (pnnbao-ump/VieNeu-TTS-140h)
- **Total samples:** 10
- **Speakers:** 193
- **Language:** Vietnamese (vi)
- **Codec:** NVIDIA NeMo NanoCodec (22kHz, 0.6kbps, 12.5fps)
- **Format:** JSONL.gz với NanoCodec tokens (4 layers)

## Dataset Structure

Mỗi mẫu bao gồm:
- `text`: Text transcription tiếng Việt
- `nano_layer_1`: Codec tokens layer 1
- `nano_layer_2`: Codec tokens layer 2
- `nano_layer_3`: Codec tokens layer 3
- `nano_layer_4`: Codec tokens layer 4
- `encoded_len`: Độ dài sequence tokens
- `speaker`: Speaker ID
- `lang`: "vi"
- `dataset_source`: "vieneu-tts-140h"
- `phonemized_text`: IPA phonemization (nếu có)
- `gender`: Giới tính speaker (nếu có)

## Usage

```python
from datasets import load_dataset

dataset = load_dataset("Datus/assistant_number")

# Xem một mẫu
sample = dataset['train'][0]
print(sample['text'])
print(f"Speaker: {sample['speaker']}")
print(f"Tokens: {sample['encoded_len']}")
```

## License

CC BY-NC 4.0 - Non-commercial use only

## Citation

```bibtex
@dataset{vieneu_tts_140h_nanocodec,
  title = {data tiếng Việt được encode bằng NanoCodec},
  author = {Your Name},
  year = {2025},
  url = {https://huggingface.co/datasets/Datus/assistant_number}
}
```