PL-BERT / README.md
javiimts's picture
Upload README.md with huggingface_hub
4c973e9 verified
metadata
language:
  - ca
  - val
license: mit
tags:
  - text-to-speech
  - phoneme-bert
  - styletts2
  - valencian
  - catalan
pipeline_tag: feature-extraction

PL-BERT Valenciano

Modelo PL-BERT (Phoneme-Level BERT) entrenado en valenciano para uso con StyleTTS2.

Descripci贸n del Modelo

Este es un modelo BERT entrenado exclusivamente con fonemas valencianos/catalanes, dise帽ado para ser utilizado como encoder de texto en sistemas de s铆ntesis de voz (TTS) como StyleTTS2.

Caracter铆sticas

  • Arquitectura: BERT base
  • Vocabulario: N/A tokens fon茅ticos
  • Hidden size: 768
  • Num layers: 12
  • Attention heads: 12
  • Max position embeddings: 512
  • Training steps: 25000

Tokenizador

Este modelo utiliza el tokenizador: javiimts/bert-ca-va-tokenizer

Entrenamiento

El modelo fue entrenado usando:

  • Dataset: Corts Valencianes (transcripciones parlamentarias)
  • Objetivo: Masked Language Modeling (MLM) con 15% de masking
  • Optimizador: AdamW
  • Precisi贸n mixta: FP16
  • Steps: 25000

Integraci贸n con StyleTTS2

Este modelo est谩 dise帽ado para reemplazar el PL-BERT original en StyleTTS2. Para usarlo:

  1. Descarga los archivos del modelo
  2. Actualiza la ruta PLBERT_dir en tu configuraci贸n de StyleTTS2
  3. El modelo se cargar谩 autom谩ticamente usando util.py
  4. Redimensiona los embeddings de StyleTTS2 para que coincidan con el nuevo tama帽o del vocabulario

Archivos incluidos

  • step_25000.t7: Checkpoint del modelo entrenado (PyTorch)
  • config.yml: Configuraci贸n de hiperpar谩metros
  • util.py: Utilidades para cargar el modelo
  • README.md: Esta documentaci贸n