mbart-neutralization

This model is a fine-tuned version of facebook/mbart-large-50 on an unknown dataset. It achieves the following results on the evaluation set:

  • Loss: 0.0092
  • Bleu: 98.7913
  • Gen Len: 18.5

Model description

mbart-neutralization es una versi贸n fine-tuned de facebook/mbart-large-50, un modelo multiling眉e de secuencia a secuencia preentrenado sobre 50 idiomas. Este modelo ha sido adaptado para la tarea de neutralizaci贸n de texto (text neutralization), cuyo objetivo es transformar oraciones con carga subjetiva, sesgada o polarizada en versiones m谩s neutras, objetivas o formales, preservando el significado original. El modelo es especialmente 煤til en contextos donde se requiere reducir el sesgo ling眉铆stico, normalizar el tono de textos o estandarizar contenido generado por usuarios.

Intended uses & limitations

Usos previstos:

  • Neutralizaci贸n o desambiguaci贸n de texto con carga emocional, pol铆tica o subjetiva
  • Preprocesamiento de textos para sistemas de informaci贸n neutral
  • Normalizaci贸n de lenguaje en pipelines de NLP
  • Investigaci贸n en detecci贸n y reducci贸n de sesgos en texto

Limitaciones:

  • El modelo fue entrenado sobre un dataset espec铆fico no documentado p煤blicamente, por lo que su generalizaci贸n a otros dominios o idiomas puede ser limitada
  • Dado que el modelo base (mbart-large-50) es multiling眉e, el rendimiento puede variar significativamente entre idiomas seg煤n la representaci贸n en los datos de entrenamiento
  • Un BLEU de ~98.49 sobre el conjunto de evaluaci贸n sugiere alta similitud con las referencias, pero puede indicar sobreajuste o bajo nivel de transformaci贸n real si el dataset tiene pares muy similares entre entrada y salida
  • No recomendado para uso en producci贸n sin validaci贸n humana adicional

Training and evaluation data

El modelo fue entrenado sobre un dataset de pares de oraciones compuesto por texto original (con sesgo o subjetividad) y su versi贸n neutralizada. Los detalles exactos del dataset no est谩n disponibles p煤blicamente. El conjunto fue dividido en particiones de entrenamiento y evaluaci贸n, con las m茅tricas reportadas sobre el conjunto de validaci贸n.

Training procedure

El modelo fue fine-tuned utilizando la librer铆a 馃 Transformers con un enfoque de aprendizaje supervisado secuencia a secuencia (seq2seq). Se utiliz贸 el tokenizador nativo de mbart-large-50 con los tokens de idioma correspondientes.

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 5.6e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Use OptimizerNames.ADAMW_TORCH with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
  • lr_scheduler_type: linear
  • num_epochs: 2

Training results

Training Loss Epoch Step Validation Loss Bleu Gen Len
No log 1.0 440 0.0150 98.593 18.5625
0.2218 2.0 880 0.0092 98.7913 18.5

Framework versions

  • Transformers 4.51.2
  • Pytorch 2.10.0+cu128
  • Datasets 4.0.0
  • Tokenizers 0.21.4
Downloads last month
58
Safetensors
Model size
0.6B params
Tensor type
F32
Inference Providers NEW
This model isn't deployed by any Inference Provider. 馃檵 Ask for provider support

Model tree for marneyra/mbart-neutralization

Finetuned
(335)
this model