Goliath-text-classification-french-toxicity

Ce modèle est une classification de texte binaire basée sur l’architecture XLM-RoBERTa base fine-tunée pour détecter si un texte est toxique ou neutre.
Il a été entraîné sur un dataset personnel contenant des exemples de phrases toxiques et non toxiques.


🔍 Description

Ce modèle classe des phrases en deux catégories :

  • neutral → phrase non toxique
  • toxic → phrase toxique

Il est particulièrement adapté à des tâches de modération automatique de contenu ou de filtrage de textes nuisibles dans des applications web, chatbots, forums, etc.


🛠️ Utilisation

Python — Transformers

from transformers import AutoTokenizer, AutoModelForSequenceClassification, pipeline

tokenizer = AutoTokenizer.from_pretrained("ItsAxel/Goliath-text-classification-french-toxicity")
model = AutoModelForSequenceClassification.from_pretrained("ItsAxel/Goliath-text-classification-french-toxicity")

clf = pipeline("text-classification", model=model, tokenizer=tokenizer)

result = clf("Ce message est vraiment insultant.")
print(result)
Downloads last month
21
Safetensors
Model size
0.3B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for ItsAxel/Goliath-text-classification-french-toxicity

Finetuned
(3777)
this model