Goliath-text-classification-french-toxicity
Ce modèle est une classification de texte binaire basée sur l’architecture XLM-RoBERTa base fine-tunée pour détecter si un texte est toxique ou neutre.
Il a été entraîné sur un dataset personnel contenant des exemples de phrases toxiques et non toxiques.
🔍 Description
Ce modèle classe des phrases en deux catégories :
neutral→ phrase non toxiquetoxic→ phrase toxique
Il est particulièrement adapté à des tâches de modération automatique de contenu ou de filtrage de textes nuisibles dans des applications web, chatbots, forums, etc.
🛠️ Utilisation
Python — Transformers
from transformers import AutoTokenizer, AutoModelForSequenceClassification, pipeline
tokenizer = AutoTokenizer.from_pretrained("ItsAxel/Goliath-text-classification-french-toxicity")
model = AutoModelForSequenceClassification.from_pretrained("ItsAxel/Goliath-text-classification-french-toxicity")
clf = pipeline("text-classification", model=model, tokenizer=tokenizer)
result = clf("Ce message est vraiment insultant.")
print(result)
- Downloads last month
- 21
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
Model tree for ItsAxel/Goliath-text-classification-french-toxicity
Base model
FacebookAI/xlm-roberta-base