File size: 1,179 Bytes
efdef8b
 
 
1c8a68c
 
 
efdef8b
 
d0e7a8b
511721b
 
efdef8b
d0e7a8b
efdef8b
d0e7a8b
efdef8b
 
 
d0e7a8b
efdef8b
d0e7a8b
 
efdef8b
d0e7a8b
efdef8b
d0e7a8b
efdef8b
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
---
language:
- fr
datasets:
- amazon_reviews_multi
license: mit
---

# flaubert_sentiment
FlauBERT est un modèle de transformer pré-entraîné utilisant l'objectif de modélisation de langage masqué (MLM), similaire à BERT. Il a été conçu pour le français et appris sur un large et hétérogène corpus français. \\
FlauBERT a été démontré efficace dans diverses tâches de TALN (traitement automatique du langage naturel) telles que la classification de texte, le paraphrasage, l'inférence en langage naturel, l'analyse syntaxique et la désambiguïsation lexicale.

## Données d'entrainement

Confidentielle.

## Accuracy

Le modèle finalisé a été évalué sur l'ensemble de test français `amazon_reviews_multi`.

- La précision (exacte) est la correspondance exacte du nombre d'étoiles.
- La précision (off-by-1) est le pourcentage de commentaires pour lesquels le nombre d'étoiles prédit par le modèle diffère d'un maximum de 1 par rapport au nombre donné par l'évaluateur humain. 

| Language | Accuracy (exacte) | Accuracy (off-by-1) |
| -------- | ---------------------- | ------------------- |
| Français | 61.56%                 | 95.66%