davebaseline commited on
Commit
bd3fe2f
·
1 Parent(s): 0bb86be

improve dataset card: add paper link, badges, task categories, usage example

Browse files
Files changed (1) hide show
  1. README.md +111 -589
README.md CHANGED
@@ -91,10 +91,10 @@ configs:
91
  path: french_boolq/french_boolq_test.jsonl
92
  - config_name: rte3-french
93
  data_files:
94
- - split: validation
95
- path: rte3-french/*dev*.jsonl
96
- - split: test
97
- path: rte3-french/*test*.jsonl
98
  - config_name: wino_x_lm
99
  data_files:
100
  - split: test
@@ -111,36 +111,10 @@ configs:
111
  data_files:
112
  - split: test
113
  path: qfrcort/qfrcort.jsonl
114
- - config_name: daccord
115
- data_files:
116
- - split: test
117
- path: daccord/daccord_test.jsonl
118
- - config_name: mnli-nineeleven-fr-mt
119
- data_files:
120
- - split: test
121
- path: mnli-nineeleven-fr-mt/multinli_nineeleven_fr_mt_test.jsonl
122
- - config_name: french_boolq
123
- data_files:
124
- - split: test
125
- path: french_boolq/french_boolq_test.jsonl
126
- - config_name: rte3-french
127
- data_files:
128
- - split: validation
129
- path: rte3-french/*dev*.jsonl
130
- - split: test
131
- path: rte3-french/*test*.jsonl
132
  - config_name: fracas
133
  data_files:
134
  - split: test
135
  path: fracas/fracas_test.jsonl
136
- - config_name: wino_x_lm
137
- data_files:
138
- - split: test
139
- path: wino_x_lm/wino_x_lm_test.jsonl
140
- - config_name: wino_x_mt
141
- data_files:
142
- - split: test
143
- path: wino_x_mt/wino_x_mt_test.jsonl
144
  - config_name: mms
145
  data_files:
146
  - split: test
@@ -151,586 +125,134 @@ configs:
151
  path: wsd/*train*.jsonl
152
  - split: test
153
  path: wsd/*test*.jsonl
154
- pretty_name: Colle
155
- title: COLE !
156
- emoji: 🐳
157
- colorFrom: purple
158
- colorTo: gray
159
- sdk: docker
160
- app_port: 7860
 
 
 
 
 
 
 
 
161
  ---
162
 
163
- # COLE Leaderboard
164
- Here is our website [leaderboard](https://colebenchmark.org/).
165
-
166
- # COLE Dataset Card
167
- ## Dataset Summary
168
-
169
- The COLE benchmark is a suit of multiple French NLP tasks for evaluating language models. It includes test sets, and some validation, and training sets for tasks such as sentiment analysis, question answering, NLI, and more.
170
-
171
- ## Article and Corpus Details
172
- See our article [COLE: a Comprehensive Benchmark for French Language Understanding Evaluation](https://arxiv.org/abs/2510.05046) for more details about the tasks and the corpus.
173
-
174
- ## Task Descriptions
175
-
176
- ## Allocine.fr
177
- Allo-ciné tests language understanding in sentiment classification by feeding movie reviews which can be either positive and negative, the task consists in giving the correct sentiment for each review.
178
-
179
- ## DACCORD
180
- Determine if a French sentence makes sense semantically (binary label).
181
 
182
- ## FQuAD
183
- Fquad is question/answer pair built on high-quality wikipedia articles. The goal of the model in this task is to accurately predict if the answer to the question really can be found in the provided answer.
 
184
 
185
- ## FraCaS
186
- Fracas is a natural language inference (NLI) taskthe where the model must classify the relationship between a premise and a hypothesis-entailment, contradiction, or neutral-based on complex linguistic phenomena such as quantifiers, plurality, anaphora, and ellipsis.
187
-
188
- ## Fr-BoolQ
189
- Boolean question answering in French: answer true/false based on context.
190
-
191
- ## GQNLI-fr
192
- The dataset consists of carefully constructed premise-hypothesis pairs that involve quantifier logic (e.g. most, at least, more than half). The goal is to evaluate the model's ability to reason about these expressions and determine whether the hypothesis logically follows from the premise, contradicts it, or is neutral.
193
-
194
- ## LingNLI
195
- LingNLI is a NLI corpus collected by putting a linguist 'in the loop' to dynamically introduce novel constraints during data collection, aiming to mitigate the systematic gaps and biases often found in crowdsourced datasets.
196
-
197
- ## MMS-fr
198
- MMS-fr is a sentiment analysis task where the model classifies a French text as positive (2), neutral (1), or negative (0), assessing its ability to detect sentiment across diverse domains and sources.
199
-
200
- ## MNLI-nineeleven-Fr-MT
201
- French machine-translated version of MNLI using 9/11 context, for entailment classification.
202
-
203
- ## MultiBLiMP-Fr
204
- MultiBLiMP-Fr is a grammatical judgment task where the model must identify the grammatically correct sentence from a minimal pair differing by a single targeted feature, thereby assessing its knowledge of French syntax, morphology, and agreement.
205
-
206
- ## PAWS-X
207
- This task aims to test paraphrase identification by giving two sentences and a label defining if these sentences are equivalent in meaning or not.
208
-
209
- ## PIAF
210
- This task consists of pairs of questions and text answers with information of where in the answer is the truly relevant information.
211
-
212
- ## QFrBLiMP
213
- This task gives the model sentences pairs, the goal is to determine if the sentences are semantically equivalent, or, put more simply, if they mean the same thing, even with slightly different syntax and words.
214
-
215
- ## QFrCoLA
216
- QFrCoLA is a french dataset made from multiple french language sites such as académie-française.fr and vitrinelinguistique.com. It aims to tests models ability to determine a sentence's acceptability in french on subjects such as grammar and syntax. The answer is a binary label indicating if the sentence is correct or not.
217
-
218
- ## QFrCoRE
219
- QFrCoRE is a definition matching task where the model selects the correct standard French definition for a Quebec French expression from a list of candidates.
220
-
221
- ## QFrCoRT
222
- QFrCoRE is a definition matching task where the model selects the correct standard French definition for a Quebec French term from a list of candidates.
223
-
224
- ## RTE3-Fr
225
- French version of RTE3 for textual entailment recognition.
226
-
227
- ## SICK-fr
228
- This task also has pairs of sentences and notes them on 2 dimensions, relatedness and entailment. While relatedness scales from 1 to 5, entailement is a choice between entails, contradicts or neutral.
229
-
230
- ## STS22
231
- This task evaluates whether pairs of news articles, written in different languages, cover the same story. It focuses on document-level similarity, where systems rate article pairs on a 4-point scale from most to least similar
232
-
233
- ## Wino-X-LM
234
- Pronoun resolution task: choose between two referents in a sentence with an ambiguous pronoun.
235
-
236
- ## Wino-X-MT
237
- Translation-based pronoun resolution: choose which of two French translations uses the correct gendered pronoun.
238
-
239
- ## WSD-Fr
240
- WSD-Fr is a word sense disambiguation task where the model must identify the correct meaning of an ambiguous verb in context, as part of the FLUE benchmark.
241
-
242
- ## XNLI-fr
243
- This task consists of pairs of sentences where the goal is to determine the relation between the two sentences, this relation can be either entailement, neutral or contradiction.
244
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
245
 
246
  ## Language
247
- The language data in COLE is in French .
248
-
249
- ### Dataset structure
250
-
251
- ## Allocine.fr
252
- ```json
253
 
254
- {
255
- "review": "Magnifique épopée, une belle histoire, touchante avec des acteurs qui interprètent très bien leur rôles (Mel Gibson, Heath Ledger, Jason Isaacs...), le genre de film qui se savoure en famille! :)",
256
- "label": 1
257
- }
258
- ```
259
-
260
- ## DACCORD
261
- ```json
262
-
263
- {
264
- "id": "a001",
265
- "premise": "Le camion-remorque de la vidéo transporte un long tube cylindrique, qui est une pièce destinée à une raffinerie de pétrole en Ouzbékistan.",
266
- "hypothesis": "Le camion-remorque de la vidéo transporte un missile nucléaire russe.",
267
- "label": "1",
268
- "label_text": "contradiction",
269
- "url": "https://factuel.afp.com/doc.afp.com.32MJ3M7-1",
270
- "genre": "conflit ukrainien-russe"
271
- }
272
- ```
273
-
274
- ## FQuAD
275
- ```json
276
-
277
- {
278
- "title": "pégase_23_3",
279
- "context": "D'anciennes théories associent Pégase au combat naval, ou voient en lui un simple navire...",
280
- "question": "Quand le théologien Jacques-Paul Migne s'exprime au sujet de Méduse ?",
281
- "answers": {
282
- "answers_start": [509, 512, 512],
283
- "text": ["en 1855", "1855", "1855"]
284
- },
285
- "is_impossible": false
286
- }
287
- ```
288
-
289
- ## FraCaS
290
- ```json
291
 
292
- {
293
- "id": "1",
294
- "premise": "Un Italien est devenu le plus grand ténor du monde.",
295
- "hypothesis": "Il y a eu un Italien qui est devenu le plus grand ténor du monde.",
296
- "label": "0",
297
- "question": "Y a-t-il eu un Italien qui soit devenu le plus grand ténor du monde ?",
298
- "answer": "yes",
299
- "premises_original": "An Italian became the world's greatest tenor.",
300
- "premise1": "Un Italien est devenu le plus grand ténor du monde.",
301
- "premise1_original": "An Italian became the world's greatest tenor.",
302
- "premise2": "",
303
- "premise2_original": "",
304
- "premise3": "",
305
- "premise3_original": "",
306
- "premise4": "",
307
- "premise4_original": "",
308
- "premise5": "",
309
- "premise5_original": "",
310
- "hypothesis_original": "There was an Italian who became the world's greatest tenor.",
311
- "question_original": "Was there an Italian who became the world's greatest tenor?",
312
- "note": "",
313
- "topic": "GENERALIZED QUANTIFIERS"
314
- }
315
- ```
316
-
317
- ## Fr-BoolQ
318
- ```json
319
 
320
- {
321
- "question": "Jobs avait-il des sautes d'humeur inimaginables durant la période où il dirigeait NeXT ?",
322
- "passage": "Il a beaucoup été question de la personnalité agressive et exigeante de Steve Jobs. [...] Dan’l Lewin, déclare dans ce même magazine que Steve Jobs, durant cette période, « avait des sautes d'humeur inimaginables » [...]",
323
- "label": 1
324
- }
325
- ```
326
 
327
- ## GQNLI-Fr
328
- ```json
329
 
330
- {
331
- "uid": 214,
332
- "premise": "Il y a six ours. Trois ours marron, un ours noir et un ours blanc courent le long de l'herbe cyan.",
333
- "hypothesis": "Un ours beige court.",
334
- "label": 1,
335
- "label_text": "neutral",
336
- "premise_original": "There are six bears...",
337
- "hypothesis_original": "One beige bear runs."
338
- }
339
  ```
340
 
341
- ## LingNLI
342
- ```json
343
-
344
- {
345
- "premise": "La richesse des citations verbatim - constituant un bon tiers de ce livre - améliore également la vraisemblance de Burn Rate.",
346
- "hypothesis": "Burn Rate manque de véracité et n'inclut aucune référence à d'autres œuvres d'aucune sorte.",
347
- "label": 2
348
- }
349
- ```
350
-
351
- ## MMS
352
- ```json
353
-
354
- {
355
- "text": "Cadeaux pour ma fille.",
356
- "label": 2
357
- }
358
- ```
359
-
360
- ## MNLI-nineeleven-Fr-MT
361
- ```json
362
-
363
- {
364
- "premise": "La faillite du nationalisme laïque et autocratique était évidente dans le monde musulman à la fin des années 1970.",
365
- "hypothesis": "Les musulmans détestaient le nationalisme autocratique à la fin des années 1970.",
366
- "label": "1",
367
- "label_text": "neutral",
368
- "pairID": "62534e",
369
- "promptID": "62534",
370
- "premise_original": "The bankruptcy of secular, autocratic nationalism was evident across the Muslim world by the late 1970s.",
371
- "hypothesis_original": "Muslims disliked autocratic nationalism by the late 1970s."
372
- }
373
- ```
374
-
375
- ## MultiBLiMP-Fr
376
- ```json
377
-
378
- {
379
- "sentence_a": "C'est le genre à lequel appartiennent les espèces de kiwi.",
380
- "sentence_b": "C'est le genre à lequel appartenez les espèces de kiwi.",
381
- "label": 0
382
- }
383
- ```
384
-
385
- ## PAWS-X
386
- ```json
387
-
388
- {
389
- "id": 12,
390
- "sentence1": "La rivière Tabaci est un affluent de la rivière Leurda en Roumanie.",
391
- "sentence2": "La rivière Leurda est un affluent de la rivière Tabaci en Roumanie.",
392
- "label": 0
393
- }
394
- ```
395
-
396
- ## PIAF
397
- ```json
398
-
399
- {
400
- "id": "p140295203922856",
401
- "title": "Alaungpaya",
402
- "context": "Il ne convainquit cependant pas tout le monde. Après la chute d'Ava le 23 mars 1752, son propre père lui conseilla de se soumettre : il lui fit valoir que, bien qu'ayant des quantités de soldats enthousiastes, il manquait de mousquets et que leur petite palissade ne résisterait jamais à une armée bien équipée qui venait de mettre à sac Ava, puissamment fortifiée. Alaungpaya, impavide, déclara : « Quand on combat pour son pays, il importe peu qu'on soit rares ou nombreux. ce qui compte est que vos camarades aient un cœur sincère et des bras forts. » Il prépara sa défense en fortifiant Moksobo (renommé Shwebo), avec une palissade et des douves. Il fit couper la forêt à l'extérieur, détruire les mares et combler les puits.",
403
- "question": "De quoi Alaungpaya aurait il eu besoin pour remporter la bataille ?",
404
- "answers": {
405
- "text": ["de mousquets et que leur petite palissade"],
406
- "answer_start": [222]
407
- }
408
- }
409
- ```
410
-
411
- ## QFrBLiMP
412
- ```json
413
-
414
- {
415
- "id": 250,
416
- "label": 0,
417
- "ungrammatical": "Cette femme chante très haute.",
418
- "source": "https://vitrinelinguistique.oqlf.gouv.qc.ca/...",
419
- "category": "morphology",
420
- "type": 11,
421
- "subcat": 13.0,
422
- "grammatical": "Cette femme chante très haut.",
423
- "options": [
424
- {"id": "1", "text": "La phrase numéro 1"},
425
- {"id": "2", "text": "La phrase numéro 2"}
426
- ],
427
- "answer": "accept"
428
- }
429
- ```
430
-
431
- ## QFrCoLA
432
- ```json
433
-
434
- {
435
- "label": 1,
436
- "sentence": "Je vous en prie, soyez bref.",
437
- "source": "https://vitrinelinguistique.oqlf.gouv.qc.ca/...",
438
- "category": "anglicism"
439
- }
440
- ```
441
-
442
- ## QFrCoRE
443
- ```json
444
-
445
- {
446
- "expression": "Avoir la chienne",
447
- "choices": [
448
- "Prendre une chaise et s'asseoir.",
449
- "Avoir du plaisir, parfois avec une connotation sexuelle.",
450
- "Prépare-toi, ça va brasser.",
451
- "Tomber amoureux.",
452
- "Être en pleine forme.",
453
- "Critiquer sévèrement.",
454
- "Personne inefficace, qui ne travaille pas bien.",
455
- "Il se comporte mal en public.",
456
- "Se détendre, arrêter de s'énerver.",
457
- "Avoir peur."
458
- ],
459
- "correct_index": 9,
460
- "reference": "https://canada-media.ca/expressions-quebecoises/"
461
- }
462
- ```
463
-
464
- ## QFrCoRT
465
- ```json
466
- {
467
- "terme": "Adonner",
468
- "choices": [
469
- "se payer du bon temps",
470
- "tu sais",
471
- "Voici quelques éléments typiques pour décrire l'hiver québécois :La bordée de neige(tempête de neige) de la fin décembre nous a laissédes bancs de neige(congères) sur le bord des rues. Nous avons eu quelques épisodes depoudrerie(blizzard) qui ont rendu les déplacements difficiles, surtout en voiture. Mais c'est vraimentla glace noire(verglas) qui cause le plus d'accidents. Il faudra attendre jusqu'auredoux(remontée des températures) pour que la neige et la glace se transforment ensloche(gadoue constituée de neige fondante et d'eau) puis disparaissent au retour du printemps.",
472
- "En hiver, il ne faut pas s'encabaner!Ce joli verbe vient du nom \" cabane \" qui désigne un petit espace de rangement. S'encabaner, c'est donc \" rester dans sa cabane (sa maison), ne pas sortir, rester cloitré chez soi \". Mais comme le disaient les membres du groupe Mes Aïeux dans leur chanson \" Dégénération \" : \" Il ne faut pas rester encabané! \" (surtout en hiver).",
473
- "On ne parle pas ici de la neige de la veille.Cette expression signifie \" avoir de l'expérience,voir venir les choses \".",
474
- "Ça n'a étrangement absolument rien à voir avec le fait qu'il manque quelque chose. Ben manque se veut plutôt un synonyme de \" peut-être \" , \" sûrement \" ou \" probablement \" . Particulièrement utilisé du côté nord de la Gaspésie et sur la pointe, ben manque que tu risques de l'entendre si tu te promènes dans ces coins-là.",
475
- "gant de toilette",
476
- "Unpoisson d'avrilest une plaisanterie que l'on fait le 1er avril à une connaissance.",
477
- "avoir de la monnaie",
478
- "Le verbe \" adonner \" s'utilise pour parler de quelque chose qui se produit de façon fortuite, d'une coïncidence. Il peut avoir différentes nuances de sens selon le contexte.Exemples : \" Tu vas à Québec cette fin de semaine? Ça adonne que moi aussi! Faisons du covoiturage! \"\" Je devais commencer mes cours de zumba ce soir mais ça adonne mal : mon fils est malade! \""
479
- ],
480
- "correct_index": 9,
481
- "reference": "https://vivreenfrancais.mcgill.ca/capsules-linguistiques/expressions-quebecoises/"
482
- }
483
- ```
484
-
485
- ## RTE3-Fr
486
- ```json
487
-
488
- {
489
- "id": "1",
490
- "language": "fr",
491
- "premise": "La vente a été faite pour payer la facture fiscale de 27,5 milliards de dollars de Yukos, Yuganskneftegaz a été vendu à l'origine pour 9,4 milliards de dollars à une entreprise peu connue, Baikalfinansgroup, qui a ensuite été rachetée par la compagnie pétrolière publique russe Rosneft.",
492
- "hypothesis": "Baikalfinansgroup a été vendu à Rosneft.",
493
- "label": "0",
494
- "label_text": "entailment",
495
- "task": "IE",
496
- "length": "short"
497
- }
498
- ```
499
-
500
- ## SICK-Fr
501
- ```json
502
-
503
- {
504
- "Unnamed: 0": 5,
505
- "label": 2,
506
- "relatedness_score": 3.2999999523,
507
- "sentence_A": "Deux chiens se battent et se câlinent.",
508
- "sentence_B": "Il n'y a pas de lutte et d'étreinte de chiens."
509
- }
510
- ```
511
-
512
- ## STS22
513
- ```json
514
-
515
- {
516
- "id": "1559147599_1558534688",
517
- "score": 1.0,
518
- "sentence1": "KABYLIE (TAMURT) – Les répercussions économiques...",
519
- "sentence2": "Le décret n° 2020-293 du 23 mars 2020..."
520
- }
521
- ```
522
-
523
- ## Wino-X-LM
524
- ```json
525
-
526
- {
527
- "qID": "3UDTAB6HH8D37OQL3O6F3GXEEOF09Z-1",
528
- "sentence": "The woman looked for a different vase for the bouquet because it was too small.",
529
- "context_en": "The woman looked for a different vase for the bouquet because _ was too small.",
530
- "context_fr": "La femme a cherché un vase différent pour le bouquet car _ était trop petit.",
531
- "option1_en": "the bouquet",
532
- "option2_en": "the vase",
533
- "option1_fr": "le bouquet",
534
- "option2_fr": "le vase",
535
- "answer": 2,
536
- "context_referent_of_option1_fr": "bouquet",
537
- "context_referent_of_option2_fr": "vase"
538
- }
539
- ```
540
-
541
- ## Wino-X-MT
542
- ```json
543
-
544
- {
545
- "qID": "3FULMHZ7OUVKJ7S9R0LMS753751M44-1",
546
- "sentence": "As the wolf approached the house, the man quickly took the knife and not the gun to defend himself because it was near him.",
547
- "translation1": "Alors que le loup s'approchait de la maison, l'homme prit rapidement le couteau et non l'arme pour se défendre car il était près de lui.",
548
- "translation2": "Alors que le loup s'approchait de la maison, l'homme prit rapidement le couteau et non l'arme pour se défendre car elle était près de lui.",
549
- "answer": 1,
550
- "pronoun1": "il",
551
- "pronoun2": "elle",
552
- "referent1_en": "knife",
553
- "referent2_en": "gun",
554
- "true_translation_referent_of_pronoun1_fr": "couteau",
555
- "true_translation_referent_of_pronoun2_fr": "arme",
556
- "false_translation_referent_of_pronoun1_fr": "couteau",
557
- "false_translation_referent_of_pronoun2_fr": "arme"
558
- }
559
- ```
560
-
561
- ## WSD-Fr
562
- ```json
563
-
564
- {
565
- "sentence": "Il rend hommage au roi de France et des négociations aboutissent au traité du Goulet , formalisant la paix entre les deux pays .",
566
- "labels_idx": [10],
567
- "label": "négociations"
568
- }
569
- ```
570
-
571
- ## XNLI-Fr
572
- ```json
573
-
574
- {
575
- "premise": "Ils m'ont dit qu'à la fin, on m'amènerait un homme pour que je le rencontre.",
576
- "hypothesis": "Le gars arriva un peu en retard.",
577
- "label": 1
578
- }
579
- ```
580
-
581
- ## Allocine.fr
582
- | split | # examples |
583
- |------------|-----------:|
584
- | train | |
585
- | validation | 20,000 |
586
- | test | 20,000 |
587
-
588
- ## DACCORD
589
- | split | # examples |
590
- |------------|-----------:|
591
- | test | 1,034 |
592
-
593
- ## FQuAD
594
- | split | # examples |
595
- |------------|-----------:|
596
- | validation | 100 |
597
- | test | 400 |
598
-
599
- ## FraCaS
600
- | split | # examples |
601
- |------------|-----------:|
602
- | test | 346 |
603
-
604
- ## Fr-BoolQ
605
- | split | # examples |
606
- |------------|-----------:|
607
- | test | 178 |
608
-
609
- ## GQNLI-Fr
610
- | split | # examples |
611
- |------------|-----------:|
612
- | train | 243 |
613
- | validation | 27 |
614
- | test | 30 |
615
-
616
- ## LingNLI
617
- | split | # examples |
618
- |------------|-----------:|
619
- | train | 29,985 |
620
- | test | 4,893 |
621
-
622
- ## MMS
623
- | split | # examples |
624
- |------------|-------------:|
625
- | train | 132,696 |
626
- | validation | 14,745 |
627
- | test | 63,190 |
628
-
629
- ## MNLI-nineeleven-Fr-MT
630
- | split | # examples |
631
- |------------|-----------:|
632
- | test | 2,000 |
633
-
634
- ## MultiBLiMP-Fr
635
- | split | # examples |
636
- |------------|-----------:|
637
- | train | 160 |
638
- | validation | 18 |
639
- | test | 77 |
640
-
641
- ## PAWS-X
642
- | split | # examples |
643
- |------------|-----------:|
644
- | train | 49,401 |
645
- | validation | 2,000 |
646
- | test | 2,000 |
647
-
648
- ## PIAF
649
- | split | # examples |
650
- |------------|-----------:|
651
- | train | 3,105 |
652
- | validation | 346 |
653
- | test | 384 |
654
-
655
- ## QFrBLiMP
656
- | split | # examples |
657
- |------------|-----------:|
658
- | train | NA |
659
- | validation | 2,061 |
660
- | test | 2,290 |
661
-
662
- ## QFrCoLA
663
- | split | # examples |
664
- |------------|-----------:|
665
- | train | 15,846 |
666
- | validation | 1,761 |
667
- | test | 7,546 |
668
-
669
- ## QFrCoRE
670
- | split | # examples |
671
- |------------|-----------:|
672
- | test | 4,633 |
673
-
674
- ## QFrCoRT
675
- | split | # examples |
676
- |------------|-----------:|
677
- | test | 201 |
678
-
679
- ## rte3-Fr
680
- | split | # examples |
681
- |------------|-------------:|
682
- | train | 269,821 |
683
- | validation | 800 |
684
- | test | 3,121 |
685
-
686
- ## SICK-fr
687
- | split | # examples |
688
- |------------|-----------:|
689
- | train | 4,439 |
690
- | validation | 495 |
691
- | test | 4,906 |
692
-
693
- ## STS22
694
- | split | # examples |
695
- |------------|-----------:|
696
- | train | 101 |
697
- | test | 72 |
698
-
699
- ## Wino-X-LM
700
- | split | # examples |
701
- |------------|-----------:|
702
- | test | 2,793 |
703
-
704
- ## Wino-X-MT
705
- | split | # examples |
706
- |------------|-----------:|
707
- | test | 2,988 |
708
-
709
- ## WSD
710
- | split | # examples |
711
- |------------|-----------:|
712
- | test | 3,121 |
713
- | train | 269,821 |
714
-
715
- ## XNLI-Fr
716
- | split | # examples |
717
- |------------|-------------:|
718
- | train | 393,000 |
719
- | validation | 2,490 |
720
- | test | 5,010 |
721
-
722
-
723
- ## Citation
724
 
725
  ```bibtex
726
  @misc{beauchemin2025colecomprehensivebenchmarkfrench,
727
- title={COLE: a Comprehensive Benchmark for French Language Understanding Evaluation},
728
  author={David Beauchemin and Yan Tremblay and Mohamed Amine Youssef and Richard Khoury},
729
  year={2025},
730
  eprint={2510.05046},
731
  archivePrefix={arXiv},
732
  primaryClass={cs.CL},
733
- url={https://arxiv.org/abs/2510.05046},
734
  }
735
  ```
736
-
 
91
  path: french_boolq/french_boolq_test.jsonl
92
  - config_name: rte3-french
93
  data_files:
94
+ - split: validation
95
+ path: rte3-french/*dev*.jsonl
96
+ - split: test
97
+ path: rte3-french/*test*.jsonl
98
  - config_name: wino_x_lm
99
  data_files:
100
  - split: test
 
111
  data_files:
112
  - split: test
113
  path: qfrcort/qfrcort.jsonl
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
114
  - config_name: fracas
115
  data_files:
116
  - split: test
117
  path: fracas/fracas_test.jsonl
 
 
 
 
 
 
 
 
118
  - config_name: mms
119
  data_files:
120
  - split: test
 
125
  path: wsd/*train*.jsonl
126
  - split: test
127
  path: wsd/*test*.jsonl
128
+ - config_name: lingnli
129
+ data_files:
130
+ - split: train
131
+ path: lingnli/*train*.jsonl
132
+ - split: test
133
+ path: lingnli/*test*.jsonl
134
+ - config_name: multiblimp
135
+ data_files:
136
+ - split: train
137
+ path: multiblimp/*train*.jsonl
138
+ - split: validation
139
+ path: multiblimp/*validation*.jsonl
140
+ - split: test
141
+ path: multiblimp/*test*.jsonl
142
+ pretty_name: COLE
143
  ---
144
 
145
+ # COLE: Comprehensive Benchmark for French Language Understanding Evaluation
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
146
 
147
+ [![Paper](https://img.shields.io/badge/Paper-arXiv%3A2510.05046-b31b1b)](https://arxiv.org/abs/2510.05046)
148
+ [![Website](https://img.shields.io/badge/Website-colebenchmark.org-blue)](https://colebenchmark.org/)
149
+ [![GitHub](https://img.shields.io/badge/GitHub-GRAAL--Research%2FCOLE-181717?logo=github)](https://github.com/GRAAL-Research/COLE)
150
 
151
+ ## Dataset Summary
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
152
 
153
+ **COLE** is a comprehensive benchmark for evaluating French Natural Language Understanding (NLU). It includes 23 diverse tasks covering sentiment analysis, paraphrase detection, natural language inference, question answering, grammatical judgment, word sense disambiguation, and more — with a particular focus on linguistic phenomena relevant to the French language.
154
+
155
+ We benchmark 94 large language models (LLMs), providing an extensive analysis of the current state of French NLU. Our results highlight a significant performance gap between closed- and open-weight models and identify key challenging frontiers such as zero-shot extractive question answering, fine-grained word sense disambiguation, and understanding of regional language variations.
156
+
157
+ For more details, see our paper: [COLE: a Comprehensive Benchmark for French Language Understanding Evaluation](https://arxiv.org/abs/2510.05046) (ICLR 2025 Workshop).
158
+
159
+ ## Links
160
+
161
+ - **Leaderboard**: [colebenchmark.org](https://colebenchmark.org/)
162
+ - **Paper**: [arXiv:2510.05046](https://arxiv.org/abs/2510.05046)
163
+ - **GitHub**: [GRAAL-Research/COLE](https://github.com/GRAAL-Research/COLE)
164
+
165
+ ## Tasks
166
+
167
+ COLE consists of 23 tasks grouped by NLU capability:
168
+
169
+ ### Sentiment Analysis
170
+ | Task | Description | Test size |
171
+ |------|-------------|-----------|
172
+ | **Allocine** | Sentiment classification of French movie reviews (positive/negative) | 20,000 |
173
+ | **MMS-fr** | Sentiment analysis with 3 classes (positive, neutral, negative) | 63,190 |
174
+
175
+ ### Natural Language Inference (NLI)
176
+ | Task | Description | Test size |
177
+ |------|-------------|-----------|
178
+ | **FraCaS** | NLI involving quantifiers, plurality, anaphora, and ellipsis | 346 |
179
+ | **GQNLI-fr** | NLI with quantifier logic (e.g., most, at least, more than half) | 30 |
180
+ | **LingNLI** | NLI corpus constructed with a linguist in the loop | 4,893 |
181
+ | **MNLI-nineeleven-Fr-MT** | French machine-translated MNLI using 9/11 context | 2,000 |
182
+ | **RTE3-Fr** | French version of RTE3 for textual entailment | 3,121 |
183
+ | **SICK-fr** | Sentence pair relatedness and entailment | 4,906 |
184
+ | **XNLI-fr** | Cross-lingual NLI in French | 5,010 |
185
+ | **DACCORD** | Semantic plausibility of French sentences (binary) | 1,034 |
186
+
187
+ ### Question Answering
188
+ | Task | Description | Test size |
189
+ |------|-------------|-----------|
190
+ | **FQuAD** | Extractive QA on high-quality French Wikipedia articles | 400 |
191
+ | **Fr-BoolQ** | Boolean question answering in French | 178 |
192
+ | **PIAF** | French extractive QA pairs | 384 |
193
+
194
+ ### Paraphrase Detection
195
+ | Task | Description | Test size |
196
+ |------|-------------|-----------|
197
+ | **PAWS-X** | Paraphrase identification from sentence pairs | 2,000 |
198
+ | **QFrBLiMP** | Semantic equivalence detection between sentence pairs | 2,290 |
199
+
200
+ ### Grammatical Judgment
201
+ | Task | Description | Test size |
202
+ |------|-------------|-----------|
203
+ | **MultiBLiMP-Fr** | Grammatical correctness from minimal pairs | 77 |
204
+ | **QFrCoLA** | Sentence acceptability in French (grammar, syntax) | 7,546 |
205
+
206
+ ### Semantic Similarity
207
+ | Task | Description | Test size |
208
+ |------|-------------|-----------|
209
+ | **STS22** | Document-level similarity of multilingual news articles | 72 |
210
+
211
+ ### Word Sense Disambiguation
212
+ | Task | Description | Test size |
213
+ |------|-------------|-----------|
214
+ | **WSD-Fr** | Disambiguating verb meanings in context | 3,121 |
215
+
216
+ ### Quebec French
217
+ | Task | Description | Test size |
218
+ |------|-------------|-----------|
219
+ | **QFrCoRE** | Matching Quebec French expressions to standard definitions | 4,633 |
220
+ | **QFrCoRT** | Matching Quebec French terms to standard definitions | 201 |
221
+
222
+ ### Coreference / Pronoun Resolution
223
+ | Task | Description | Test size |
224
+ |------|-------------|-----------|
225
+ | **Wino-X-LM** | Pronoun resolution with ambiguous referents | 2,793 |
226
+ | **Wino-X-MT** | Translation-based pronoun resolution with gendered pronouns | 2,988 |
227
 
228
  ## Language
 
 
 
 
 
 
229
 
230
+ All data in COLE is in **French**.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
231
 
232
+ ## Usage
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
233
 
234
+ ```python
235
+ from datasets import load_dataset
 
 
 
 
236
 
237
+ # Load a specific task
238
+ dataset = load_dataset("graalul/COLE-public", "allocine")
239
 
240
+ # Available configs: allocine, daccord, fquad, fracas, french_boolq,
241
+ # gqnli, lingnli, mms, mnli-nineeleven-fr-mt, multiblimp, paws_x,
242
+ # piaf, qfrblimp, qfrcola, qfrcore, qfrcort, rte3-french, sickfr,
243
+ # sts22, wino_x_lm, wino_x_mt, wsd, xnli
 
 
 
 
 
244
  ```
245
 
246
+ ## Citation
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
247
 
248
  ```bibtex
249
  @misc{beauchemin2025colecomprehensivebenchmarkfrench,
250
+ title={COLE: a Comprehensive Benchmark for French Language Understanding Evaluation},
251
  author={David Beauchemin and Yan Tremblay and Mohamed Amine Youssef and Richard Khoury},
252
  year={2025},
253
  eprint={2510.05046},
254
  archivePrefix={arXiv},
255
  primaryClass={cs.CL},
256
+ url={https://arxiv.org/abs/2510.05046},
257
  }
258
  ```