Houzeric commited on
Commit
7477597
·
verified ·
1 Parent(s): edde8f9

Upload README_wiki.md with huggingface_hub

Browse files
Files changed (1) hide show
  1. README_wiki.md +63 -0
README_wiki.md ADDED
@@ -0,0 +1,63 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - fr
4
+ license: cc-by-sa-4.0
5
+ size_categories:
6
+ - n < 1M
7
+ task_categories:
8
+ - text-generation
9
+ - fill-mask
10
+ ---
11
+
12
+ # Dataset Card for Wiki-General-FR
13
+
14
+ Ce jeu de données contient des extraits textuels nettoyés provenant de Wikipédia en français, couvrant une large variété de domaines (concepts, disciplines scientifiques, théories, phénomènes, etc.).
15
+
16
+ ## Construction du Dataset
17
+
18
+ Le dataset a été construit selon une pipeline automatisée en plusieurs étapes :
19
+
20
+ ### 1. Sélection des Pages (SPARQL)
21
+ Les pages ont été sélectionnées via une requête SPARQL sur Wikidata pour cibler des articles de Wikipédia en français liés à des concepts fondamentaux (`Q11344`), des disciplines scientifiques (`Q11862829`), des théories (`Q7184903`), des phénomènes (`Q16722960`), etc.
22
+
23
+ **Requête principale :**
24
+ ```sparql
25
+ SELECT DISTINCT ?article WHERE {
26
+ ?article schema:about ?item ;
27
+ schema:inLanguage "fr" .
28
+ { ?item wdt:P31 wd:Q11344 . }
29
+ UNION { ?item wdt:P279* wd:Q11344 . }
30
+ UNION { ?item wdt:P31 wd:Q11862829 . }
31
+ # ... (autres critères de domaines)
32
+ }
33
+ ```
34
+
35
+ ### 2. Téléchargement
36
+ Le contenu brut a été récupéré via l'API MediaWiki (`action=query&prop=extracts&explaintext=True`), garantissant un format texte sans balises HTML. Seuls les extraits de plus de 500 caractères ont été conservés.
37
+
38
+ ### 3. Nettoyage et Filtrage
39
+ Le texte a subi un nettoyage rigoureux :
40
+ - Suppression des appels de notes (ex: `[1]`).
41
+ - Suppression du "bruit" (lignes avec trop de chiffres, symboles mathématiques complexes, ou caractères spéciaux).
42
+ - Exclusion des listes à puces et des titres de sections.
43
+ - Découpage en paragraphes de 4 phrases maximum pour la lisibilité.
44
+ - Filtrage par longueur : seuls les paragraphes de plus de 60 mots sont gardés.
45
+
46
+ ### 4. Détection de Langue
47
+ Une validation finale a été effectuée avec `fasttext` (`lid.176.ftz`) pour s'assurer que chaque paragraphe est bien en français avec un score de confiance > 0.90.
48
+
49
+ ## Format des Données
50
+
51
+ Les données sont au format JSONL. Chaque ligne contient :
52
+ - `lang`: La langue du texte (`fr`).
53
+ - `domain`: Le domaine (`generale`).
54
+ - `source`: La source (`wikipedia`).
55
+ - `text`: Le contenu textuel du paragraphe.
56
+
57
+ Exemple :
58
+ ```json
59
+ {"lang": "fr", "domain": "generale", "source": "wikipedia", "text": "Le texte du paragraphe ici..."}
60
+ ```
61
+
62
+ ## Licence
63
+ Le contenu original provient de Wikipédia et est distribué sous licence **CC BY-SA 4.0**.