Houzeric commited on
Commit
3faedbb
·
verified ·
1 Parent(s): bcee24c

Upload README.md with huggingface_hub

Browse files
Files changed (1) hide show
  1. README.md +36 -35
README.md CHANGED
@@ -3,60 +3,61 @@ language:
3
  - fr
4
  license: cc-by-sa-4.0
5
  size_categories:
6
- - n < 100K
7
  task_categories:
8
  - text-generation
9
  - fill-mask
10
- tags:
11
- - physics
12
- - science
13
  ---
14
 
15
- # Dataset Card for Wiki-Physique-FR
16
 
17
- Ce jeu de données est une version spécialisée ciblant exclusivement le domaine de la **physique** au sein de Wikipédia en français. Il est idéal pour le fine-tuning de modèles de langage sur des connaissances scientifiques.
18
 
19
  ## Construction du Dataset
20
 
21
- La méthode de construction suit la même pipeline que le dataset général, mais avec un filtrage thématique strict dès l'étape SPARQL.
22
 
23
- ### 1. Sélection Thématique
24
- La sélection s'est basée sur la hiérarchie Wikidata pour la classe **Physique** (`Q413`).
25
 
26
- **Requête SPARQL :**
27
  ```sparql
28
- SELECT ?article WHERE {
29
- ?article schema:about ?item .
30
- ?item wdt:P279* wd:Q413 .
31
- ?article schema:inLanguage "fr" .
 
 
 
32
  }
33
  ```
34
- *Note : Cette requête récupère toutes les entités qui héritent (directement ou par transition) de la classe "Physique".*
35
 
36
- ### 2. Pipeline de Traitement
37
- Toutes les étapes de téléchargement, nettoyage et validation sont identiques au dataset général :
38
- - **Extraction plein texte** via API MediaWiki.
39
- - **Suppression du bruit** (formules LaTeX trop complexes, références, méta-données).
40
- - **Segmentation** en paragraphes cohérents de 60 à 600 mots.
41
- - **Validation linguistique** via `FastText` (seuil de confiance 0.90).
42
 
43
- ## Caractéristiques Techniques
 
 
 
 
 
 
44
 
45
- - **Langue** : Français (FR)
46
- - **Domaine** : Physique (générale, théorique, appliquée)
47
- - **Source** : Wikipedia (via extraction structurée)
48
- - **Format** : JSONL (un objet JSON par ligne)
49
 
50
- Exemple d'enregistrement :
 
 
 
 
 
 
 
 
51
  ```json
52
- {"lang": "fr", "domain": "physique_generale", "source": "wikipedia", "text": "Les ondes de basse fréquence (inférieure à un hertz) sont généralement qualifiées de microséismes..."}
53
  ```
54
 
55
- ## Utilisation PRÉVUE
56
- Ce dataset est particulièrement adapté pour :
57
- - Entraîner des "Small Language Models" (SLM) spécialisés.
58
- - Augmenter les capacités de raisonnement scientifique d'un modèle généraliste.
59
- - Tâches de RAG (Retrieval Augmented Generation) dans le domaine scientifique.
60
-
61
  ## Licence
62
- Conformément aux conditions de Wikipédia, ce dataset est disponible sous licence **CC BY-SA 4.0**.
 
3
  - fr
4
  license: cc-by-sa-4.0
5
  size_categories:
6
+ - n < 1M
7
  task_categories:
8
  - text-generation
9
  - fill-mask
 
 
 
10
  ---
11
 
12
+ # Dataset Card for Wiki-General-FR
13
 
14
+ Ce jeu de données contient des extraits textuels nettoyés provenant de Wikipédia en français, couvrant une large variété de domaines (concepts, disciplines scientifiques, théories, phénomènes, etc.).
15
 
16
  ## Construction du Dataset
17
 
18
+ Le dataset a été construit selon une pipeline automatisée en plusieurs étapes :
19
 
20
+ ### 1. Sélection des Pages (SPARQL)
21
+ Les pages ont été sélectionnées via une requête SPARQL sur Wikidata pour cibler des articles de Wikipédia en français liés à des concepts fondamentaux (`Q11344`), des disciplines scientifiques (`Q11862829`), des théories (`Q7184903`), des phénomènes (`Q16722960`), etc.
22
 
23
+ **Requête principale :**
24
  ```sparql
25
+ SELECT DISTINCT ?article WHERE {
26
+ ?article schema:about ?item ;
27
+ schema:inLanguage "fr" .
28
+ { ?item wdt:P31 wd:Q11344 . }
29
+ UNION { ?item wdt:P279* wd:Q11344 . }
30
+ UNION { ?item wdt:P31 wd:Q11862829 . }
31
+ # ... (autres critères de domaines)
32
  }
33
  ```
 
34
 
35
+ ### 2. Téléchargement
36
+ Le contenu brut a été récupéré via l'API MediaWiki (`action=query&prop=extracts&explaintext=True`), garantissant un format texte sans balises HTML. Seuls les extraits de plus de 500 caractères ont été conservés.
 
 
 
 
37
 
38
+ ### 3. Nettoyage et Filtrage
39
+ Le texte a subi un nettoyage rigoureux :
40
+ - Suppression des appels de notes (ex: `[1]`).
41
+ - Suppression du "bruit" (lignes avec trop de chiffres, symboles mathématiques complexes, ou caractères spéciaux).
42
+ - Exclusion des listes à puces et des titres de sections.
43
+ - Découpage en paragraphes de 4 phrases maximum pour la lisibilité.
44
+ - Filtrage par longueur : seuls les paragraphes de plus de 60 mots sont gardés.
45
 
46
+ ### 4. Détection de Langue
47
+ Une validation finale a été effectuée avec `fasttext` (`lid.176.ftz`) pour s'assurer que chaque paragraphe est bien en français avec un score de confiance > 0.90.
 
 
48
 
49
+ ## Format des Données
50
+
51
+ Les données sont au format JSONL. Chaque ligne contient :
52
+ - `lang`: La langue du texte (`fr`).
53
+ - `domain`: Le domaine (`generale`).
54
+ - `source`: La source (`wikipedia`).
55
+ - `text`: Le contenu textuel du paragraphe.
56
+
57
+ Exemple :
58
  ```json
59
+ {"lang": "fr", "domain": "generale", "source": "wikipedia", "text": "Le texte du paragraphe ici..."}
60
  ```
61
 
 
 
 
 
 
 
62
  ## Licence
63
+ Le contenu original provient de Wikipédia et est distribué sous licence **CC BY-SA 4.0**.