Datasets:
Upload README.md with huggingface_hub
Browse files
README.md
CHANGED
|
@@ -3,60 +3,61 @@ language:
|
|
| 3 |
- fr
|
| 4 |
license: cc-by-sa-4.0
|
| 5 |
size_categories:
|
| 6 |
-
- n <
|
| 7 |
task_categories:
|
| 8 |
- text-generation
|
| 9 |
- fill-mask
|
| 10 |
-
tags:
|
| 11 |
-
- physics
|
| 12 |
-
- science
|
| 13 |
---
|
| 14 |
|
| 15 |
-
# Dataset Card for Wiki-
|
| 16 |
|
| 17 |
-
Ce jeu de données
|
| 18 |
|
| 19 |
## Construction du Dataset
|
| 20 |
|
| 21 |
-
|
| 22 |
|
| 23 |
-
### 1. Sélection
|
| 24 |
-
|
| 25 |
|
| 26 |
-
**Requête
|
| 27 |
```sparql
|
| 28 |
-
SELECT ?article WHERE {
|
| 29 |
-
?article schema:about ?item
|
| 30 |
-
|
| 31 |
-
?
|
|
|
|
|
|
|
|
|
|
| 32 |
}
|
| 33 |
```
|
| 34 |
-
*Note : Cette requête récupère toutes les entités qui héritent (directement ou par transition) de la classe "Physique".*
|
| 35 |
|
| 36 |
-
### 2.
|
| 37 |
-
|
| 38 |
-
- **Extraction plein texte** via API MediaWiki.
|
| 39 |
-
- **Suppression du bruit** (formules LaTeX trop complexes, références, méta-données).
|
| 40 |
-
- **Segmentation** en paragraphes cohérents de 60 à 600 mots.
|
| 41 |
-
- **Validation linguistique** via `FastText` (seuil de confiance 0.90).
|
| 42 |
|
| 43 |
-
##
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 44 |
|
| 45 |
-
|
| 46 |
-
|
| 47 |
-
- **Source** : Wikipedia (via extraction structurée)
|
| 48 |
-
- **Format** : JSONL (un objet JSON par ligne)
|
| 49 |
|
| 50 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 51 |
```json
|
| 52 |
-
{"lang": "fr", "domain": "
|
| 53 |
```
|
| 54 |
|
| 55 |
-
## Utilisation PRÉVUE
|
| 56 |
-
Ce dataset est particulièrement adapté pour :
|
| 57 |
-
- Entraîner des "Small Language Models" (SLM) spécialisés.
|
| 58 |
-
- Augmenter les capacités de raisonnement scientifique d'un modèle généraliste.
|
| 59 |
-
- Tâches de RAG (Retrieval Augmented Generation) dans le domaine scientifique.
|
| 60 |
-
|
| 61 |
## Licence
|
| 62 |
-
|
|
|
|
| 3 |
- fr
|
| 4 |
license: cc-by-sa-4.0
|
| 5 |
size_categories:
|
| 6 |
+
- n < 1M
|
| 7 |
task_categories:
|
| 8 |
- text-generation
|
| 9 |
- fill-mask
|
|
|
|
|
|
|
|
|
|
| 10 |
---
|
| 11 |
|
| 12 |
+
# Dataset Card for Wiki-General-FR
|
| 13 |
|
| 14 |
+
Ce jeu de données contient des extraits textuels nettoyés provenant de Wikipédia en français, couvrant une large variété de domaines (concepts, disciplines scientifiques, théories, phénomènes, etc.).
|
| 15 |
|
| 16 |
## Construction du Dataset
|
| 17 |
|
| 18 |
+
Le dataset a été construit selon une pipeline automatisée en plusieurs étapes :
|
| 19 |
|
| 20 |
+
### 1. Sélection des Pages (SPARQL)
|
| 21 |
+
Les pages ont été sélectionnées via une requête SPARQL sur Wikidata pour cibler des articles de Wikipédia en français liés à des concepts fondamentaux (`Q11344`), des disciplines scientifiques (`Q11862829`), des théories (`Q7184903`), des phénomènes (`Q16722960`), etc.
|
| 22 |
|
| 23 |
+
**Requête principale :**
|
| 24 |
```sparql
|
| 25 |
+
SELECT DISTINCT ?article WHERE {
|
| 26 |
+
?article schema:about ?item ;
|
| 27 |
+
schema:inLanguage "fr" .
|
| 28 |
+
{ ?item wdt:P31 wd:Q11344 . }
|
| 29 |
+
UNION { ?item wdt:P279* wd:Q11344 . }
|
| 30 |
+
UNION { ?item wdt:P31 wd:Q11862829 . }
|
| 31 |
+
# ... (autres critères de domaines)
|
| 32 |
}
|
| 33 |
```
|
|
|
|
| 34 |
|
| 35 |
+
### 2. Téléchargement
|
| 36 |
+
Le contenu brut a été récupéré via l'API MediaWiki (`action=query&prop=extracts&explaintext=True`), garantissant un format texte sans balises HTML. Seuls les extraits de plus de 500 caractères ont été conservés.
|
|
|
|
|
|
|
|
|
|
|
|
|
| 37 |
|
| 38 |
+
### 3. Nettoyage et Filtrage
|
| 39 |
+
Le texte a subi un nettoyage rigoureux :
|
| 40 |
+
- Suppression des appels de notes (ex: `[1]`).
|
| 41 |
+
- Suppression du "bruit" (lignes avec trop de chiffres, symboles mathématiques complexes, ou caractères spéciaux).
|
| 42 |
+
- Exclusion des listes à puces et des titres de sections.
|
| 43 |
+
- Découpage en paragraphes de 4 phrases maximum pour la lisibilité.
|
| 44 |
+
- Filtrage par longueur : seuls les paragraphes de plus de 60 mots sont gardés.
|
| 45 |
|
| 46 |
+
### 4. Détection de Langue
|
| 47 |
+
Une validation finale a été effectuée avec `fasttext` (`lid.176.ftz`) pour s'assurer que chaque paragraphe est bien en français avec un score de confiance > 0.90.
|
|
|
|
|
|
|
| 48 |
|
| 49 |
+
## Format des Données
|
| 50 |
+
|
| 51 |
+
Les données sont au format JSONL. Chaque ligne contient :
|
| 52 |
+
- `lang`: La langue du texte (`fr`).
|
| 53 |
+
- `domain`: Le domaine (`generale`).
|
| 54 |
+
- `source`: La source (`wikipedia`).
|
| 55 |
+
- `text`: Le contenu textuel du paragraphe.
|
| 56 |
+
|
| 57 |
+
Exemple :
|
| 58 |
```json
|
| 59 |
+
{"lang": "fr", "domain": "generale", "source": "wikipedia", "text": "Le texte du paragraphe ici..."}
|
| 60 |
```
|
| 61 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 62 |
## Licence
|
| 63 |
+
Le contenu original provient de Wikipédia et est distribué sous licence **CC BY-SA 4.0**.
|