|
|
--- |
|
|
language: fr |
|
|
license: cc-by-sa-3.0 |
|
|
tags: |
|
|
- wikipedia |
|
|
- corpus-de-texte |
|
|
- non-supervise |
|
|
pretty_name: "Corpus Wikipédia FR (20 avril 2025)" |
|
|
size_categories: |
|
|
- +1B |
|
|
--- |
|
|
|
|
|
# Corpus Wikipédia FR - Snapshot du 20 avril 2025 |
|
|
|
|
|
## Description du Dataset |
|
|
|
|
|
Ce dataset contient un snapshot complet de l'encyclopédie Wikipédia en langue française, tel qu'il existait à la date du **20 avril 2025**. Il inclut la dernière version de chaque page, avec son contenu textuel brut, les titres des pages liées, ainsi qu'un identifiant unique. |
|
|
|
|
|
Le texte de chaque article conserve la structure de formatage MediaWiki pour les titres (`== Titre de section ==`), les sous-titres (`=== Sous-titre ===`), et ainsi de suite. Cela le rend particulièrement utile pour les tâches qui peuvent bénéficier de la structure hiérarchique du document. |
|
|
|
|
|
Ce corpus est idéal pour l'entraînement de modèles de langue, les tâches de recherche d'information (information retrieval), de question-réponse (question-answering), et toute autre recherche en traitement du langage naturel (NLP) nécessitant une grande quantité de texte encyclopédique structuré. |
|
|
|
|
|
## Structure du Dataset |
|
|
|
|
|
### Champs de données (Data Fields) |
|
|
|
|
|
Le dataset est composé des colonnes suivantes : |
|
|
|
|
|
* `id` (string) : Un identifiant unique pour chaque article (par exemple, l'ID de la page sur Wikipédia). |
|
|
* `title` (string) : Le titre de l'article Wikipédia. |
|
|
* `text` (string) : Le contenu textuel complet de l'article. La structure des sections est préservée avec la syntaxe `==`, `===`, `====`, etc. |
|
|
* `linked_titles` (list of strings) : Une liste contenant les titres des autres articles Wikipédia qui sont liés depuis le champ `text`. |
|
|
|
|
|
### Splits de Données (Data Splits) |
|
|
|
|
|
Le dataset ne contient qu'un seul split : `train`, qui comprend l'ensemble des articles du dump. |
|
|
|
|
|
## Utilisation |
|
|
|
|
|
Vous pouvez charger et utiliser ce dataset facilement avec la bibliothèque `datasets` de Hugging Face. |
|
|
|
|
|
|
|
|
```python |
|
|
from datasets import load_dataset |
|
|
|
|
|
# Charger le dataset |
|
|
dataset = load_dataset("OrdalieTech/wiki_fr") |
|
|
|
|
|
# Afficher les informations sur le dataset |
|
|
print(dataset) |
|
|
# >>> DatasetDict({ |
|
|
# >>> train: Dataset({ |
|
|
# >>> features: ['id', 'title', 'text', 'linked_titles'], |
|
|
# >>> num_rows: 2700000 # Exemple |
|
|
# >>> }) |
|
|
# >>> }) |
|
|
|
|
|
# Accéder à un exemple |
|
|
premier_article = dataset['train'][0] |
|
|
print("Titre:", premier_article['title']) |
|
|
print("\nExtrait du texte:", premier_article['text'][:500]) |
|
|
print("\nTitres liés:", premier_article['linked_titles'][:5]) |