language: fr
license: cc-by-sa-3.0
tags:
- wikipedia
- corpus-de-texte
- non-supervise
pretty_name: Corpus Wikipédia FR (20 avril 2025)
size_categories:
- +1B
Corpus Wikipédia FR - Snapshot du 20 avril 2025
Description du Dataset
Ce dataset contient un snapshot complet de l'encyclopédie Wikipédia en langue française, tel qu'il existait à la date du 20 avril 2025. Il inclut la dernière version de chaque page, avec son contenu textuel brut, les titres des pages liées, ainsi qu'un identifiant unique.
Le texte de chaque article conserve la structure de formatage MediaWiki pour les titres (== Titre de section ==), les sous-titres (=== Sous-titre ===), et ainsi de suite. Cela le rend particulièrement utile pour les tâches qui peuvent bénéficier de la structure hiérarchique du document.
Ce corpus est idéal pour l'entraînement de modèles de langue, les tâches de recherche d'information (information retrieval), de question-réponse (question-answering), et toute autre recherche en traitement du langage naturel (NLP) nécessitant une grande quantité de texte encyclopédique structuré.
Structure du Dataset
Champs de données (Data Fields)
Le dataset est composé des colonnes suivantes :
id(string) : Un identifiant unique pour chaque article (par exemple, l'ID de la page sur Wikipédia).title(string) : Le titre de l'article Wikipédia.text(string) : Le contenu textuel complet de l'article. La structure des sections est préservée avec la syntaxe==,===,====, etc.linked_titles(list of strings) : Une liste contenant les titres des autres articles Wikipédia qui sont liés depuis le champtext.
Splits de Données (Data Splits)
Le dataset ne contient qu'un seul split : train, qui comprend l'ensemble des articles du dump.
Utilisation
Vous pouvez charger et utiliser ce dataset facilement avec la bibliothèque datasets de Hugging Face.
from datasets import load_dataset
# Charger le dataset
dataset = load_dataset("OrdalieTech/wiki_fr")
# Afficher les informations sur le dataset
print(dataset)
# >>> DatasetDict({
# >>> train: Dataset({
# >>> features: ['id', 'title', 'text', 'linked_titles'],
# >>> num_rows: 2700000 # Exemple
# >>> })
# >>> })
# Accéder à un exemple
premier_article = dataset['train'][0]
print("Titre:", premier_article['title'])
print("\nExtrait du texte:", premier_article['text'][:500])
print("\nTitres liés:", premier_article['linked_titles'][:5])