Dataset Viewer (First 5GB)
Auto-converted to Parquet Duplicate
title
stringclasses
1 value
text
stringlengths
158
426k
url
stringclasses
1 value
language
stringclasses
1 value
Antoine Meillet, né le à Moulins (Allier) et mort le à Châteaumeillant (Cher), est un philologue français, le principal linguiste français des premières décennies du . Biographie Enfance et formation Paul Jules Antoine Meillet est d'origine bourbonnaise, fils d'un notaire de Châteaumeillant (Cher). Il naît à Moulins...
fr
L’algèbre linéaire est la branche des mathématiques qui s'intéresse aux espaces vectoriels et aux transformations linéaires, formalisation générale des théories des systèmes d'équations linéaires. Histoire L'algèbre linéaire est initiée dans son principe par le mathématicien perse Al-Khwârizmî qui s'est inspiré des t...
fr
L'algèbre générale, ou algèbre abstraite, est la branche des mathématiques qui porte principalement sur l'étude des structures algébriques et de leurs relations. L'appellation algèbre générale s'oppose à celle d'algèbre élémentaire ; cette dernière enseigne le calcul algébrique, c'est-à-dire les règles de manipulation ...
fr
Lalgorithmique est l'étude et la production de règles et techniques qui sont impliquées dans la définition et la conception d'algorithmes, c'est-à-dire de processus systématiques de résolution d'un problème permettant de décrire précisément des étapes pour résoudre un problème algorithmique. Étymologie Le mot « algor...
fr
L'Argentine est une république présidentielle multipartite, où le président est à la fois chef de l'État et chef du gouvernement. Le pouvoir exécutif est détenu par le gouvernement et le pouvoir législatif est partagé entre le gouvernement et les deux chambres du Congrès. Le pouvoir judiciaire est indépendant des deux ...
fr
L'Armée républicaine irlandaise (, IRA ; ) est le nom porté, depuis le début du , par plusieurs organisations paramilitaires luttant par les armes contre la présence britannique en Irlande. Les différents groupes se réfèrent à eux comme Óglaigh na hÉireann (« volontaires d'Irlande »). L' appelée aussi Old IRA, issue ...
fr
LAutriche ( ), en forme longue la république d'Autriche (), est un État fédéral d'Europe centrale, sans accès à la mer. Pays montagneux, il est entouré, dans le sens des aiguilles d'une montre, par l'Allemagne et la Tchéquie au nord, la Slovaquie et la Hongrie à l'est, la Slovénie et l'Italie au sud, et par la Suisse e...
fr
L'arc de triomphe de l'Étoile, souvent appelé simplement l'Arc de Triomphe, est un monument de type tétrapyle situé à Paris, en un point haut à la jonction des territoires des , et arrondissements, notamment au sommet de l'avenue des Champs-Élysées et de l'avenue de la Grande-Armée, lesquelles constituent un grand axe ...
fr
Arsène Lupin est un personnage de fiction français créé par Maurice Leblanc. Ce gentleman cambrioleur est particulièrement connu pour son talent à user de déguisements, à se grimer et à prendre des identités multiples pour commettre ses délits et résoudre des énigmes criminelles. Le héros apparaît pour la première foi...
fr
Un algorithme est une suite finie et non ambiguë d'instructions et d’opérations permettant de résoudre une classe de problèmes. Le domaine qui étudie les algorithmes est appelé l'algorithmique. On retrouve aujourd'hui des algorithmes dans de nombreuses applications telles que le fonctionnement des ordinateurs, la cryp...
fr
End of preview. Expand in Data Studio

Wikipedia French - JULIAN Training Dataset

Ce dataset contient les articles Wikipedia français nettoyés utilisés pour entraîner le modèle de langage JULIAN-100M.

Description du Dataset

  • Langue: Français
  • Source: Dumps Wikipedia (dernière version disponible)
  • Taille: 950 millions de tokens (7.3GB JSONL, ~1.5-2GB Parquet)
  • Format: Articles nettoyés avec titre, texte et URL
  • Licence: Creative Commons Attribution-ShareAlike 3.0

Structure du Dataset

Champs de Données

  • title (string): Titre de l'article
  • text (string): Texte complet de l'article (nettoyé et formaté)
  • url (string): URL Wikipedia originale
  • language (string): Code langue ("fr")

Exemple de Données

{
  "title": "Intelligence artificielle",
  "text": "L'intelligence artificielle (IA) est un ensemble de théories et de techniques...",
  "url": "https://fr.wikipedia.org/wiki/Intelligence_artificielle",
  "language": "fr"
}

Collecte des Données

Source

Téléchargé depuis Wikimedia dumps (Wikipedia français).

Pipeline de Traitement

  1. Téléchargement: Dernier dump XML Wikipedia français
  2. Extraction: Parse XML, extraction du texte des articles
  3. Nettoyage:
    • Suppression du markup Wiki et des templates
    • Suppression des infoboxes et éléments de navigation
    • Nettoyage des entités HTML et caractères spéciaux
    • Suppression des articles très courts (<50 caractères)
    • Suppression du contenu dupliqué
  4. Filtrage:
    • Conservation uniquement des articles du namespace principal
    • Suppression des pages de désambiguïsation et redirections
    • Filtrage du contenu de faible qualité
  5. Formatage: Conversion en JSONL avec champs structurés

Statistiques

Métrique Valeur
Articles Totaux ~2.5 millions
Tokens Totaux ~950 millions
Longueur Moyenne Article ~380 tokens
Caractères Totaux ~5.7 milliards

Utilisation

Chargement avec Datasets Library

from datasets import load_dataset

# Charger le dataset complet
dataset = load_dataset("juliankerignard/wikipedia-fr-julian", split="train")

# Streaming pour grands datasets
dataset = load_dataset("juliankerignard/wikipedia-fr-julian", split="train", streaming=True)

# Exemple: Obtenir le premier article
print(dataset[0]['title'])
print(dataset[0]['text'][:200])

Exemple d'Entraînement

from datasets import load_dataset
import sentencepiece as spm

# Charger dataset
dataset = load_dataset("juliankerignard/wikipedia-fr-julian", split="train", streaming=True)

# Charger tokenizer
tokenizer = spm.SentencePieceProcessor()
tokenizer.Load("julian_24k.model")

# Tokeniser et préparer pour l'entraînement
def tokenize_function(examples):
    return {"input_ids": tokenizer.EncodeAsIds(examples["text"])}

tokenized_dataset = dataset.map(tokenize_function, batched=True)

Limitations et Biais

Limitations

  1. Biais Wikipedia: Reflète les politiques éditoriales et la démographie des contributeurs Wikipedia
  2. Lacunes de Couverture: Certains sujets sont sur-représentés (technologie, culture occidentale), d'autres sous-représentés
  3. Instantané Temporel: Les connaissances sont figées au moment du dump
  4. Homogénéité de Style: Style encyclopédique, pas conversationnel ou créatif

Biais Potentiels

  • Géographique: Wikipedia français a plus de couverture des pays francophones (France, Belgique, Suisse)
  • Démographique: Reflète la démographie des éditeurs Wikipedia (majoritairement masculins, européens)
  • Thématique: Technologie et culture populaire sur-représentées vs sujets non-occidentaux
  • Récence: Événements récents plus couverts que sujets historiques

Considérations Éthiques

  • Contient du contenu encyclopédique pouvant inclure des sujets sensibles
  • Non adapté pour entraîner des modèles utilisés dans des décisions critiques
  • Les utilisateurs doivent être conscients des biais connus de Wikipedia
  • Recommandé pour la recherche et l'éducation

Licence

Ce dataset est dérivé du contenu Wikipedia, qui est sous licence:

  • Creative Commons Attribution-ShareAlike 3.0 Unported (CC BY-SA 3.0)
  • GNU Free Documentation License (GFDL)

Voir Politique de copyright Wikipedia pour détails.

Citation

Si vous utilisez ce dataset, veuillez citer:

@misc{julian_wikipedia_fr_2025,
  title={Wikipedia French - JULIAN Training Dataset},
  author={Julian Kerignard},
  year={2025},
  howpublished={\\url{https://huggingface.co/datasets/juliankerignard/wikipedia-fr-julian}},
  note={Dérivé des dumps Wikipedia français}
}

Citez également le contenu Wikipedia original:

@misc{wikipedia_fr,
  author = "{Contributeurs Wikipedia}",
  title = "Wikipedia français",
  year = "2025",
  howpublished = {\\url{https://fr.wikipedia.org/}},
  note = "[En ligne; consulté le DATE]"
}

Ressources Liées

Contact


Note: Ceci est un dataset de recherche créé pour entraîner le modèle de langage JULIAN-100M. Pour le contenu Wikipedia le plus récent, veuillez visiter wikipedia.org.

Downloads last month
53

Models trained or fine-tuned on JulianKrgd/wikipedia-fr-julian

Collection including JulianKrgd/wikipedia-fr-julian