pretty_name: French Science Commons
size_categories:
- 1M<n<10M
French Science Commons
French Science Commons (Commun numérique des sciences en français) rassemble des publications scientifiques d'origine française en accès ouvert, couvrant une période de vingt ans, de 2007 à 2026. Il comprend 1 248 860 documents scientifiques — 1 189 628 articles et 59 232 thèses — indexés à travers de multiples dépôts académiques en accès public, tels que HAL, OpenAlex, des revues scientifiques, des dépôts institutionnels, et d'autres.
Le corpus est conçu dans un souci de polyvalence, le rendant adapté à une variété d'applications en aval au sein de la communauté scientifique et au-delà, notamment le développement de modèles de langue spécialisés et l'exploration de motifs thématiques par le biais de visualisations.
Le projet s'inscrit dans une initiative plus large visant à soutenir la découvrabilité de la science en langue française dans un contexte de surproduction scientifique dominée par l'anglais. Il a pour objectif d'établir des communs numériques partagés au sein de la Francophonie, fondés sur des principes de souveraineté linguistique et culturelle, de traçabilité, de transparence et d'intégrité scientifique.
French Science Commons (Commun numérique des sciences en français) brings together French-origin scientific publications in open access, covering a twenty year span from 2007 to 2026. It comprises 1 248 860 scientific documents — 1 189 628 articles and 59 232 thesis — indexed across multiple public access academic repositories, like HAL, OpenAlex, scientific journals, institutional repositories, and others.
The corpus is designed with versatility in mind, making it suitable for a variety of downstream applications within the research community and beyond, including developing domain-specific language models and exploring thematic patterns through visualizations.
The project is part of a broader initiative to support the discoverability of French-language science in a context of scientific overproduction dominated by English. It aims to establish shared digital commons within the Francophonie, grounded in principles of linguistic and cultural sovereignty, traceability, transparency, and scientific integrity.
Aperçu du jeu de données
| Propriété | Valeur |
|---|---|
| Total de documents | 1 248 860 |
| Total de mots | 15 694 707 465 |
| Période couverte | Documents mis à disposition sur les dépôts de 2007 à 2026 (certains publiés avant cette période) |
| Sources | HAL, OpenAlex, autres (précisées dans le jeu de données pour chaque entrée) |
| Format de fichier | Parquet |
| Licences | Précisées dans le jeu de données pour chaque entrée. Voir la section dédiée ci-dessous pour plus de détails |
| Property | Value |
|---|---|
| Total documents | 1 248 860 |
| Total words | 15 694 707 465 |
| Date range | Documents made available on the repositories from 2007-2026 (some published before this range) |
| Sources | HAL, OpenAlex, others (specified in the dataset per entry) |
| File format | Parquet |
| Licenses | Specified in the dataset per entry. See specific section below for more details |
Motivation
La science en langue française est systématiquement sous-représentée dans les corpus d'entraînement des grands modèles de langage, largement dominés par les contenus en anglais. Ce corpus comble cette lacune en fournissant une ressource de haute qualité, sous licence ouverte et richement structurée, destinée à :
- L'entraînement de systèmes de génération augmentée par la recherche (RAG) et de modèles de langage spécialisés
- L'exploration thématique par le biais de visualisations sémantiques interactives
- La classification et l'indexation de contenus scientifiques
- L'aide à la rédaction scientifique, la traduction et la vulgarisation
- L'enseignement et la formation dans les domaines scientifiques francophones
Bien que le corpus soit majoritairement en français (80 % des pages numérisées), il inclut également des travaux dans d'autres langues (généralement l'anglais) rédigés en France ou dans d'autres pays francophones.
Le périmètre pluridisciplinaire du corpus est un choix de conception délibéré visant à maximiser l'adoption. Nous avons conservé la classification par « discipline » présente dans les dépôts d'origine et avons également regroupé ces disciplines en 6 supra-catégories (« supra »), basées sur la classification des domaines de recherche de l'OCDE selon le Manuel de Frascati. Les 6 supra-catégories sont :
- Sciences naturelles
- Ingénierie et technologie
- Sciences médicales et de la santé
- Sciences agricoles et vétérinaires
- Sciences sociales
- Sciences humaines et arts
French-language science is systematically underrepresented in large language model training corpora, which are dominated by English-language content. This corpus addresses that gap by providing a high-quality, openly licensed, and richly structured resource for:
- Training retrieval-augmented systems and specialised language models
- Thematic exploration through interactive semantic visualisation
- Classification and indexing of scientific content
- Scientific writing assistance, translation, and popularisation
- Education and training in French-language scientific domains
While the corpus is mostly in French (80% of digitized pages), we also feature works in additional languages (generally English) written in France or other French-speaking countries.
The multidisciplinary scope of the corpus is a deliberate design choice to maximise adoption. We kept the “discipline” classification found in the original repositories and also grouped those disciplines into 6 supra-categories (“supra”), based on the OECD Frascati - Research Areas classification. The 6 supra-categories are:
- Natural sciences
- Engineering and technology
- Medical and health sciences
- Agricultural and veterinary sciences
- Social sciences
- Humanities and arts
Structure du jeu de données
Les données sont structurées au niveau de la page : chaque ligne représente une page d'un document source, accompagnée de métadonnées riches au niveau du document (identifiant, auteur, titre, DOI, discipline, licence) répétées sur l'ensemble des lignes. Les documents complets peuvent être reconstitués en regroupant par id et en ordonnant par page.
The data is structured at page level: each row represents one page of a source document, with rich metadata at the document level (id, author, title, DOI, discipline, license) repeated across rows. Full documents can be reconstructed by grouping on id and ordering by page.
Champs de données
| Champ | Description |
|---|---|
id |
Identifiant unique du document (identifiant OpenAlex ou équivalent) |
title |
Titre du document |
author |
Auteur(s) du document |
publication_date |
Date de publication |
doi |
Digital Object Identifier (identifiant numérique d'objet) |
language |
Langue du document (ex. fr, en) |
license |
Licence du document source (ex. cc-by, cc0) |
terms |
Conditions d'utilisation supplémentaires, le cas échéant |
discipline |
Classification d'origine trouvée dans le dépôt (ex. Sciences humaines et sociales, Sciences cognitives) |
source |
Dépôt ou revue d'origine |
page |
Numéro de page au sein du PDF source |
text |
Contenu textuel extrait de la page, au format Markdown |
word_count |
Nombre de mots de l'entrée |
supra |
Classification basée sur les supra-catégories des domaines de recherche de l'OCDE |
| Field | Description |
|---|---|
id |
Unique document identifier (OpenAlex ID or equivalent) |
title |
Title of the document |
author |
Author(s) of the document |
publication_date |
Publication date |
doi |
Digital Object Identifier |
language |
Language of the document (e.g. fr, en) |
license |
License of the source document (e.g. cc-by, cc0) |
terms |
Additional usage terms, if any |
discipline |
Original classification found in the repository (e.g. Sciences humaines et sociales, Sciences cognitives) |
source |
Repository or journal of origin |
page |
Page number within the source PDF |
text |
Extracted text content of the page, in Markdown format |
word_count |
Entry's word count |
supra |
Classification based on the OECD - Research Areas supra categories |
Pipeline de traitement
L'un des défis majeurs dans la construction de ce corpus a été la conversion des PDF scientifiques en texte structuré. Les approches naïves d'OCR se sont révélées insuffisantes compte tenu de la complexité des mises en page académiques (texte multi-colonnes, formules mathématiques, tableaux, figures).
Le pipeline procède comme suit :
- Rendu PDF — chaque page de chaque PDF source est rendue sous forme d'image.
- OCR par vision — les pages sont traitées à l'aide de dots.ocr, un modèle de langage-vision open source qui produit une sortie directement au format Markdown.
- Préservation de la structure — le modèle préserve la structure du document, y compris les titres, sous-titres, listes, tableaux, formules mathématiques et autres éléments.
Cette approche produit des données d'entraînement de plus haute fidélité par rapport aux pipelines qui extraient du texte brut non formaté, car elle conserve les relations sémantiques et syntaxiques présentes dans les documents originaux.
A key challenge in building this corpus was converting scientific PDFs into structured text. Naive OCR approaches were insufficient given the complexity of academic layouts (multi-column text, mathematical formulas, tables, figures).
The pipeline proceeds as follows:
- PDF rendering — each page of every source PDF is rendered as a image.
- Vision-based OCR — pages are processed using dots.ocr, an open-source vision-language model that produces output directly in Markdown format.
- Structure preservation — the model preserves document structure including headings, subheadings, lists, tables, mathematical formulas and others.
This approach produces higher-fidelity training data compared to pipelines that extract plain, unformatted text, as it retains both semantic and syntactic relationships present in the original documents.
Répartition par catégorie
Corpus constitution by supra-category
Conditions d'utilisation
Le corpus est divisé en deux collections principales avec des conditions de partage différentes : « French Open Science » et « HAL Open Access ».
French Open Science
Cette collection inclut la plupart des publications scientifiques françaises sous licences libres autorisant la réutilisation (principalement CC-By, CC-By-SA, CC0 et la Licence ouverte française). Chaque document conserve sa propre licence, accompagnée de métadonnées de provenance garantissant une attribution complète. En complément de HAL, nous avons utilisé OpenAlex pour recenser exclusivement les publications sous licence libre provenant d'une variété de sources issues de la Francophonie au sens large (y compris Érudit).
HAL Open Access
Ce jeu de données a été extrait de l'archive ouverte de HAL, qui diffuse des publications scientifiques selon les principes de l'accès ouvert. Il s'inscrit dans la continuité du projet Halvest d'Almanach et est mis à disposition dans les mêmes conditions : le corpus est composé à la fois de documents sous licence Creative Commons et de documents soumis au droit d'auteur (dont la diffusion est autorisée sur HAL par l'éditeur). Cela doit être pris en considération avant toute utilisation de ce jeu de données à des fins autres que l'entraînement de modèles d'apprentissage profond, la fouille de données, etc. Nous ne détenons aucun droit sur les textes à partir desquels ces données ont été extraites. La colonne « terms » fournit un résumé de ces conditions pour chaque document.
The corpus is divided into two main collections with different sharing terms: “French Open Science” and “HAL Open Access”.
French Open Science
This includes most French scientific publications under free licenses allowing for reuse (mostly, CC-By, CC-By-SA, CC0 and the French Licence ouverte). Each document keeps its own license with provenance metadata ensuring full attribution. Along with HAL we used OpenAlex to track exclusively free licensed publications from a variety of sources from the wider Francophonie (including Érudit).
HAL Open Access
The dataset has been extracted from the HAL's open archive which distributes scientific publications following open access principles. It follows on from the Halvest project from Almanach and is made available under the same conditions: the corpus is made up of both creative commons licensed and copyrighted documents (distribution authorized on HAL by the publisher). This must be considered prior to using this dataset for any purpose, other than training deep learning models, data mining etc. We do not own any of the text from which this data has been extracted. The column “terms” provide a summary of these conditions for each document.
Remerciements
Nous remercions nos partenaires pour leur soutien et leurs contributions inestimables. We thank our partners for their invaluable support and contributions:
- French Ministry of Culture
- OPERAS — European research infrastructure partner
- Chaire de recherche du Québec sur la découvrabilité des contenus scientifiques en français — research partner
- Délégation générale à la langue française et aux langues de France (DGLFLF) — funding support
Tous les documents ont été traités à l'aide du modèle OCR VLM à poids ouverts dots.ocr, développé par Rednote-Hilab,
All documents have been processed using the open weights VLM OCR model dots.ocr, developed by Rednote-Hilab,