Dataset Viewer
Auto-converted to Parquet Duplicate
The dataset viewer is not available for this split.
Cannot load the dataset split (in streaming mode) to extract the first rows.
Error code:   StreamingRowsError
Exception:    CastError
Message:      Couldn't cast
id: string
clause_parent: string
titre_fr: string
titre_en: string
description_fr: string
type: string
nouveau_2022: bool
mots_cles: string
-- schema metadata --
pandas: '{"index_columns": [], "column_indexes": [], "columns": [{"name":' + 1028
to
{'id': Value('string'), 'numero': Value('string'), 'titre_fr': Value('string'), 'titre_en': Value('string'), 'description_fr': Value('string'), 'theme': Value('string'), 'theme_numero': Value('int64'), 'objectif_fr': Value('string'), 'guide_implementation_fr': Value('string'), 'nouveau_2022': Value('bool'), 'mots_cles': Value('string')}
because column names don't match
Traceback:    Traceback (most recent call last):
                File "/src/services/worker/src/worker/utils.py", line 99, in get_rows_or_raise
                  return get_rows(
                         ^^^^^^^^^
                File "/src/libs/libcommon/src/libcommon/utils.py", line 272, in decorator
                  return func(*args, **kwargs)
                         ^^^^^^^^^^^^^^^^^^^^^
                File "/src/services/worker/src/worker/utils.py", line 77, in get_rows
                  rows_plus_one = list(itertools.islice(ds, rows_max_number + 1))
                                  ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/iterable_dataset.py", line 2543, in __iter__
                  for key, example in ex_iterable:
                                      ^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/iterable_dataset.py", line 2060, in __iter__
                  for key, pa_table in self._iter_arrow():
                                       ^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/iterable_dataset.py", line 2083, in _iter_arrow
                  for key, pa_table in self.ex_iterable._iter_arrow():
                                       ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/iterable_dataset.py", line 544, in _iter_arrow
                  for key, pa_table in iterator:
                                       ^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/iterable_dataset.py", line 383, in _iter_arrow
                  for key, pa_table in self.generate_tables_fn(**gen_kwags):
                                       ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/packaged_modules/parquet/parquet.py", line 180, in _generate_tables
                  yield Key(file_idx, batch_idx), self._cast_table(pa_table)
                                                  ^^^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/packaged_modules/parquet/parquet.py", line 143, in _cast_table
                  pa_table = table_cast(pa_table, self.info.features.arrow_schema)
                             ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/table.py", line 2272, in table_cast
                  return cast_table_to_schema(table, schema)
                         ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
                File "/usr/local/lib/python3.12/site-packages/datasets/table.py", line 2218, in cast_table_to_schema
                  raise CastError(
              datasets.table.CastError: Couldn't cast
              id: string
              clause_parent: string
              titre_fr: string
              titre_en: string
              description_fr: string
              type: string
              nouveau_2022: bool
              mots_cles: string
              -- schema metadata --
              pandas: '{"index_columns": [], "column_indexes": [], "columns": [{"name":' + 1028
              to
              {'id': Value('string'), 'numero': Value('string'), 'titre_fr': Value('string'), 'titre_en': Value('string'), 'description_fr': Value('string'), 'theme': Value('string'), 'theme_numero': Value('int64'), 'objectif_fr': Value('string'), 'guide_implementation_fr': Value('string'), 'nouveau_2022': Value('bool'), 'mots_cles': Value('string')}
              because column names don't match

Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.

ISO 27001:2022 - Dataset de Référence en Français

Dataset structuré et complet sur la norme ISO/IEC 27001:2022 - Systèmes de management de la sécurité de l'information (SMSI).

Description

Ce dataset couvre l'intégralité de la norme ISO 27001:2022 en français, incluant :

  • Les clauses 4 à 10 du corps de la norme (exigences du SMSI)
  • Les 93 contrôles de l'Annexe A organisés en 4 thèmes
  • Des questions/réponses couvrant tous les aspects de la norme
  • Un guide d'implémentation étape par étape

Structure du dataset

1. clauses.json - Exigences du SMSI (41 entrées)

Les clauses et sous-clauses 4 à 10 de la norme avec leurs exigences détaillées.

Champ Description
id Identifiant de la clause (ex: "4.1", "6.1.2")
clause_parent Clause parente
titre_fr Titre en français
titre_en Titre original en anglais
description_fr Contenu et exigences de la clause
type "section", "exigence" ou "sous-exigence"
nouveau_2022 Nouveau dans la version 2022
mots_cles Mots-clés pour la recherche

2. annexe_a_controles.json - Les 93 contrôles (93 entrées)

Tous les contrôles de sécurité de l'Annexe A avec descriptions et guides de mise en oeuvre.

Champ Description
id Identifiant du contrôle (ex: "A.5.1", "A.8.28")
numero Numéro court (ex: "5.1")
titre_fr / titre_en Titres français et anglais
description_fr Description officielle du contrôle
theme "Organisationnel", "Personnel", "Physique" ou "Technologique"
theme_numero 5, 6, 7 ou 8
objectif_fr Objectif du contrôle
guide_implementation_fr Conseils pratiques de mise en oeuvre
nouveau_2022 Nouveau dans la version 2022
mots_cles Mots-clés pour la recherche

Répartition des contrôles :

  • A.5 - Contrôles organisationnels : 37
  • A.6 - Contrôles des personnes : 8
  • A.7 - Contrôles physiques : 14
  • A.8 - Contrôles technologiques : 34

3. qa_dataset.json - Questions/Réponses (50 entrées)

Paires Q&A couvrant la norme, les contrôles, l'implémentation, l'audit et la certification.

Champ Description
id Identifiant unique
question Question en français
reponse Réponse détaillée en français
categorie "general", "clause", "controle", "implementation", "audit", "certification"
reference Référence à la clause ou au contrôle
difficulte "debutant", "intermediaire" ou "avance"
mots_cles Mots-clés pour la recherche

4. implementation_guide.json - Guide d'implémentation (20 entrées)

Guide étape par étape pour implémenter un SMSI et obtenir la certification.

Champ Description
id Identifiant unique
sujet_fr Sujet de l'étape
etape Numéro d'étape (1-20)
description_fr Description détaillée
categorie "preparation", "planification", "mise_en_oeuvre", "audit", "certification", "amelioration"
controles_lies Contrôles Annexe A liés
bonnes_pratiques Conseils pratiques
erreurs_courantes Erreurs à éviter

Utilisation

Chargement avec la bibliothèque datasets

from datasets import load_dataset

# Charger un fichier spécifique
ds = load_dataset("AYI-NEDJIMI/iso27001", data_files="data/annexe_a_controles.json")

# Accéder aux données
for control in ds["train"]:
    print(f"{control['id']} - {control['titre_fr']}")

Chargement direct en Python

import json

with open("data/qa_dataset.json", "r", encoding="utf-8") as f:
    qa = json.load(f)

for item in qa:
    print(f"Q: {item['question']}")
    print(f"R: {item['reponse'][:100]}...")
    print()

Chargement avec pandas

import pandas as pd

df = pd.read_parquet("data/annexe_a_controles.parquet")
print(df.groupby("theme").size())

Cas d'utilisation

  • Référence : Base de connaissances structurée sur ISO 27001:2022
  • RAG : Recherche sémantique et génération augmentée sur la norme
  • Fine-tuning : Entraînement de modèles spécialisés en cybersécurité
  • Formation : Support pédagogique pour la préparation à la certification
  • Audit : Checklist de vérification des contrôles
  • Implémentation : Guide pratique pour les projets ISO 27001

Points forts

  • Couverture complète de la norme (clauses + 93 contrôles)
  • Entièrement en français
  • Guides de mise en oeuvre pratiques pour chaque contrôle
  • Identification des 11 nouveaux contrôles de la version 2022
  • Questions/réponses par niveau de difficulté
  • Format multi-tables (JSON + Parquet)

Avertissement

Ce dataset est un outil de référence et de formation. Il ne se substitue pas à la norme officielle ISO/IEC 27001:2022 publiée par l'ISO. Pour une certification, référez-vous toujours au document officiel.

Autres Datasets

Dataset Description Lien
MITRE ATT&CK FR Framework ATT&CK Enterprise complet en français mitre-attack-fr
MITRE ATT&CK EN Framework ATT&CK Enterprise in English mitre-attack-en
ISO 27001 EN ISO 27001:2022 Complete Reference in English iso27001-en
AD Attacks FR Attaques Active Directory en français ad-attacks-fr
AD Attacks EN Active Directory Attacks in English ad-attacks-en

Licence

Ce dataset est distribué sous licence CC BY-SA 4.0.

Citation

@dataset{iso27001_fr_2024,
  title={ISO 27001:2022 - Dataset de Référence en Français},
  author={AYI-NEDJIMI},
  year={2025},
  publisher={Hugging Face},
  url={https://huggingface.co/datasets/AYI-NEDJIMI/iso27001}
}

Auteur & Ressources

Ayi NEDJIMI - Consultant senior en cybersecurite offensive & Intelligence Artificielle

Articles Cybersecurite

Articles Intelligence Artificielle

Reseaux

Downloads last month
25

Spaces using AYI-NEDJIMI/iso27001 2