Spaces:
Build error
Build error
| # STATUS.md — Sprint 2 : Pipeline page unique | |
| ## Sprint : 2 — Session A | |
| ## Objectif du sprint : 1 image → 1 master.json valide via Google AI | |
| --- | |
| ## Ce qui est fait (Sprint 1 ✓) | |
| - [x] Repo GitHub structuré, arborescence complète | |
| - [x] Schémas Pydantic : corpus_profile.py, page_master.py, annotation.py | |
| - [x] 4 profils JSON (medieval-illuminated, medieval-textual, early-modern-print, modern-handwritten) | |
| - [x] 9 templates de prompts versionnés | |
| - [x] 54 tests pytest passants (26 schemas + 28 profiles) | |
| - [x] pyproject.toml configuré | |
| - [x] 6 secrets GitHub en place : | |
| GOOGLE_AI_STUDIO_API_KEY, VERTEX_API_KEY, VERTEX_PROJECT_ID, | |
| VERTEX_LOCATION, VERTEX_SERVICE_ACCOUNT_JSON, AI_PROVIDER | |
| --- | |
| ## Contexte important pour ce sprint | |
| ### Providers Google AI disponibles | |
| Trois options configurées, priorité : | |
| - AI_PROVIDER=vertex_api_key → clé AQ.Ab... (Vertex Express, production) | |
| - AI_PROVIDER=google_ai_studio → clé AIza... (gratuit, développement) | |
| - AI_PROVIDER=vertex_service_account → JSON credentials (institutions) | |
| ### Format de clé Vertex non confirmé | |
| La clé Vertex commence par AQ.Ab (format OAuth2 Vertex Express). | |
| La syntaxe SDK exacte pour ce format N'EST PAS encore validée. | |
| La Session A commence par ce test — avant tout le reste. | |
| ### Images test disponibles | |
| Pas d'images locales. On travaille avec des URLs IIIF directes. | |
| URL Beatus haute résolution (profil medieval-illuminated) : | |
| https://gallica.bnf.fr/iiif/ark:/12148/btv1b52505441p/f233/full/full/0/native.jpg | |
| URL Beatus basse résolution (même folio, qualité réduite — test confidence) : | |
| https://gallica.bnf.fr/iiif/ark:/12148/btv1b52505441p/f233/full/600,/0/native.jpg | |
| URL second corpus — Grandes Chroniques de France (profil medieval-textual) : | |
| https://gallica.bnf.fr/iiif/ark:/12148/btv1b84472995/f16/full/full/0/native.jpg | |
| Pourquoi tester deux résolutions du Beatus : | |
| Les deux images doivent produire un master.json valide. | |
| La basse résolution doit retourner un score confidence plus faible | |
| et potentiellement déclencher le statut needs_review si < flag_below (0.4). | |
| Cela valide que les seuils du profil fonctionnent correctement. | |
| --- | |
| ## Session A — Connexion Google AI + listage modèles | |
| ### Objectif | |
| Valider que les 3 providers fonctionnent et lister les modèles disponibles. | |
| Aucun traitement d'image. Aucun master.json. Juste la connexion. | |
| ### Tâches dans l'ordre | |
| 1. Créer backend/app/services/ai/__init__.py (vide) | |
| 2. Créer backend/app/services/ai/client.py | |
| → factory get_ai_client() avec les 3 options | |
| → Option B (vertex_api_key) : tester les deux syntaxes possibles | |
| et documenter celle qui fonctionne dans un commentaire | |
| 3. Créer backend/app/services/ai/models.py | |
| → fonction list_available_models(client) → list[dict] | |
| → filtrer sur les modèles qui supportent generateContent + vision | |
| → retourner : id, display_name, supports_vision | |
| 4. Créer backend/tests/test_ai_connection.py | |
| → test_option_a_google_ai_studio() : connexion + list_models | |
| → test_option_b_vertex_api_key() : connexion + list_models | |
| → test_option_c_vertex_service_account() : connexion + list_models | |
| → Chaque test affiche les modèles disponibles dans les logs | |
| 5. Lancer pytest test_ai_connection.py | |
| → documenter dans DECISIONS.md la syntaxe exacte validée pour AQ.Ab | |
| ### Critère de done Session A | |
| Les 3 tests de connexion passent. | |
| On sait quelle syntaxe fonctionne pour la clé AQ.Ab. | |
| La liste des modèles disponibles est affichée pour chaque provider. | |
| ### Ne pas faire en Session A | |
| - Aucun traitement d'image | |
| - Aucun appel de prompt | |
| - Aucune ingestion de corpus | |
| --- | |
| ## Session B — Ingestion + préparation image | |
| ### Objectif | |
| Ingérer une image depuis une URL IIIF et produire un dérivé web prêt pour l'IA. | |
| ### Tâches dans l'ordre | |
| 1. Créer backend/app/services/ingest/__init__.py | |
| 2. Créer backend/app/services/ingest/image_loader.py | |
| → load_from_url(url) → image bytes + dimensions | |
| → load_from_file(path) → image bytes + dimensions | |
| → Pillow pour lire et redimensionner | |
| 3. Créer backend/app/services/image/__init__.py | |
| 4. Créer backend/app/services/image/processor.py | |
| → make_derivative(image_bytes, max_size=1500) → JPEG bytes | |
| → get_dimensions(image_bytes) → (width, height) | |
| 5. Tester sur les 3 URLs dans l'ordre : | |
| - Beatus haute résolution : | |
| https://gallica.bnf.fr/iiif/ark:/12148/btv1b52505441p/f233/full/full/0/native.jpg | |
| - Beatus basse résolution : | |
| https://gallica.bnf.fr/iiif/ark:/12148/btv1b52505441p/f233/full/600,/0/native.jpg | |
| - Grandes Chroniques : | |
| https://gallica.bnf.fr/iiif/ark:/12148/btv1b84472995/f16/full/full/0/native.jpg | |
| → vérifier que les 3 images se téléchargent et se redimensionnent | |
| → vérifier que les dimensions sont bien extraites pour chaque cas | |
| 6. Ajouter tests/test_image_processing.py | |
| ### Critère de done Session B | |
| Les 3 URLs produisent chacune un JPEG dérivé de 1500px max. | |
| Les dimensions sont correctement extraites pour chaque image. | |
| La basse résolution Beatus produit bien une image plus petite en entrée. | |
| --- | |
| ## Session C — Premier appel IA + master.json | |
| ### Objectif | |
| 1 image → 1 appel Google AI → 1 master.json valide. | |
| C'est le cœur du Sprint 2. | |
| ### Tâches dans l'ordre | |
| 1. Créer backend/app/services/ai/prompt_loader.py | |
| → load_and_render(template_path, context_dict) → str | |
| → remplace {{profile_label}}, {{language_hints}}, {{script_type}} | |
| 2. Créer backend/app/services/ai/pipeline.py | |
| → analyze_page(image_bytes, corpus_profile, model_id) → PageMaster | |
| → Appelle le prompt primary_v1.txt du profil | |
| → Stocke ai_raw.json (brut) + master.json (validé Pydantic) | |
| → Lève une erreur explicite si le JSON retourné est invalide | |
| 3. Tester sur les 3 images dans l'ordre : | |
| a. Beatus haute résolution + profil medieval-illuminated | |
| → master.json valide, confidence attendue > 0.6 | |
| b. Beatus basse résolution + profil medieval-illuminated | |
| → master.json valide, confidence attendue plus faible | |
| → vérifier que editorial.status = "needs_review" si confidence < 0.4 | |
| c. Grandes Chroniques + profil medieval-textual | |
| → master.json valide, extensions sans iconography | |
| → valide la généricité (zéro logique Beatus dans le code) | |
| 4. Vérifier pour chaque master.json : | |
| → ai_raw.json bien séparé | |
| → processing.provider = "vertex_api_key" | |
| → schema_version = "1.0" | |
| → bbox toutes en format [x, y, w, h] avec w > 0 et h > 0 | |
| 5. Ajouter tests/test_pipeline.py | |
| ### Critère de done Session C | |
| 3 master.json valides produits (Beatus HR + Beatus BR + Grandes Chroniques). | |
| La basse résolution déclenche bien un score de confidence plus faible. | |
| Les Grandes Chroniques ne contiennent pas de bloc iconography dans extensions. | |
| pytest 100% sur tous les fichiers de test. | |
| ai_raw.json et master.json bien séparés dans data/ pour chaque page. | |
| --- | |
| ## Critère de fin du Sprint 2 | |
| - [ ] 3 providers connectés et testés | |
| - [ ] Syntaxe AQ.Ab documentée dans DECISIONS.md | |
| - [ ] Pipeline page unique fonctionnel | |
| - [ ] 3 master.json valides (Beatus HR + Beatus BR + Grandes Chroniques) | |
| - [ ] La basse résolution produit un confidence plus faible que la haute résolution | |
| - [ ] Règle de généricité respectée (zéro logique hardcodée Beatus) | |
| - [ ] pytest 100% | |
| --- | |
| ## Ne pas faire dans ce sprint | |
| - Aucune API FastAPI | |
| - Aucune interface web | |
| - Aucun ALTO / METS / IIIF | |
| - Aucun traitement en lot | |
| - Passes dérivées (traduction, commentaire) : Sprint 3 | |