IIIF-Studio / STATUS.md
maribakulj
Revise STATUS.md for Sprint 2 updates
3c726a6 unverified
# STATUS.md — Sprint 2 : Pipeline page unique
## Sprint : 2 — Session A
## Objectif du sprint : 1 image → 1 master.json valide via Google AI
---
## Ce qui est fait (Sprint 1 ✓)
- [x] Repo GitHub structuré, arborescence complète
- [x] Schémas Pydantic : corpus_profile.py, page_master.py, annotation.py
- [x] 4 profils JSON (medieval-illuminated, medieval-textual, early-modern-print, modern-handwritten)
- [x] 9 templates de prompts versionnés
- [x] 54 tests pytest passants (26 schemas + 28 profiles)
- [x] pyproject.toml configuré
- [x] 6 secrets GitHub en place :
GOOGLE_AI_STUDIO_API_KEY, VERTEX_API_KEY, VERTEX_PROJECT_ID,
VERTEX_LOCATION, VERTEX_SERVICE_ACCOUNT_JSON, AI_PROVIDER
---
## Contexte important pour ce sprint
### Providers Google AI disponibles
Trois options configurées, priorité :
- AI_PROVIDER=vertex_api_key → clé AQ.Ab... (Vertex Express, production)
- AI_PROVIDER=google_ai_studio → clé AIza... (gratuit, développement)
- AI_PROVIDER=vertex_service_account → JSON credentials (institutions)
### Format de clé Vertex non confirmé
La clé Vertex commence par AQ.Ab (format OAuth2 Vertex Express).
La syntaxe SDK exacte pour ce format N'EST PAS encore validée.
La Session A commence par ce test — avant tout le reste.
### Images test disponibles
Pas d'images locales. On travaille avec des URLs IIIF directes.
URL Beatus haute résolution (profil medieval-illuminated) :
https://gallica.bnf.fr/iiif/ark:/12148/btv1b52505441p/f233/full/full/0/native.jpg
URL Beatus basse résolution (même folio, qualité réduite — test confidence) :
https://gallica.bnf.fr/iiif/ark:/12148/btv1b52505441p/f233/full/600,/0/native.jpg
URL second corpus — Grandes Chroniques de France (profil medieval-textual) :
https://gallica.bnf.fr/iiif/ark:/12148/btv1b84472995/f16/full/full/0/native.jpg
Pourquoi tester deux résolutions du Beatus :
Les deux images doivent produire un master.json valide.
La basse résolution doit retourner un score confidence plus faible
et potentiellement déclencher le statut needs_review si < flag_below (0.4).
Cela valide que les seuils du profil fonctionnent correctement.
---
## Session A — Connexion Google AI + listage modèles
### Objectif
Valider que les 3 providers fonctionnent et lister les modèles disponibles.
Aucun traitement d'image. Aucun master.json. Juste la connexion.
### Tâches dans l'ordre
1. Créer backend/app/services/ai/__init__.py (vide)
2. Créer backend/app/services/ai/client.py
→ factory get_ai_client() avec les 3 options
→ Option B (vertex_api_key) : tester les deux syntaxes possibles
et documenter celle qui fonctionne dans un commentaire
3. Créer backend/app/services/ai/models.py
→ fonction list_available_models(client) → list[dict]
→ filtrer sur les modèles qui supportent generateContent + vision
→ retourner : id, display_name, supports_vision
4. Créer backend/tests/test_ai_connection.py
→ test_option_a_google_ai_studio() : connexion + list_models
→ test_option_b_vertex_api_key() : connexion + list_models
→ test_option_c_vertex_service_account() : connexion + list_models
→ Chaque test affiche les modèles disponibles dans les logs
5. Lancer pytest test_ai_connection.py
→ documenter dans DECISIONS.md la syntaxe exacte validée pour AQ.Ab
### Critère de done Session A
Les 3 tests de connexion passent.
On sait quelle syntaxe fonctionne pour la clé AQ.Ab.
La liste des modèles disponibles est affichée pour chaque provider.
### Ne pas faire en Session A
- Aucun traitement d'image
- Aucun appel de prompt
- Aucune ingestion de corpus
---
## Session B — Ingestion + préparation image
### Objectif
Ingérer une image depuis une URL IIIF et produire un dérivé web prêt pour l'IA.
### Tâches dans l'ordre
1. Créer backend/app/services/ingest/__init__.py
2. Créer backend/app/services/ingest/image_loader.py
→ load_from_url(url) → image bytes + dimensions
→ load_from_file(path) → image bytes + dimensions
→ Pillow pour lire et redimensionner
3. Créer backend/app/services/image/__init__.py
4. Créer backend/app/services/image/processor.py
→ make_derivative(image_bytes, max_size=1500) → JPEG bytes
→ get_dimensions(image_bytes) → (width, height)
5. Tester sur les 3 URLs dans l'ordre :
- Beatus haute résolution :
https://gallica.bnf.fr/iiif/ark:/12148/btv1b52505441p/f233/full/full/0/native.jpg
- Beatus basse résolution :
https://gallica.bnf.fr/iiif/ark:/12148/btv1b52505441p/f233/full/600,/0/native.jpg
- Grandes Chroniques :
https://gallica.bnf.fr/iiif/ark:/12148/btv1b84472995/f16/full/full/0/native.jpg
→ vérifier que les 3 images se téléchargent et se redimensionnent
→ vérifier que les dimensions sont bien extraites pour chaque cas
6. Ajouter tests/test_image_processing.py
### Critère de done Session B
Les 3 URLs produisent chacune un JPEG dérivé de 1500px max.
Les dimensions sont correctement extraites pour chaque image.
La basse résolution Beatus produit bien une image plus petite en entrée.
---
## Session C — Premier appel IA + master.json
### Objectif
1 image → 1 appel Google AI → 1 master.json valide.
C'est le cœur du Sprint 2.
### Tâches dans l'ordre
1. Créer backend/app/services/ai/prompt_loader.py
→ load_and_render(template_path, context_dict) → str
→ remplace {{profile_label}}, {{language_hints}}, {{script_type}}
2. Créer backend/app/services/ai/pipeline.py
→ analyze_page(image_bytes, corpus_profile, model_id) → PageMaster
→ Appelle le prompt primary_v1.txt du profil
→ Stocke ai_raw.json (brut) + master.json (validé Pydantic)
→ Lève une erreur explicite si le JSON retourné est invalide
3. Tester sur les 3 images dans l'ordre :
a. Beatus haute résolution + profil medieval-illuminated
→ master.json valide, confidence attendue > 0.6
b. Beatus basse résolution + profil medieval-illuminated
→ master.json valide, confidence attendue plus faible
→ vérifier que editorial.status = "needs_review" si confidence < 0.4
c. Grandes Chroniques + profil medieval-textual
→ master.json valide, extensions sans iconography
→ valide la généricité (zéro logique Beatus dans le code)
4. Vérifier pour chaque master.json :
→ ai_raw.json bien séparé
→ processing.provider = "vertex_api_key"
→ schema_version = "1.0"
→ bbox toutes en format [x, y, w, h] avec w > 0 et h > 0
5. Ajouter tests/test_pipeline.py
### Critère de done Session C
3 master.json valides produits (Beatus HR + Beatus BR + Grandes Chroniques).
La basse résolution déclenche bien un score de confidence plus faible.
Les Grandes Chroniques ne contiennent pas de bloc iconography dans extensions.
pytest 100% sur tous les fichiers de test.
ai_raw.json et master.json bien séparés dans data/ pour chaque page.
---
## Critère de fin du Sprint 2
- [ ] 3 providers connectés et testés
- [ ] Syntaxe AQ.Ab documentée dans DECISIONS.md
- [ ] Pipeline page unique fonctionnel
- [ ] 3 master.json valides (Beatus HR + Beatus BR + Grandes Chroniques)
- [ ] La basse résolution produit un confidence plus faible que la haute résolution
- [ ] Règle de généricité respectée (zéro logique hardcodée Beatus)
- [ ] pytest 100%
---
## Ne pas faire dans ce sprint
- Aucune API FastAPI
- Aucune interface web
- Aucun ALTO / METS / IIIF
- Aucun traitement en lot
- Passes dérivées (traduction, commentaire) : Sprint 3