feat: Initialisation du nouveau dépôt 'mayproject' à partir de 'ernestmind'.
Browse files- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/Dockerfile +67 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/README.md +5 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/app.py +377 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/auth_backend.py +371 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/baserow_storage.py +791 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/billing_routes.py +137 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/config.py +122 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/decorators.py +87 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/deployment_routes.py +149 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/entrypoint.sh +24 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/gemini_functions.py +462 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/gemini_routes.py +265 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/hf_deploy_manager.py +318 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/huggingface_repo_manager.py +1174 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/huggingface_storage.py +140 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/issue_routes.py +214 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/issues_backend.py +196 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/pr_routes.py +432 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/project_routes.py +1123 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/pull_request_backend.py +607 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/repo_settings_manager.py +191 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/repo_settings_routes.py +116 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/requirements.txt +13 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/user_routes.py +453 -0
- a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/web_routes.py +210 -0
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/Dockerfile
ADDED
|
@@ -0,0 +1,67 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# ÉTAPE 1: Image de base
|
| 2 |
+
FROM python:3.11-slim
|
| 3 |
+
|
| 4 |
+
# ÉTAPE 2: Configuration et Dossier de travail
|
| 5 |
+
# Nous laissons Render injecter le port via $PORT
|
| 6 |
+
ENV FLASK_APP app.py
|
| 7 |
+
# Suppression des variables GUNICORN_WORKERS et GUNICORN_THREADS car elles sont gérées
|
| 8 |
+
# de manière plus efficace et simple dans entrypoint.sh avec Eventlet.
|
| 9 |
+
|
| 10 |
+
# Création et utilisation du répertoire /app
|
| 11 |
+
WORKDIR /app
|
| 12 |
+
|
| 13 |
+
# ÉTAPE 3: Installation des dépendances (OPTIMISATION CACHING)
|
| 14 |
+
# Copie uniquement de requirements.txt pour mettre en cache l'installation
|
| 15 |
+
COPY requirements.txt .
|
| 16 |
+
RUN pip install --no-cache-dir -r requirements.txt \
|
| 17 |
+
&& rm requirements.txt
|
| 18 |
+
|
| 19 |
+
# ÉTAPE 4: Copie de l'Application et des Fichiers
|
| 20 |
+
# CORRECTION MAJEURE : Ajout du dossier templates
|
| 21 |
+
COPY templates /app/templates
|
| 22 |
+
|
| 23 |
+
# Copie des autres fichiers (y compris app.py, votre point d'entrée)
|
| 24 |
+
COPY app.py .
|
| 25 |
+
COPY config.py .
|
| 26 |
+
COPY user_routes.py .
|
| 27 |
+
COPY web_routes.py .
|
| 28 |
+
COPY decorators.py .
|
| 29 |
+
COPY billing_routes.py .
|
| 30 |
+
COPY auth_backend.py .
|
| 31 |
+
COPY baserow_storage.py .
|
| 32 |
+
COPY huggingface_storage.py .
|
| 33 |
+
COPY pr_routes.py .
|
| 34 |
+
COPY pull_request_backend.py .
|
| 35 |
+
COPY issues_backend.py .
|
| 36 |
+
COPY issue_routes.py .
|
| 37 |
+
COPY project_routes.py .
|
| 38 |
+
COPY huggingface_repo_manager.py .
|
| 39 |
+
COPY hf_deploy_manager.py .
|
| 40 |
+
COPY deployment_routes.py .
|
| 41 |
+
COPY gemini_functions.py .
|
| 42 |
+
COPY gemini_routes.py .
|
| 43 |
+
COPY repo_settings_routes.py .
|
| 44 |
+
COPY repo_settings_manager.py .
|
| 45 |
+
|
| 46 |
+
|
| 47 |
+
# Copie du script d'entrée
|
| 48 |
+
COPY entrypoint.sh .
|
| 49 |
+
|
| 50 |
+
# NOUVEAU: CORRECTION DES FINS DE LIGNE (Résout 'exec ./entrypoint.sh: no such file or directory')
|
| 51 |
+
# Supprime le caractère de retour chariot (\r)
|
| 52 |
+
RUN sed -i 's/\r$//' entrypoint.sh
|
| 53 |
+
|
| 54 |
+
# Le rendre exécutable
|
| 55 |
+
RUN chmod +x entrypoint.sh
|
| 56 |
+
|
| 57 |
+
# ÉTAPE 5: Sécurité et Exécution
|
| 58 |
+
# Création et bascule vers l'utilisateur non-root ('user') pour la sécurité
|
| 59 |
+
RUN useradd -ms /bin/bash user
|
| 60 |
+
RUN chown -R user:user /app
|
| 61 |
+
USER user
|
| 62 |
+
|
| 63 |
+
# Indique à Docker que le conteneur écoute sur ce port
|
| 64 |
+
EXPOSE $PORT
|
| 65 |
+
|
| 66 |
+
# Lance l'application via le script d'entrée
|
| 67 |
+
CMD ["./entrypoint.sh"]
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/README.md
ADDED
|
@@ -0,0 +1,5 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# Dépôt ernestmind
|
| 2 |
+
|
| 3 |
+
Bienvenue sur votre dépôt GitForge, hébergé sur Mailix.
|
| 4 |
+
|
| 5 |
+
Commencez par ajouter ou créer des fichiers.
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/app.py
ADDED
|
@@ -0,0 +1,377 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# app.py
|
| 2 |
+
import requests
|
| 3 |
+
import json
|
| 4 |
+
import os
|
| 5 |
+
import sys
|
| 6 |
+
import io
|
| 7 |
+
import uuid
|
| 8 |
+
from functools import wraps
|
| 9 |
+
from datetime import datetime
|
| 10 |
+
from flask import Flask, request, jsonify, Response, session
|
| 11 |
+
from flask_cors import CORS
|
| 12 |
+
import baserow_storage # Assurez-vous que ceci est présent
|
| 13 |
+
import shutil
|
| 14 |
+
from flask_socketio import SocketIO
|
| 15 |
+
import huggingface_storage # <-- NOUVEL IMPORT
|
| 16 |
+
import huggingface_storage # <-- NOUVEL IMPORT
|
| 17 |
+
# NOUVEL IMPORT POUR LA GESTION DU TERMINAL
|
| 18 |
+
|
| 19 |
+
# Importation des modules backend
|
| 20 |
+
from auth_backend import (
|
| 21 |
+
get_user_by_id,
|
| 22 |
+
login_user,
|
| 23 |
+
register_user,
|
| 24 |
+
generate_api_key,
|
| 25 |
+
get_plan_limit,
|
| 26 |
+
reset_password_via_security_question,
|
| 27 |
+
generate_password_hash,
|
| 28 |
+
)
|
| 29 |
+
from decorators import api_key_required # <-- NOUVEL IMPORT
|
| 30 |
+
from flask_cors import CORS # <--- S'assurer que l'importation est là
|
| 31 |
+
from project_routes import project_bp # Si vous nommez le nouveau Blueprint 'project_bp'
|
| 32 |
+
from web_routes import web_bp
|
| 33 |
+
from user_routes import user_bp
|
| 34 |
+
from billing_routes import billing_bp
|
| 35 |
+
from pr_routes import pr_bp # <-- NOUVEL IMPORT
|
| 36 |
+
from issue_routes import issue_bp # <-- NOUVEL IMPORT
|
| 37 |
+
from baserow_storage import check_critical_fields_existence
|
| 38 |
+
from deployment_routes import hf_deploy_bp # <-- IMPORT CRITIQUE
|
| 39 |
+
from gemini_routes import gemini_bp
|
| 40 |
+
from repo_settings_routes import settings_bp # Assurez-vous du chemin correct
|
| 41 |
+
DEFAULT_MAX_CONTENT_LENGTH = 16 * 1024 * 1024
|
| 42 |
+
|
| 43 |
+
# Dossier pour le stockage temporaire des fichiers HTML uploadés
|
| 44 |
+
# Nous utilisons un dossier 'temp_uploads' à la racine de l'application
|
| 45 |
+
UPLOAD_FOLDER = os.path.join(os.path.dirname(os.path.abspath(__file__)), 'temp_uploads')
|
| 46 |
+
if not os.path.exists(UPLOAD_FOLDER):
|
| 47 |
+
os.makedirs(UPLOAD_FOLDER) # Créer le dossier s'il n'existe pas
|
| 48 |
+
|
| 49 |
+
# Extensions de fichiers autorisées (très important pour la sécurité)
|
| 50 |
+
ALLOWED_EXTENSIONS = {'html', 'htm'}
|
| 51 |
+
|
| 52 |
+
# --- Initialisation de l'Application Flask (DÉPLACÉ ICI pour corriger le NameError) ---
|
| 53 |
+
app = Flask(__name__)
|
| 54 |
+
|
| 55 |
+
app.config['HF_DATASET_REPO_ID'] = os.environ.get('HF_DATASET_REPO_ID')
|
| 56 |
+
|
| 57 |
+
# Maintenant, 'app' est défini et on peut lui appliquer des configurations
|
| 58 |
+
app.config['UPLOAD_FOLDER'] = UPLOAD_FOLDER
|
| 59 |
+
app.config['ALLOWED_EXTENSIONS'] = ALLOWED_EXTENSIONS
|
| 60 |
+
|
| 61 |
+
from werkzeug.middleware.proxy_fix import ProxyFix
|
| 62 |
+
app.wsgi_app = ProxyFix(app.wsgi_app, x_for=1, x_proto=1, x_host=1, x_port=1, x_prefix=1)
|
| 63 |
+
# ------------------------------------------------------------------
|
| 64 |
+
|
| 65 |
+
# car Hugging Face utilise souvent Gunicorn avec ces workers.
|
| 66 |
+
socketio = SocketIO(app, cors_allowed_origins="*")
|
| 67 |
+
|
| 68 |
+
|
| 69 |
+
# Configuration
|
| 70 |
+
app.secret_key = os.environ.get("FLASK_SECRET_KEY", "super_secret_dev_key")
|
| 71 |
+
app.config['MAX_CONTENT_LENGTH'] = DEFAULT_MAX_CONTENT_LENGTH
|
| 72 |
+
|
| 73 |
+
# Permettre les requêtes cross-origin (CORS)
|
| 74 |
+
CORS(app, supports_credentials=True, origins="*", allow_headers=["Content-Type", "X-User-API-Key"])
|
| 75 |
+
|
| 76 |
+
|
| 77 |
+
# Permettre les requêtes cross-origin pour l'API
|
| 78 |
+
CORS(app)
|
| 79 |
+
|
| 80 |
+
app.register_blueprint(hf_deploy_bp) # <-- ENREGISTREZ LE NOUVEAU BLUEPRINT
|
| 81 |
+
app.register_blueprint(web_bp)
|
| 82 |
+
app.register_blueprint(user_bp)
|
| 83 |
+
app.register_blueprint(billing_bp)
|
| 84 |
+
app.register_blueprint(pr_bp) # <-- NOUVEL ENREGISTREMENT
|
| 85 |
+
app.register_blueprint(issue_bp) # <-- NOUVEL ENREGISTREMENT
|
| 86 |
+
app.register_blueprint(project_bp)
|
| 87 |
+
app.register_blueprint(settings_bp)
|
| 88 |
+
app.register_blueprint(gemini_bp)
|
| 89 |
+
|
| 90 |
+
# --- Décorateurs d'Authentification (Correction) ---
|
| 91 |
+
def login_required(f):
|
| 92 |
+
@wraps(f)
|
| 93 |
+
def decorated_function(*args, **kwargs):
|
| 94 |
+
user_id = session.get('user_id')
|
| 95 |
+
|
| 96 |
+
if not user_id:
|
| 97 |
+
# Redirection HTTP 302 vers la page de connexion pour les requêtes non-API
|
| 98 |
+
if not request.path.startswith('/api/'):
|
| 99 |
+
from flask import redirect, url_for
|
| 100 |
+
# NOTE: Il se peut que 'user_bp.connexion' ne soit pas la bonne route.
|
| 101 |
+
# Si c'est dans web_bp, utilisez web_bp.connexion_page comme dans user_routes.py
|
| 102 |
+
return redirect(url_for('web_bp.connexion_page')) # CORRECTION POTENTIELLE DE LA REDIRECTION
|
| 103 |
+
# Réponse JSON pour les API
|
| 104 |
+
return jsonify({"status": "Error", "message": "Accès non autorisé. Veuillez vous connecter.", "code": "AUTH_REQUIRED"}), 401
|
| 105 |
+
|
| 106 |
+
# 1. Récupérer les données utilisateur
|
| 107 |
+
user = get_user_by_id(user_id)
|
| 108 |
+
|
| 109 |
+
if not user:
|
| 110 |
+
# Si l'ID est dans la session mais l'utilisateur n'existe plus en DB
|
| 111 |
+
session.pop('user_id', None)
|
| 112 |
+
from flask import redirect, url_for
|
| 113 |
+
return redirect(url_for('web_bp.connexion_page')) # Rediriger l'utilisateur déconnecté
|
| 114 |
+
|
| 115 |
+
# 2. Injecter les données utilisateur dans la fonction de vue
|
| 116 |
+
return f(user=user, *args, **kwargs) # <--- CORRECTION CLÉ : Ajout de user=user
|
| 117 |
+
return decorated_function
|
| 118 |
+
|
| 119 |
+
|
| 120 |
+
# --- Routes d'Authentification (API - Conservées) ---
|
| 121 |
+
|
| 122 |
+
@app.route("/api/register", methods=["POST"])
|
| 123 |
+
def register():
|
| 124 |
+
data = request.get_json()
|
| 125 |
+
username = data.get("username")
|
| 126 |
+
email = data.get("email")
|
| 127 |
+
password = data.get("password")
|
| 128 |
+
confirm_password = data.get("confirm_password")
|
| 129 |
+
security_question = data.get("security_question")
|
| 130 |
+
security_answer = data.get("security_answer")
|
| 131 |
+
|
| 132 |
+
# CORRECTION ICI: Déballage des 3 valeurs retournées par register_user
|
| 133 |
+
user_id, message, new_user_data = register_user(username, email, password, confirm_password, security_question, security_answer)
|
| 134 |
+
|
| 135 |
+
if user_id and new_user_data: # Vérifier l'ID et les données pour s'assurer du succès
|
| 136 |
+
session['user_id'] = user_id
|
| 137 |
+
|
| 138 |
+
# Réponse JSON pour l'API, incluant la clé API
|
| 139 |
+
return jsonify({
|
| 140 |
+
"message": message,
|
| 141 |
+
"status": "Success",
|
| 142 |
+
"user_id": user_id,
|
| 143 |
+
# On récupère la clé API directement des données utilisateur
|
| 144 |
+
"api_key": new_user_data.get("api_key")
|
| 145 |
+
}), 201
|
| 146 |
+
else:
|
| 147 |
+
# Échec de l'inscription (message d'erreur de register_user)
|
| 148 |
+
return jsonify({"message": message, "status": "Error"}), 400
|
| 149 |
+
|
| 150 |
+
|
| 151 |
+
|
| 152 |
+
@app.route("/api/login", methods=["POST"])
|
| 153 |
+
def login():
|
| 154 |
+
"""
|
| 155 |
+
Route de connexion de l'utilisateur principal.
|
| 156 |
+
Prend le nom d'utilisateur/email et le mot de passe.
|
| 157 |
+
"""
|
| 158 |
+
data = request.get_json()
|
| 159 |
+
username = data.get("username")
|
| 160 |
+
password = data.get("password")
|
| 161 |
+
|
| 162 |
+
# CORRECTION DE L'ERREUR :
|
| 163 |
+
# Nous déballons maintenant 3 valeurs (ID, Message, Données Utilisateur)
|
| 164 |
+
# car la fonction login_user() dans auth_backend.py a été modifiée pour
|
| 165 |
+
# retourner les 3 valeurs.
|
| 166 |
+
user_id, message, user_data = login_user(username, password)
|
| 167 |
+
|
| 168 |
+
# Note: user_data est la 3ème valeur (Dict des données utilisateur ou None)
|
| 169 |
+
if user_id and user_data:
|
| 170 |
+
# La connexion est réussie
|
| 171 |
+
session['user_id'] = user_id
|
| 172 |
+
|
| 173 |
+
# Réponse API avec la clé API de l'utilisateur pour les futures requêtes
|
| 174 |
+
return jsonify({
|
| 175 |
+
"message": message,
|
| 176 |
+
"status": "Success",
|
| 177 |
+
"user_id": user_id,
|
| 178 |
+
# On utilise les données utilisateur (user_data) que nous avons déjà récupérées
|
| 179 |
+
"api_key": user_data.get("api_key")
|
| 180 |
+
}), 200
|
| 181 |
+
else:
|
| 182 |
+
# La connexion a échoué (identifiants invalides ou autre erreur)
|
| 183 |
+
return jsonify({"message": message, "status": "Error"}), 401
|
| 184 |
+
|
| 185 |
+
@app.route("/api/logout", methods=["POST"])
|
| 186 |
+
def logout():
|
| 187 |
+
session.pop('user_id', None)
|
| 188 |
+
return jsonify({"message": "Déconnexion réussie.", "status": "Success"}), 200
|
| 189 |
+
|
| 190 |
+
@app.route("/api/forgot-password", methods=["POST"])
|
| 191 |
+
def forgot_password_api(): # Renommée pour éviter conflit avec la route HTML
|
| 192 |
+
data = request.get_json()
|
| 193 |
+
username_or_email = data.get("username_or_email")
|
| 194 |
+
security_answer = data.get("security_answer")
|
| 195 |
+
new_password = data.get("new_password")
|
| 196 |
+
|
| 197 |
+
if not username_or_email or not security_answer or not new_password:
|
| 198 |
+
return jsonify({"message": "Champs manquants.", "status": "Error"}), 400
|
| 199 |
+
|
| 200 |
+
success, message = reset_password_via_security_question(username_or_email, security_answer, new_password)
|
| 201 |
+
|
| 202 |
+
if success:
|
| 203 |
+
return jsonify({
|
| 204 |
+
"message": message,
|
| 205 |
+
"status": "Success"
|
| 206 |
+
}), 200
|
| 207 |
+
else:
|
| 208 |
+
return jsonify({
|
| 209 |
+
"message": message,
|
| 210 |
+
"status": "Error"
|
| 211 |
+
}), 400
|
| 212 |
+
|
| 213 |
+
|
| 214 |
+
# --- Routes de Gestion de Compte (API - Conservées) ---
|
| 215 |
+
|
| 216 |
+
@app.route("/api/user/generate-key", methods=["POST"])
|
| 217 |
+
@login_required
|
| 218 |
+
def generate_user_api_key():
|
| 219 |
+
user_id = session.get('user_id')
|
| 220 |
+
|
| 221 |
+
new_api_key = create_dynamic_api_key()
|
| 222 |
+
|
| 223 |
+
success, message = update_user_data(user_id, {"api_key": new_api_key})
|
| 224 |
+
|
| 225 |
+
if success:
|
| 226 |
+
return jsonify({
|
| 227 |
+
"message": "Clé API utilisateur générée et sauvegardée. Conservez-la en lieu sûr. **Utilisez-la via URL simple ('api_key=...') ou en-tête 'X-User-API-Key'.**",
|
| 228 |
+
"status": "Success",
|
| 229 |
+
"api_key": new_api_key
|
| 230 |
+
}), 200
|
| 231 |
+
else:
|
| 232 |
+
return jsonify({
|
| 233 |
+
"message": f"Erreur lors de la génération de la clé : {message}",
|
| 234 |
+
"status": "Error"
|
| 235 |
+
}), 500
|
| 236 |
+
|
| 237 |
+
@app.route("/api/user/update-info", methods=["POST"])
|
| 238 |
+
@login_required
|
| 239 |
+
def update_user_info():
|
| 240 |
+
user_id = session.get('user_id')
|
| 241 |
+
data = request.get_json()
|
| 242 |
+
|
| 243 |
+
updates = {}
|
| 244 |
+
if 'username' in data:
|
| 245 |
+
updates['username'] = data['username']
|
| 246 |
+
if 'email' in data:
|
| 247 |
+
updates['email'] = data['email']
|
| 248 |
+
if 'plan' in data:
|
| 249 |
+
updates['plan'] = data['plan']
|
| 250 |
+
|
| 251 |
+
if not updates:
|
| 252 |
+
return jsonify({
|
| 253 |
+
"message": "Aucune information à mettre à jour fournie.",
|
| 254 |
+
"status": "Error"
|
| 255 |
+
}), 400
|
| 256 |
+
|
| 257 |
+
success, message = update_user_data(user_id, updates)
|
| 258 |
+
|
| 259 |
+
if success:
|
| 260 |
+
return jsonify({
|
| 261 |
+
"message": message,
|
| 262 |
+
"status": "Success"
|
| 263 |
+
}), 200
|
| 264 |
+
else:
|
| 265 |
+
return jsonify({
|
| 266 |
+
"message": f"Échec de la mise à jour : {message}",
|
| 267 |
+
"status": "Error"
|
| 268 |
+
}), 400
|
| 269 |
+
|
| 270 |
+
|
| 271 |
+
|
| 272 |
+
@app.route("/api/user-info", methods=["GET"])
|
| 273 |
+
@api_key_required
|
| 274 |
+
def api_user_info(client_user):
|
| 275 |
+
"""
|
| 276 |
+
Route API pour récupérer les informations de l'utilisateur principal (client)
|
| 277 |
+
à partir de la clé API fournie.
|
| 278 |
+
Le 'client_user' est injecté par le décorateur api_key_required.
|
| 279 |
+
"""
|
| 280 |
+
# client_user est l'objet utilisateur complet injecté par le décorateur
|
| 281 |
+
|
| 282 |
+
# Sécurité : créer une copie et supprimer les données sensibles avant l'envoi
|
| 283 |
+
user_info_safe = client_user.copy()
|
| 284 |
+
user_info_safe.pop('password_hash', None)
|
| 285 |
+
user_info_safe.pop('security_answer_hash', None)
|
| 286 |
+
|
| 287 |
+
return jsonify({
|
| 288 |
+
"message": "Informations utilisateur récupérées avec succès.",
|
| 289 |
+
"status": "Success",
|
| 290 |
+
"user": user_info_safe
|
| 291 |
+
}), 200
|
| 292 |
+
|
| 293 |
+
|
| 294 |
+
|
| 295 |
+
@app.route("/api/health", methods=["GET"])
|
| 296 |
+
def health_check():
|
| 297 |
+
"""Vérifie l'état du service en utilisant le statut Baserow."""
|
| 298 |
+
|
| 299 |
+
# 1. Tenter d'obtenir le statut Baserow réel
|
| 300 |
+
try:
|
| 301 |
+
# Appelle la fonction de baserow_storage pour vérifier l'état
|
| 302 |
+
health_status = baserow_storage.get_health_status()
|
| 303 |
+
|
| 304 |
+
# Le statut 'data_storage' est la clé pour le frontend
|
| 305 |
+
db_status_message = health_status.get('data_storage', 'Unknown')
|
| 306 |
+
|
| 307 |
+
# Si la DB est 'operational', on envoie 'Ready'
|
| 308 |
+
if db_status_message == 'operational':
|
| 309 |
+
data_status = "Ready"
|
| 310 |
+
else:
|
| 311 |
+
data_status = f"Failed (Baserow: {db_status_message})"
|
| 312 |
+
|
| 313 |
+
except Exception as e:
|
| 314 |
+
# Erreur générale, Baserow inaccessible ou problème de configuration critique
|
| 315 |
+
data_status = f"Failed (Exception: {str(e)})"
|
| 316 |
+
|
| 317 |
+
return jsonify({
|
| 318 |
+
"status": "Online",
|
| 319 |
+
"data_storage": data_status
|
| 320 |
+
}), 200
|
| 321 |
+
|
| 322 |
+
@app.route("/", methods=["GET"])
|
| 323 |
+
def read_root():
|
| 324 |
+
"""Endpoint racine pour le Health Check (Flask version)."""
|
| 325 |
+
|
| 326 |
+
if baserow_storage.is_baserow_up():
|
| 327 |
+
# Statut OK (200) avec le message
|
| 328 |
+
return jsonify({"status": "ok", "message": "Backend and Baserow API are reachable."}), 200
|
| 329 |
+
else:
|
| 330 |
+
# Statut de service non disponible (503) avec le message d'erreur
|
| 331 |
+
return jsonify({"detail": "Baserow service unavailable (Health Check failed)."}), 503
|
| 332 |
+
|
| 333 |
+
|
| 334 |
+
|
| 335 |
+
def perform_startup_checks():
|
| 336 |
+
"""
|
| 337 |
+
Exécute des vérifications critiques au démarrage (Baserow et Hugging Face)
|
| 338 |
+
pour que les problèmes de configuration soient visibles dans les logs de Render.
|
| 339 |
+
"""
|
| 340 |
+
print("\n--- DÉBUT DES VÉRIFICATIONS DE DÉMARRAGE CRITIQUES ---", file=sys.stderr)
|
| 341 |
+
|
| 342 |
+
# --- 1. VÉRIFICATION BASEROW (Connexion et Champs) ---
|
| 343 |
+
baserow_config_status = baserow_storage.check_baserow_connection()
|
| 344 |
+
|
| 345 |
+
if baserow_config_status != "operational":
|
| 346 |
+
print(f"CRITIQUE: Configuration Baserow ÉCHOUÉE: {baserow_config_status}", file=sys.stderr)
|
| 347 |
+
else:
|
| 348 |
+
print("SUCCÈS: Configuration Baserow (Tokens/IDs) trouvée.", file=sys.stderr)
|
| 349 |
+
|
| 350 |
+
# 1.1 VÉRIFICATION DE L'ÉTAT DU SERVICE BASEROW
|
| 351 |
+
if not baserow_storage.is_baserow_up():
|
| 352 |
+
print("CRITIQUE: Baserow est configuré mais le Health Check API a ÉCHOUÉ (Vérifiez la connexion ou le token).", file=sys.stderr)
|
| 353 |
+
else:
|
| 354 |
+
print("SUCCÈS: Connexion Baserow API OK.", file=sys.stderr)
|
| 355 |
+
|
| 356 |
+
# NOUVEAU: 1.2 VÉRIFICATION DE L'EXISTENCE DES CHAMPS CRITIQUES
|
| 357 |
+
fields_check_status = baserow_storage.check_critical_fields_existence()
|
| 358 |
+
if fields_check_status != "operational":
|
| 359 |
+
print(f"CRITIQUE: Vérification des Champs Baserow ÉCHOUÉE: {fields_check_status}", file=sys.stderr)
|
| 360 |
+
else:
|
| 361 |
+
print("SUCCÈS: Tous les champs critiques de la table Baserow sont présents.", file=sys.stderr)
|
| 362 |
+
|
| 363 |
+
# --- 2. VÉRIFICATION HUGGING FACE (Stockage de Dépôt) ---
|
| 364 |
+
hf_repo_id = os.environ.get("HF_DATASET_REPO_ID")
|
| 365 |
+
hf_token = os.environ.get("HF_TOKEN")
|
| 366 |
+
|
| 367 |
+
if not hf_repo_id:
|
| 368 |
+
print("CRITIQUE: HF_DATASET_REPO_ID est MANQUANT. Impossible de créer un dépôt.", file=sys.stderr)
|
| 369 |
+
elif not hf_token:
|
| 370 |
+
print("ATTENTION: HF_TOKEN est MANQUANT. Les opérations Hugging Face pourraient échouer sans jeton dans l'environnement.", file=sys.stderr)
|
| 371 |
+
else:
|
| 372 |
+
print(f"SUCCÈS: Configuration Hugging Face (Repo ID: {hf_repo_id}) trouvée.", file=sys.stderr)
|
| 373 |
+
|
| 374 |
+
print("--- FIN DES VÉRIFICATIONS DE DÉMARRAGE CRITIQUES ---\n", file=sys.stderr)
|
| 375 |
+
|
| 376 |
+
# Exécutez les vérifications au démarrage de Gunicorn
|
| 377 |
+
perform_startup_checks()
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/auth_backend.py
ADDED
|
@@ -0,0 +1,371 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# auth_backend.py
|
| 2 |
+
|
| 3 |
+
import json
|
| 4 |
+
import uuid
|
| 5 |
+
import secrets
|
| 6 |
+
import string
|
| 7 |
+
import sys # Nécessaire pour print(..., file=sys.stderr)
|
| 8 |
+
from datetime import datetime
|
| 9 |
+
from werkzeug.security import generate_password_hash, check_password_hash
|
| 10 |
+
from huggingface_repo_manager import initialize_user_hf_folder # <--- AJOUTEZ CET IMPORT
|
| 11 |
+
# Ces fonctions sont maintenant implémentées dans baserow_storage.py
|
| 12 |
+
from baserow_storage import (
|
| 13 |
+
# Fonctions de lecture/écriture pour les utilisateurs principaux (simulant l'ancienne API)
|
| 14 |
+
get_client_user_by_api_key,
|
| 15 |
+
load_primary_user_data,
|
| 16 |
+
save_primary_user_data,
|
| 17 |
+
# Fonctions de recherche indexées (nouvelles et plus efficaces)
|
| 18 |
+
get_user_by_email,
|
| 19 |
+
get_client_user_by_api_key,
|
| 20 |
+
FIELD_USER_TYPE,
|
| 21 |
+
FIELD_CLIENT_ID,
|
| 22 |
+
)
|
| 23 |
+
|
| 24 |
+
from config import PLANS_CONFIG
|
| 25 |
+
from typing import Optional, Dict
|
| 26 |
+
|
| 27 |
+
# ----------------------------------------------------------------------
|
| 28 |
+
# --- Fonctions Utilitaires et de Configuration ---
|
| 29 |
+
# ----------------------------------------------------------------------
|
| 30 |
+
|
| 31 |
+
def get_plan_limit(plan: str) -> float:
|
| 32 |
+
"""Retourne la limite de compte pour un plan donné."""
|
| 33 |
+
return PLANS_CONFIG.get(plan, {}).get("limit", PLANS_CONFIG["free"]["limit"])
|
| 34 |
+
|
| 35 |
+
def get_plan_details(plan_id: str) -> Optional[Dict]:
|
| 36 |
+
"""Retourne les détails complets d'un plan à partir de son ID."""
|
| 37 |
+
return PLANS_CONFIG.get(plan_id)
|
| 38 |
+
|
| 39 |
+
def generate_api_key(length: int = 32) -> str:
|
| 40 |
+
"""Génère une clé API sécurisée."""
|
| 41 |
+
chars = string.ascii_letters + string.digits
|
| 42 |
+
return ''.join(secrets.choice(chars) for _ in range(length))
|
| 43 |
+
|
| 44 |
+
# ----------------------------------------------------------------------
|
| 45 |
+
# --- Fonctions d'Authentification WEB (Primary Users) ---
|
| 46 |
+
# ----------------------------------------------------------------------
|
| 47 |
+
|
| 48 |
+
|
| 49 |
+
def register_user(username: str, email: str, password: str, confirm_password: str, security_question: str, security_answer: str) -> tuple[Optional[str], str, Optional[Dict]]:
|
| 50 |
+
"""
|
| 51 |
+
Tente d'enregistrer un nouvel utilisateur principal.
|
| 52 |
+
Retourne l'ID utilisateur (str), un message (str), et les données utilisateur complètes (Dict) ou None.
|
| 53 |
+
"""
|
| 54 |
+
email = email.lower().strip()
|
| 55 |
+
|
| 56 |
+
# Validation du formulaire
|
| 57 |
+
if not all([username, email, password, confirm_password, security_question, security_answer]):
|
| 58 |
+
# Retourne (ID, message, Data)
|
| 59 |
+
return None, "Tous les champs sont requis.", None
|
| 60 |
+
|
| 61 |
+
if password != confirm_password:
|
| 62 |
+
return None, "Les mots de passe ne correspondent pas.", None
|
| 63 |
+
|
| 64 |
+
if len(password) < 8:
|
| 65 |
+
return None, "Le mot de passe est trop court (min 8 caractères).", None
|
| 66 |
+
|
| 67 |
+
# 1. Vérification de l'existence de l'utilisateur par email
|
| 68 |
+
if get_user_by_email(email):
|
| 69 |
+
return None, "Un compte avec cette adresse e-mail existe déjà.", None
|
| 70 |
+
|
| 71 |
+
# 2. Hachage des données
|
| 72 |
+
password_hash = generate_password_hash(password)
|
| 73 |
+
security_answer_hash = generate_password_hash(security_answer.lower())
|
| 74 |
+
|
| 75 |
+
# 3. Création des données utilisateur
|
| 76 |
+
user_id = str(uuid.uuid4())
|
| 77 |
+
# Ligne optimisée: on génère les 5 clés en une seule liste
|
| 78 |
+
api_keys = [generate_api_key() for _ in range(5)]
|
| 79 |
+
|
| 80 |
+
new_user = {
|
| 81 |
+
'user_id': user_id,
|
| 82 |
+
'username': username,
|
| 83 |
+
'email': email,
|
| 84 |
+
'password_hash': password_hash,
|
| 85 |
+
# ASSIGNATION DES 5 CLÉS API AUX CHAMPS CORRESPONDANTS
|
| 86 |
+
'api_key': api_keys[0],
|
| 87 |
+
'api_key_2': api_keys[1],
|
| 88 |
+
'api_key_3': api_keys[2],
|
| 89 |
+
'api_key_4': api_keys[3],
|
| 90 |
+
'api_key_5': api_keys[4],
|
| 91 |
+
'security_question': security_question,
|
| 92 |
+
'security_answer_hash': security_answer_hash,
|
| 93 |
+
'plan_id': PLANS_CONFIG['free']['baserow_value'],
|
| 94 |
+
'stripe_subscription_id': None, # Pas d'abonnement Stripe au début
|
| 95 |
+
'date_creation': datetime.now().isoformat(),
|
| 96 |
+
'date_plan_start': datetime.now().isoformat(),
|
| 97 |
+
'api_calls_month': 0,
|
| 98 |
+
'status': 'Active',
|
| 99 |
+
'baserow_row_id': None, # Sera rempli par la fonction save_primary_user_data si c'est une création
|
| 100 |
+
# Note: D'autres champs pourraient être nécessaires ici, selon les besoins non-vus
|
| 101 |
+
}
|
| 102 |
+
|
| 103 |
+
# 4. Sauvegarde dans Baserow
|
| 104 |
+
# La fonction save_primary_user_data mettra à jour 'baserow_row_id' dans new_user si la création est réussie.
|
| 105 |
+
success = save_primary_user_data(new_user, commit_msg=f"feat: Création de l'utilisateur {user_id} ({email})")
|
| 106 |
+
|
| 107 |
+
if success:
|
| 108 |
+
# Retourne : ID utilisateur, message de succès, Dictionnaire utilisateur complet
|
| 109 |
+
return user_id, "Inscription réussie. Vous pouvez maintenant vous connecter.", new_user
|
| 110 |
+
else:
|
| 111 |
+
# Échec de l'écriture dans la BDD (Baserow)
|
| 112 |
+
# Retourne : None, message d'erreur, None
|
| 113 |
+
return None, "Erreur interne lors de l'enregistrement de l'utilisateur.", None
|
| 114 |
+
|
| 115 |
+
def login_user(username_or_email: str, password: str) -> tuple[Optional[str], str, Optional[Dict]]: # <-- NOUVEAU: Ajout de Optional[Dict] dans le type hint
|
| 116 |
+
"""
|
| 117 |
+
Tente de connecter un utilisateur principal.
|
| 118 |
+
Retourne l'ID utilisateur (str), un message (str) et les données utilisateur (Dict).
|
| 119 |
+
"""
|
| 120 |
+
username_or_email = username_or_email.lower().strip()
|
| 121 |
+
|
| 122 |
+
# 1. Recherche de l'utilisateur par email (Utilisation de la nouvelle fonction rapide Baserow)
|
| 123 |
+
user = get_user_by_email(username_or_email)
|
| 124 |
+
|
| 125 |
+
if user:
|
| 126 |
+
# 2. Vérification du mot de passe
|
| 127 |
+
if check_password_hash(user['password_hash'], password):
|
| 128 |
+
# CORRECTION : Retourne 3 valeurs : ID, Message, Données Utilisateur
|
| 129 |
+
return user['user_id'], "Connexion réussie.", user
|
| 130 |
+
|
| 131 |
+
# CORRECTION : Retourne 3 valeurs : None ID, Message, None Data
|
| 132 |
+
return None, "Email/Nom d'utilisateur ou mot de passe invalide.", None
|
| 133 |
+
|
| 134 |
+
|
| 135 |
+
def get_user_by_id(user_id: str) -> Optional[Dict]:
|
| 136 |
+
"""
|
| 137 |
+
Récupère un utilisateur principal par son ID.
|
| 138 |
+
Utilise la fonction load_primary_user_data (qui est get_user_by_id dans Baserow).
|
| 139 |
+
"""
|
| 140 |
+
return load_primary_user_data(user_id)
|
| 141 |
+
|
| 142 |
+
def get_user_by_api_key(api_key: str) -> Optional[Dict]:
|
| 143 |
+
"""
|
| 144 |
+
Récupère un utilisateur principal par sa Clé API (utilisé par le décorateur).
|
| 145 |
+
Utilise la nouvelle fonction indexée et rapide de Baserow.
|
| 146 |
+
"""
|
| 147 |
+
return get_client_user_by_api_key(api_key)
|
| 148 |
+
|
| 149 |
+
|
| 150 |
+
def reset_password_via_security_question(username_or_email: str, question: str, answer: str, new_password: str) -> tuple[bool, str]:
|
| 151 |
+
"""Réinitialise le mot de passe via la question de sécurité."""
|
| 152 |
+
username_or_email = username_or_email.lower().strip()
|
| 153 |
+
|
| 154 |
+
# Validation du mot de passe
|
| 155 |
+
if len(new_password) < 8:
|
| 156 |
+
return False, "Le nouveau mot de passe est trop court (min 8 caractères)."
|
| 157 |
+
|
| 158 |
+
# 1. Recherche de l'utilisateur
|
| 159 |
+
user = get_user_by_email(username_or_email)
|
| 160 |
+
|
| 161 |
+
if not user:
|
| 162 |
+
return False, "Utilisateur introuvable."
|
| 163 |
+
|
| 164 |
+
# 2. Vérification de la question/réponse
|
| 165 |
+
if user.get('security_question') != question:
|
| 166 |
+
return False, "Question de sécurité incorrecte."
|
| 167 |
+
|
| 168 |
+
if not check_password_hash(user.get('security_answer_hash', ''), answer.lower()):
|
| 169 |
+
return False, "Réponse de sécurité incorrecte."
|
| 170 |
+
|
| 171 |
+
# 3. Hachage du nouveau mot de passe
|
| 172 |
+
new_hashed_password = generate_password_hash(new_password)
|
| 173 |
+
|
| 174 |
+
# 4. Mise à jour et sauvegarde en BDD (Baserow)
|
| 175 |
+
user['password_hash'] = new_hashed_password
|
| 176 |
+
|
| 177 |
+
success = save_primary_user_data(user, commit_msg=f"feat: Réinitialisation MDP utilisateur {user['user_id']}")
|
| 178 |
+
|
| 179 |
+
if success:
|
| 180 |
+
return True, "Mot de passe réinitialisé avec succès."
|
| 181 |
+
else:
|
| 182 |
+
return False, "Erreur interne lors de la mise à jour du mot de passe."
|
| 183 |
+
|
| 184 |
+
|
| 185 |
+
def update_user_plan(user_id: str, new_plan_id: str, stripe_subscription_id: Optional[str]) -> bool:
|
| 186 |
+
"""Met à jour le plan et l'ID d'abonnement Stripe pour un utilisateur."""
|
| 187 |
+
|
| 188 |
+
user = get_user_by_id(user_id)
|
| 189 |
+
|
| 190 |
+
if not user:
|
| 191 |
+
print(f"Erreur: Utilisateur {user_id} non trouvé pour la mise à jour du plan.", file=sys.stderr)
|
| 192 |
+
return False
|
| 193 |
+
|
| 194 |
+
user['plan_id'] = new_plan_id
|
| 195 |
+
user['stripe_subscription_id'] = stripe_subscription_id
|
| 196 |
+
user['date_plan_start'] = datetime.now().isoformat()
|
| 197 |
+
|
| 198 |
+
success = save_primary_user_data(user, commit_msg=f"feat: Mise à jour du plan pour {user_id} vers {new_plan_id}")
|
| 199 |
+
|
| 200 |
+
return success
|
| 201 |
+
|
| 202 |
+
|
| 203 |
+
def update_user_profile(user_id: str, username: str, email: str, new_password: Optional[str] = None) -> tuple[bool, str]:
|
| 204 |
+
"""
|
| 205 |
+
Met à jour le profil de l'utilisateur principal (client).
|
| 206 |
+
user_id: L'UUID de l'utilisateur.
|
| 207 |
+
username: Le nouveau nom d'utilisateur.
|
| 208 |
+
email: Le nouvel email.
|
| 209 |
+
new_password: Le nouveau mot de passe (si fourni et non vide).
|
| 210 |
+
"""
|
| 211 |
+
|
| 212 |
+
# 1. Chargement des données existantes
|
| 213 |
+
user_data = load_primary_user_data(user_id)
|
| 214 |
+
if not user_data:
|
| 215 |
+
return False, "Erreur critique : Utilisateur introuvable pour la mise à jour."
|
| 216 |
+
|
| 217 |
+
original_email = user_data.get('email')
|
| 218 |
+
|
| 219 |
+
# 2. Validation et mise à jour de l'email
|
| 220 |
+
if email and email != original_email:
|
| 221 |
+
# Vérification si le nouvel email n'est pas déjà utilisé par un autre utilisateur
|
| 222 |
+
# Note: get_user_by_email retourne l'objet utilisateur, pas juste l'ID.
|
| 223 |
+
existing_user_by_email = get_user_by_email(email)
|
| 224 |
+
|
| 225 |
+
# S'il trouve un utilisateur ET que son ID ne correspond pas à l'utilisateur actuel,
|
| 226 |
+
# l'email est déjà pris.
|
| 227 |
+
if existing_user_by_email and existing_user_by_email.get('user_id') != user_id:
|
| 228 |
+
return False, "Cet email est déjà utilisé par un autre compte."
|
| 229 |
+
|
| 230 |
+
# Mise à jour de l'email si la validation passe
|
| 231 |
+
user_data['email'] = email
|
| 232 |
+
|
| 233 |
+
# 3. Mise à jour du nom d'utilisateur (pas de validation d'unicité assumée ici)
|
| 234 |
+
user_data['username'] = username
|
| 235 |
+
|
| 236 |
+
# 4. Mise à jour du mot de passe (si un nouveau est fourni)
|
| 237 |
+
if new_password:
|
| 238 |
+
if len(new_password) < 8:
|
| 239 |
+
# Assurez-vous que cette limite est cohérente avec la fonction register_user
|
| 240 |
+
return False, "Le nouveau mot de passe est trop court (min 8 caractères)."
|
| 241 |
+
|
| 242 |
+
user_data['password_hash'] = generate_password_hash(new_password)
|
| 243 |
+
|
| 244 |
+
# 5. Sauvegarde des données
|
| 245 |
+
# Le row_id est stocké dans l'objet utilisateur après la première sauvegarde.
|
| 246 |
+
baserow_row_id = user_data.get('baserow_row_id')
|
| 247 |
+
|
| 248 |
+
if baserow_row_id is None:
|
| 249 |
+
return False, "Erreur de configuration : ID de ligne Baserow manquant."
|
| 250 |
+
|
| 251 |
+
if save_primary_user_data(user_data, commit_msg=f"feat: Mise à jour du profil utilisateur {user_id}"):
|
| 252 |
+
return True, "Votre profil a été mis à jour avec succès."
|
| 253 |
+
else:
|
| 254 |
+
return False, "Une erreur s'est produite lors de la sauvegarde du profil."
|
| 255 |
+
|
| 256 |
+
def register_end_user(client_id: str, username: str, email: str, password: str, confirm_password: str) -> tuple[Optional[str], str, Optional[Dict]]:
|
| 257 |
+
"""
|
| 258 |
+
Enregistre un nouvel utilisateur final (End User) lié à un utilisateur client (Primary User).
|
| 259 |
+
"""
|
| 260 |
+
if password != confirm_password:
|
| 261 |
+
return None, "Les mots de passe ne correspondent pas.", None
|
| 262 |
+
if len(password) < 8:
|
| 263 |
+
return None, "Le mot de passe doit contenir au moins 8 caractères.", None
|
| 264 |
+
|
| 265 |
+
# Vérification de l'unicité de l'email UNIQUEMENT pour ce client et pour le type 'End'
|
| 266 |
+
existing_user_by_email = load_primary_user_data(
|
| 267 |
+
filters={
|
| 268 |
+
FIELD_EMAIL: email,
|
| 269 |
+
FIELD_USER_TYPE: 'End',
|
| 270 |
+
FIELD_CLIENT_ID: client_id
|
| 271 |
+
}
|
| 272 |
+
)
|
| 273 |
+
if existing_user_by_email:
|
| 274 |
+
return None, "Cet email est déjà utilisé pour votre service.", None
|
| 275 |
+
|
| 276 |
+
# 1. Création des données de l'utilisateur final
|
| 277 |
+
user_id = str(uuid.uuid4())
|
| 278 |
+
password_hash = generate_password_hash(password)
|
| 279 |
+
|
| 280 |
+
new_user_data = {
|
| 281 |
+
FIELD_ID: user_id,
|
| 282 |
+
FIELD_EMAIL: email,
|
| 283 |
+
FIELD_USERNAME: username,
|
| 284 |
+
FIELD_PASSWORD_HASH: password_hash,
|
| 285 |
+
FIELD_DATE_CREATION: datetime.now().isoformat(),
|
| 286 |
+
FIELD_USER_TYPE: 'End', # <-- IMPORTANT: Marquer comme utilisateur final
|
| 287 |
+
FIELD_CLIENT_ID: client_id, # <-- IMPORTANT: Lier au client principal
|
| 288 |
+
FIELD_PLAN: PLANS_CONFIG['free']['baserow_value'], # Plan par défaut
|
| 289 |
+
}
|
| 290 |
+
|
| 291 |
+
# 2. Sauvegarde dans Baserow (dans la même table)
|
| 292 |
+
success, row_id = save_primary_user_data(new_user_data, is_new=True)
|
| 293 |
+
|
| 294 |
+
if success:
|
| 295 |
+
new_user_data['baserow_row_id'] = row_id
|
| 296 |
+
return user_id, "Inscription réussie !", new_user_data
|
| 297 |
+
else:
|
| 298 |
+
return None, f"Erreur lors de l'enregistrement dans la base de données. ID: {user_id}", None
|
| 299 |
+
|
| 300 |
+
def login_end_user(client_id: str, email: str, password: str) -> tuple[Optional[str], str, Optional[Dict]]:
|
| 301 |
+
"""
|
| 302 |
+
Connecte un utilisateur final (End User) lié à un client donné.
|
| 303 |
+
"""
|
| 304 |
+
user_data_list = load_primary_user_data(
|
| 305 |
+
filters={
|
| 306 |
+
FIELD_EMAIL: email,
|
| 307 |
+
FIELD_USER_TYPE: 'End', # Filtrer uniquement les utilisateurs finaux
|
| 308 |
+
FIELD_CLIENT_ID: client_id # Filtrer par l'ID du client
|
| 309 |
+
}
|
| 310 |
+
)
|
| 311 |
+
|
| 312 |
+
if not user_data_list:
|
| 313 |
+
return None, "Email ou mot de passe invalide.", None
|
| 314 |
+
|
| 315 |
+
user_data = user_data_list[0]
|
| 316 |
+
|
| 317 |
+
if check_password_hash(user_data.get(FIELD_PASSWORD_HASH), password):
|
| 318 |
+
return user_data.get(FIELD_ID), "Connexion réussie.", user_data
|
| 319 |
+
else:
|
| 320 |
+
return None, "Email ou mot de passe invalide.", None
|
| 321 |
+
|
| 322 |
+
def reset_end_user_password(client_id: str, email: str, new_password: str, confirm_password: str) -> tuple[bool, str]:
|
| 323 |
+
"""
|
| 324 |
+
Réinitialise le mot de passe d'un utilisateur final (End User) lié à un client donné.
|
| 325 |
+
"""
|
| 326 |
+
if new_password != confirm_password:
|
| 327 |
+
return False, "Les mots de passe ne correspondent pas."
|
| 328 |
+
if len(new_password) < 8:
|
| 329 |
+
return False, "Le nouveau mot de passe est trop court (min 8 caractères)."
|
| 330 |
+
|
| 331 |
+
user_data_list = load_primary_user_data(
|
| 332 |
+
filters={
|
| 333 |
+
FIELD_EMAIL: email,
|
| 334 |
+
FIELD_USER_TYPE: 'End',
|
| 335 |
+
FIELD_CLIENT_ID: client_id
|
| 336 |
+
}
|
| 337 |
+
)
|
| 338 |
+
|
| 339 |
+
if not user_data_list:
|
| 340 |
+
return False, "Utilisateur non trouvé."
|
| 341 |
+
|
| 342 |
+
user_data = user_data_list[0]
|
| 343 |
+
|
| 344 |
+
# Mise à jour du mot de passe
|
| 345 |
+
user_data[FIELD_PASSWORD_HASH] = generate_password_hash(new_password)
|
| 346 |
+
|
| 347 |
+
baserow_row_id = user_data.get('baserow_row_id')
|
| 348 |
+
|
| 349 |
+
if baserow_row_id is None:
|
| 350 |
+
return False, "Erreur de configuration: ID de ligne Baserow manquant."
|
| 351 |
+
|
| 352 |
+
success, _ = save_primary_user_data(user_data, commit_to_baserow=True)
|
| 353 |
+
|
| 354 |
+
if success:
|
| 355 |
+
return True, "Votre mot de passe a été réinitialisé avec succès."
|
| 356 |
+
else:
|
| 357 |
+
return False, "Une erreur s'est produite lors de la réinitialisation du mot de passe."
|
| 358 |
+
|
| 359 |
+
def get_client_user_by_uuid(user_uuid: str) -> Optional[Dict]:
|
| 360 |
+
"""
|
| 361 |
+
Récupère les données d'un utilisateur principal (Client) par son UUID/ID.
|
| 362 |
+
|
| 363 |
+
Ceci est un alias pour satisfaire l'appel de fonction dans decorators.py
|
| 364 |
+
sans avoir à modifier ce dernier fichier.
|
| 365 |
+
|
| 366 |
+
Elle suppose que la fonction 'get_user_by_id' est déjà définie
|
| 367 |
+
dans ce module et gère la logique de récupération de données.
|
| 368 |
+
"""
|
| 369 |
+
# Assurez-vous que get_user_by_id est bien définie avant cet alias.
|
| 370 |
+
# get_user_by_id doit retourner les données utilisateur ou None.
|
| 371 |
+
return get_user_by_id(user_uuid)
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/baserow_storage.py
ADDED
|
@@ -0,0 +1,791 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# baserow_storage.py (Version Modifiée)
|
| 2 |
+
|
| 3 |
+
import os
|
| 4 |
+
import requests
|
| 5 |
+
import json
|
| 6 |
+
import sys
|
| 7 |
+
from datetime import datetime
|
| 8 |
+
from typing import Optional, Dict
|
| 9 |
+
import logging
|
| 10 |
+
# Configuration du logger (ajoutez ceci en haut du fichier)
|
| 11 |
+
logger = logging.getLogger(__name__)
|
| 12 |
+
# --- Configuration Baserow (Doit être défini dans les secrets) ---
|
| 13 |
+
HEALTH_CHECK_URL = "https://api.baserow.io/api/database/rows/table/"
|
| 14 |
+
|
| 15 |
+
# 2. URL de BASE CORRECTE pour la construction des requêtes de données (connexion, inscription, etc.)
|
| 16 |
+
DATA_BASE_URL = "https://api.baserow.io/api/database/rows/"
|
| 17 |
+
API_TOKEN = os.environ.get("BASEROW_API_TOKEN")
|
| 18 |
+
|
| 19 |
+
# Les IDs de table seront récupérés depuis les variables d'environnement
|
| 20 |
+
PRIMARY_USERS_TABLE_ID = os.environ.get("PRIMARY_USERS_TABLE_ID")
|
| 21 |
+
END_USERS_TABLE_ID = os.environ.get("END_USERS_TABLE_ID")
|
| 22 |
+
# NOUVEL ID DE TABLE POUR LES DÉPLOIEMENTS (Projets)
|
| 23 |
+
DEPLOYMENTS_TABLE_ID = os.environ.get("DEPLOYMENTS_TABLE_ID")
|
| 24 |
+
|
| 25 |
+
# Headers pour l'authentification
|
| 26 |
+
HEADERS = {
|
| 27 |
+
"Authorization": f"Token {API_TOKEN}",
|
| 28 |
+
"Content-Type": "application/json"
|
| 29 |
+
}
|
| 30 |
+
|
| 31 |
+
|
| 32 |
+
FIELD_ID = 'ID' # Correspond à 'user_id' dans le code
|
| 33 |
+
FIELD_EMAIL = 'Email' # Correspond à 'email'
|
| 34 |
+
FIELD_USERNAME = 'Nom d\'utilisateur' # Correspond à 'username'
|
| 35 |
+
FIELD_PASSWORD_HASH = 'Hachage Mot de Passe' # Correspond à 'password_hash'
|
| 36 |
+
FIELD_API_KEY = 'Clé API' # Correspond à 'api_key'
|
| 37 |
+
FIELD_API_KEY_2 = 'Clé API 2'
|
| 38 |
+
FIELD_API_KEY_3 = 'Clé API 3'
|
| 39 |
+
FIELD_API_KEY_4 = 'Clé API 4'
|
| 40 |
+
FIELD_API_KEY_5 = 'Clé API 5'
|
| 41 |
+
FIELD_SECURITY_Q = 'Question de Sécurité'
|
| 42 |
+
FIELD_SECURITY_A_HASH = 'Hachage Réponse Secrète'
|
| 43 |
+
FIELD_PLAN_ID = 'Plan ID'
|
| 44 |
+
FIELD_STRIPE_SUB_ID = 'ID Abonnement Stripe'
|
| 45 |
+
FIELD_DATE_CREATION = 'Date Création'
|
| 46 |
+
FIELD_DATE_PLAN_START = 'Date Plan Start'
|
| 47 |
+
FIELD_API_CALLS_MONTH = 'API Calls Month' # À vérifier avec votre nom exact dans Baserow!
|
| 48 |
+
FIELD_STATUS = 'Status'
|
| 49 |
+
FIELD_END_USER_ID = 'ID Utilisateur Final' # Correspond à 'end_user_id'
|
| 50 |
+
FIELD_END_USER_IDENTIFIER = 'Identifiant' # Correspond à 'identifier'
|
| 51 |
+
FIELD_END_USER_METADATA = 'Métadonnées' # Correspond à 'metadata'
|
| 52 |
+
FIELD_CLIENT_ID_LINK = 'ID Client Principal' # Lien vers Primary_Users
|
| 53 |
+
FIELD_USER_TYPE = 'UserType' # Ex: 'Primary' pour les clients, 'End' pour leurs utilisateurs
|
| 54 |
+
FIELD_CLIENT_ID = 'ClientID' # L'ID de l'utilisateur 'Primary' qui possède cet utilisateur 'End'
|
| 55 |
+
|
| 56 |
+
# ----------------------------------------------------------------------
|
| 57 |
+
# --- Noms de Colonnes pour la Table des Utilisateurs Finaux (End Users) ---
|
| 58 |
+
# ----------------------------------------------------------------------
|
| 59 |
+
# Ces champs sont spécifiques à la table END_USERS
|
| 60 |
+
FIELD_END_USER_ID = 'ID Utilisateur Final'
|
| 61 |
+
FIELD_END_USER_IDENTIFIER = 'Identifiant' # Champ pour compatibilité ou recherche
|
| 62 |
+
FIELD_END_USER_EMAIL = 'Email' # NOUVEAU
|
| 63 |
+
FIELD_END_USER_USERNAME = 'Nom d\'utilisateur' # NOUVEAU
|
| 64 |
+
FIELD_END_USER_SECURITY_Q = 'Question de Sécurité' # NOUVEAU (Peut être différent de Primary)
|
| 65 |
+
FIELD_END_USER_SECURITY_A_HASH = 'Hachage Réponse Secrète' # NOUVEAU
|
| 66 |
+
FIELD_END_USER_STATUS = 'Statut' # NOUVEAU
|
| 67 |
+
FIELD_END_USER_METADATA = 'Métadonnées'
|
| 68 |
+
FIELD_PASSWORD_HASH_END_USER = 'Hachage Mot de Passe End User' # Renommer pour éviter le conflit si possible
|
| 69 |
+
FIELD_CLIENT_ID_LINK = 'ID Client Principal'
|
| 70 |
+
|
| 71 |
+
def _get_table_url(table_id: str) -> str:
|
| 72 |
+
"""Construit l'URL d'API pour une table donnée (avec le bon endpoint)."""
|
| 73 |
+
return f"{DATA_BASE_URL}table/{table_id}/"
|
| 74 |
+
|
| 75 |
+
def _baserow_record_to_user(record: Dict, is_end_user: bool) -> Dict:
|
| 76 |
+
"""
|
| 77 |
+
Convertit un enregistrement Baserow (avec noms de champs utilisateur)
|
| 78 |
+
en format de dictionnaire Python attendu par le backend.
|
| 79 |
+
"""
|
| 80 |
+
|
| 81 |
+
|
| 82 |
+
|
| 83 |
+
# LOGIQUE POUR L'UTILISATEUR PRINCIPAL (PRIMARY USER)
|
| 84 |
+
|
| 85 |
+
# 1. Récupération des champs individuels
|
| 86 |
+
user_data = {
|
| 87 |
+
# Champs communs / Primary Users
|
| 88 |
+
'baserow_row_id': record['id'], # ID interne de la ligne Baserow (pour les mises à jour)
|
| 89 |
+
'date_creation': record.get(FIELD_DATE_CREATION),
|
| 90 |
+
|
| 91 |
+
# Primary User specific fields
|
| 92 |
+
'user_id': record.get(FIELD_ID),
|
| 93 |
+
'email': record.get(FIELD_EMAIL),
|
| 94 |
+
'username': record.get(FIELD_USERNAME),
|
| 95 |
+
'password_hash': record.get(FIELD_PASSWORD_HASH),
|
| 96 |
+
|
| 97 |
+
# Récupération des 5 clés individuelles (pour l'authentification par clé)
|
| 98 |
+
'api_key': record.get(FIELD_API_KEY),
|
| 99 |
+
'api_key_2': record.get(FIELD_API_KEY_2),
|
| 100 |
+
'api_key_3': record.get(FIELD_API_KEY_3),
|
| 101 |
+
'api_key_4': record.get(FIELD_API_KEY_4),
|
| 102 |
+
'api_key_5': record.get(FIELD_API_KEY_5),
|
| 103 |
+
|
| 104 |
+
'security_question': record.get(FIELD_SECURITY_Q),
|
| 105 |
+
'security_answer_hash': record.get(FIELD_SECURITY_A_HASH),
|
| 106 |
+
'plan_id': record.get(FIELD_PLAN_ID),
|
| 107 |
+
'stripe_subscription_id': record.get(FIELD_STRIPE_SUB_ID),
|
| 108 |
+
'date_plan_start': record.get(FIELD_DATE_PLAN_START),
|
| 109 |
+
}
|
| 110 |
+
|
| 111 |
+
# 2. ÉTAPE CRUCIALE AJOUTÉE : Création de la liste 'api_keys' pour l'affichage
|
| 112 |
+
# Cette liste est nécessaire pour que la boucle dans api_key.html fonctionne correctement.
|
| 113 |
+
user_data['api_keys'] = [
|
| 114 |
+
user_data['api_key'],
|
| 115 |
+
user_data['api_key_2'],
|
| 116 |
+
user_data['api_key_3'],
|
| 117 |
+
user_data['api_key_4'],
|
| 118 |
+
user_data['api_key_5'],
|
| 119 |
+
]
|
| 120 |
+
|
| 121 |
+
# Nettoyage des clés None ou non-pertinentes
|
| 122 |
+
return {k: v for k, v in user_data.items() if v is not None}
|
| 123 |
+
|
| 124 |
+
|
| 125 |
+
def _user_to_baserow_data(user_data: Dict, is_end_user: bool) -> Dict:
|
| 126 |
+
"""
|
| 127 |
+
Convertit le format de dictionnaire Python du backend en format
|
| 128 |
+
JSON attendu par l'API Baserow (avec noms de champs utilisateur).
|
| 129 |
+
"""
|
| 130 |
+
if is_end_user:
|
| 131 |
+
# End User fields (Ajout des NOUVEAUX champs)
|
| 132 |
+
baserow_data = {
|
| 133 |
+
FIELD_END_USER_ID: user_data.get('end_user_id'),
|
| 134 |
+
FIELD_END_USER_IDENTIFIER: user_data.get('identifier'),
|
| 135 |
+
FIELD_END_USER_EMAIL: user_data.get('email'), # NOUVEAU
|
| 136 |
+
FIELD_END_USER_USERNAME: user_data.get('username'), # NOUVEAU
|
| 137 |
+
FIELD_END_USER_SECURITY_Q: user_data.get('security_question'), # NOUVEAU
|
| 138 |
+
FIELD_END_USER_SECURITY_A_HASH: user_data.get('security_answer_hash'), # NOUVEAU
|
| 139 |
+
FIELD_END_USER_STATUS: user_data.get('status'), # NOUVEAU
|
| 140 |
+
|
| 141 |
+
# CORRECTION CRUCIALE : Utilisation du nom de champ correct pour l'End User
|
| 142 |
+
FIELD_PASSWORD_HASH_END_USER: user_data.get('password_hash'),
|
| 143 |
+
|
| 144 |
+
FIELD_END_USER_METADATA: user_data.get('metadata'),
|
| 145 |
+
FIELD_DATE_CREATION: user_data.get('date_creation'),
|
| 146 |
+
# Le lien vers Primary_Users est géré dans save_end_user_data
|
| 147 |
+
}
|
| 148 |
+
else:
|
| 149 |
+
# Primary User fields
|
| 150 |
+
baserow_data = {
|
| 151 |
+
FIELD_ID: user_data.get('user_id'),
|
| 152 |
+
FIELD_EMAIL: user_data.get('email'),
|
| 153 |
+
FIELD_USERNAME: user_data.get('username'),
|
| 154 |
+
FIELD_PASSWORD_HASH: user_data.get('password_hash'),
|
| 155 |
+
FIELD_API_KEY: user_data.get('api_key'),
|
| 156 |
+
FIELD_API_KEY_2: user_data.get('api_key_2'),
|
| 157 |
+
FIELD_API_KEY_3: user_data.get('api_key_3'),
|
| 158 |
+
FIELD_API_KEY_4: user_data.get('api_key_4'),
|
| 159 |
+
FIELD_API_KEY_5: user_data.get('api_key_5'),
|
| 160 |
+
FIELD_SECURITY_Q: user_data.get('security_question'),
|
| 161 |
+
FIELD_SECURITY_A_HASH: user_data.get('security_answer_hash'),
|
| 162 |
+
FIELD_PLAN_ID: user_data.get('plan_id'),
|
| 163 |
+
FIELD_STRIPE_SUB_ID: user_data.get('stripe_subscription_id'),
|
| 164 |
+
FIELD_DATE_CREATION: user_data.get('date_creation'),
|
| 165 |
+
FIELD_DATE_PLAN_START: user_data.get('date_plan_start'),
|
| 166 |
+
FIELD_API_CALLS_MONTH: user_data.get('api_calls_month', 0),
|
| 167 |
+
FIELD_STATUS: user_data.get('status', 'Active') # Assurez-vous que 'Active' est une option valide dans Baserow
|
| 168 |
+
}
|
| 169 |
+
|
| 170 |
+
# Suppression des clés non-valorisées (None)
|
| 171 |
+
return {k: v for k, v in baserow_data.items() if v is not None}
|
| 172 |
+
|
| 173 |
+
|
| 174 |
+
def _get_single_user_record(table_id: str, field_name: str, value: str, is_end_user: bool) -> Optional[Dict]:
|
| 175 |
+
"""Fonction générique pour rechercher un seul enregistrement par un champ (filtrage Baserow)."""
|
| 176 |
+
url = _get_table_url(table_id)
|
| 177 |
+
# Utilisation du paramètre de filtre de Baserow pour une recherche indexée (plus rapide)
|
| 178 |
+
filter_param = f"filter__{field_name}__equal={value}"
|
| 179 |
+
|
| 180 |
+
try:
|
| 181 |
+
response = requests.get(
|
| 182 |
+
f"{url}?user_field_names=true&{filter_param}",
|
| 183 |
+
headers=HEADERS
|
| 184 |
+
)
|
| 185 |
+
response.raise_for_status()
|
| 186 |
+
|
| 187 |
+
data = response.json()
|
| 188 |
+
if data and data.get('results'):
|
| 189 |
+
# On ne prend que le premier résultat (car ID/Email/API Key sont uniques)
|
| 190 |
+
return _baserow_record_to_user(data['results'][0], is_end_user)
|
| 191 |
+
return None
|
| 192 |
+
|
| 193 |
+
except requests.exceptions.RequestException as e:
|
| 194 |
+
print(f"Erreur de Baserow lors de la recherche par filtre {field_name}: {e}", file=sys.stderr)
|
| 195 |
+
return None
|
| 196 |
+
|
| 197 |
+
# ----------------------------------------------------------------------
|
| 198 |
+
# --- Fonctions CRUD Primary_Users (Nouveau et Remplacement) ---
|
| 199 |
+
# ----------------------------------------------------------------------
|
| 200 |
+
|
| 201 |
+
def get_user_by_email(email: str) -> Optional[Dict]:
|
| 202 |
+
"""Recherche un utilisateur principal par son adresse Email."""
|
| 203 |
+
return _get_single_user_record(PRIMARY_USERS_TABLE_ID, FIELD_EMAIL, email, is_end_user=False)
|
| 204 |
+
|
| 205 |
+
API_KEY_FIELDS = [
|
| 206 |
+
FIELD_API_KEY, # Clé API
|
| 207 |
+
FIELD_API_KEY_2,
|
| 208 |
+
FIELD_API_KEY_3,
|
| 209 |
+
FIELD_API_KEY_4,
|
| 210 |
+
FIELD_API_KEY_5,
|
| 211 |
+
]
|
| 212 |
+
|
| 213 |
+
# baserow_storage.py - à partir de la ligne ~180 (ou autour de la fonction get_client_user_by_api_key)
|
| 214 |
+
|
| 215 |
+
def get_client_user_by_api_key(api_key: str) -> Optional[Dict]:
|
| 216 |
+
"""
|
| 217 |
+
Recherche un utilisateur principal dans Baserow en vérifiant la clé API
|
| 218 |
+
dans chacun des cinq champs de clé API de la table.
|
| 219 |
+
"""
|
| 220 |
+
if not api_key:
|
| 221 |
+
logger.debug("get_client_user_by_api_key: Clé API est None ou vide.")
|
| 222 |
+
return None
|
| 223 |
+
|
| 224 |
+
# Construction de l'URL de base pour la table
|
| 225 |
+
url = f"{DATA_BASE_URL}table/{PRIMARY_USERS_TABLE_ID}/"
|
| 226 |
+
|
| 227 |
+
# Recherche large dans la table (jusqu'à 100 lignes)
|
| 228 |
+
# NOTE: L'API Baserow utilise `search` pour une recherche FULL TEXT dans tous les champs.
|
| 229 |
+
# C'est la source potentielle de l'inexactitude qui nécessite un filtrage manuel.
|
| 230 |
+
params = {'search': api_key, 'size': 100}
|
| 231 |
+
|
| 232 |
+
try:
|
| 233 |
+
# CORRECTION 1: Utilisation de la fonction _make_baserow_request
|
| 234 |
+
# (Cette fonction est maintenant définie à la fin du fichier)
|
| 235 |
+
# On utilise log_response=True ici pour avoir un log détaillé si la requête échoue
|
| 236 |
+
response = _make_baserow_request("GET", url, params=params, log_response=True)
|
| 237 |
+
|
| 238 |
+
if response.status_code == 200:
|
| 239 |
+
data = response.json()
|
| 240 |
+
|
| 241 |
+
# NOUVEAU LOG : Afficher combien de résultats ont été renvoyés par la recherche Baserow
|
| 242 |
+
num_results = len(data.get('results', []))
|
| 243 |
+
logger.info(f"BASEROW SEARCH: Clé API: {api_key[:8]}... | URL: {url} | Résultats Baserow: {num_results}")
|
| 244 |
+
|
| 245 |
+
if data and 'results' in data and num_results > 0:
|
| 246 |
+
# Filtrage manuel des résultats pour vérifier la clé exacte
|
| 247 |
+
for row in data['results']:
|
| 248 |
+
# Vérifier si la clé API correspond à l'un des 5 champs
|
| 249 |
+
if any(row.get(field) == api_key for field in API_KEY_FIELDS):
|
| 250 |
+
# NOUVEAU LOG : SUCCÈS - L'utilisateur a été trouvé
|
| 251 |
+
logger.info(f"BASEROW SUCCESS: Utilisateur trouvé avec la clé API {api_key[:8]}... dans un des 5 champs.")
|
| 252 |
+
try:
|
| 253 |
+
# On suppose que _baserow_record_to_user existe et prend un booléen
|
| 254 |
+
return _baserow_record_to_user(row, is_end_user=False)
|
| 255 |
+
except NameError:
|
| 256 |
+
logger.error("_baserow_record_to_user non définie. Erreur critique.")
|
| 257 |
+
return None
|
| 258 |
+
|
| 259 |
+
# NOUVEAU LOG : ÉCHEC DU FILTRAGE
|
| 260 |
+
logger.warning(f"BASEROW FILTER FAIL: {num_results} ligne(s) trouvée(s) par 'search' Baserow, mais aucune ne correspondait exactement à la clé API: {api_key[:8]}...")
|
| 261 |
+
return None
|
| 262 |
+
|
| 263 |
+
# Aucune ligne trouvée dans Baserow (num_results est 0)
|
| 264 |
+
logger.debug(f"BASEROW NO RESULT: Aucune ligne trouvée par la recherche Baserow pour la clé API: {api_key[:8]}...")
|
| 265 |
+
return None
|
| 266 |
+
|
| 267 |
+
# Traiter les erreurs HTTP de Baserow (log déjà dans _make_baserow_request)
|
| 268 |
+
return None
|
| 269 |
+
|
| 270 |
+
except Exception as e:
|
| 271 |
+
# Erreur inattendue pendant le traitement
|
| 272 |
+
logger.error(f"Erreur CRITIQUE lors du traitement de la recherche par clé API: {e}", exc_info=True)
|
| 273 |
+
return None
|
| 274 |
+
|
| 275 |
+
# Remplacement de l'ancien load_primary_user_data(user_id)
|
| 276 |
+
def load_primary_user_data(user_id: str) -> Optional[Dict]:
|
| 277 |
+
"""Recherche un utilisateur principal par son ID (user_id)."""
|
| 278 |
+
return _get_single_user_record(PRIMARY_USERS_TABLE_ID, FIELD_ID, user_id, is_end_user=False)
|
| 279 |
+
|
| 280 |
+
|
| 281 |
+
def save_primary_user_data(user_data: Dict, commit_msg: str = "") -> bool:
|
| 282 |
+
"""Crée ou met à jour un utilisateur principal, avec détection d'erreur ultra-précise."""
|
| 283 |
+
row_id = user_data.get('baserow_row_id')
|
| 284 |
+
|
| 285 |
+
# Définition de l'URL de base pour la table des utilisateurs principaux
|
| 286 |
+
url = _get_table_url(PRIMARY_USERS_TABLE_ID)
|
| 287 |
+
|
| 288 |
+
# 1. Conversion des données
|
| 289 |
+
baserow_data = _user_to_baserow_data(user_data, is_end_user=False)
|
| 290 |
+
|
| 291 |
+
# 2. Suppression des champs en lecture seule (comme dans la correction précédente)
|
| 292 |
+
if baserow_data.pop(FIELD_ID, None):
|
| 293 |
+
print(f"DEBUG: Suppression du champ '{FIELD_ID}' (UUID auto) avant l'envoi { 'POST' if not row_id else 'PATCH'}.", file=sys.stderr)
|
| 294 |
+
|
| 295 |
+
try:
|
| 296 |
+
# Détermination de l'action (PATCH ou POST)
|
| 297 |
+
if row_id:
|
| 298 |
+
action = "PATCH" # ⬅️ CORRECTION: Définition de 'action'
|
| 299 |
+
# MISE À JOUR (PATCH)
|
| 300 |
+
response = requests.patch(
|
| 301 |
+
f"{url}{row_id}/?user_field_names=true",
|
| 302 |
+
headers=HEADERS,
|
| 303 |
+
json=baserow_data
|
| 304 |
+
)
|
| 305 |
+
else:
|
| 306 |
+
action = "POST" # ⬅️ CORRECTION: Définition de 'action'
|
| 307 |
+
# CRÉATION (POST)
|
| 308 |
+
response = requests.post(
|
| 309 |
+
f"{url}?user_field_names=true", # ⬅️ CORRECTION: Utilise l'URL de table 'url'
|
| 310 |
+
headers=HEADERS,
|
| 311 |
+
json=baserow_data
|
| 312 |
+
)
|
| 313 |
+
|
| 314 |
+
# Déclenche une exception requests.exceptions.HTTPError pour les statuts 4xx/5xx
|
| 315 |
+
response.raise_for_status()
|
| 316 |
+
|
| 317 |
+
# Succès
|
| 318 |
+
if not row_id:
|
| 319 |
+
new_record = response.json()
|
| 320 |
+
# 1. Mettre à jour l'ID de ligne Baserow
|
| 321 |
+
user_data['baserow_row_id'] = new_record.get('id')
|
| 322 |
+
# 2. Mettre à jour l'UUID de l'utilisateur (généré par Baserow)
|
| 323 |
+
user_data['user_id'] = new_record.get(FIELD_ID)
|
| 324 |
+
|
| 325 |
+
print(f"DEBUG: UUID de l'utilisateur généré par Baserow et enregistré: {user_data['user_id']}", file=sys.stderr)
|
| 326 |
+
|
| 327 |
+
print(f"DEBUG: Baserow Primary User action '{action}' réussie. Row ID: {user_data.get('baserow_row_id')}. Message: {commit_msg}", file=sys.stderr)
|
| 328 |
+
return True
|
| 329 |
+
|
| 330 |
+
except requests.exceptions.RequestException as e:
|
| 331 |
+
# --- BLOC DE DÉTECTION D'ERREUR PRÉCISE (Ultra-Complet) ---
|
| 332 |
+
|
| 333 |
+
# Note: 'action' est définie dans le bloc try/except, mais si l'erreur survient
|
| 334 |
+
# AVANT la définition de 'action', nous devons la gérer.
|
| 335 |
+
# Pour être sûr, nous allons la définir ici par défaut si elle n'existe pas.
|
| 336 |
+
if 'action' not in locals():
|
| 337 |
+
action = "INCONNU"
|
| 338 |
+
|
| 339 |
+
error_message = f"🚨 ÉCHEC: Erreur lors de la sauvegarde/mise à jour du Primary User dans Baserow. Requête: {action}"
|
| 340 |
+
error_details = ""
|
| 341 |
+
|
| 342 |
+
if hasattr(e, 'response') and e.response is not None:
|
| 343 |
+
# 1. Statut HTTP et URL
|
| 344 |
+
error_details += f"\n -> STATUT HTTP: {e.response.status_code} ({e.response.reason})"
|
| 345 |
+
error_details += f"\n -> URL de la requête: {e.response.url}"
|
| 346 |
+
|
| 347 |
+
# 2. Tenter de décoder le corps de la réponse en JSON (contient les erreurs Baserow)
|
| 348 |
+
try:
|
| 349 |
+
response_json = e.response.json()
|
| 350 |
+
error_details += f"\n\n -> ERREUR BASEROW DÉTAILLÉE (JSON):\n{json.dumps(response_json, indent=4)}"
|
| 351 |
+
|
| 352 |
+
# Optionnel: Synthèse des erreurs de validation de champ
|
| 353 |
+
if isinstance(response_json, dict):
|
| 354 |
+
validation_errors = {k: v for k, v in response_json.items() if isinstance(v, list) and k != 'detail'}
|
| 355 |
+
if validation_errors:
|
| 356 |
+
error_details += "\n -> SYNTHÈSE DES CHAMPS INVALIDES (Vérifiez les noms de colonnes/IDs de table!):"
|
| 357 |
+
for field_name, errors in validation_errors.items():
|
| 358 |
+
error_details += f"\n - Champ '{field_name}': {', '.join([err.get('error', 'Erreur inconnue') for err in errors])}"
|
| 359 |
+
|
| 360 |
+
except json.JSONDecodeError:
|
| 361 |
+
# 3. Si le corps de la réponse n'est pas du JSON
|
| 362 |
+
error_details += f"\n\n -> ERREUR BRUTE (Réponse non-JSON):\n{e.response.text[:500]}..."
|
| 363 |
+
|
| 364 |
+
# 4. Afficher les données que nous avons tenté d'envoyer (après la suppression de l'ID si c'était une création)
|
| 365 |
+
error_details += f"\n\n -> DONNÉES ENVOYÉES À BASEROW:\n{json.dumps(baserow_data, indent=4)}"
|
| 366 |
+
|
| 367 |
+
# Log complet de l'erreur
|
| 368 |
+
print(error_message + error_details, file=sys.stderr)
|
| 369 |
+
|
| 370 |
+
return False
|
| 371 |
+
|
| 372 |
+
|
| 373 |
+
# ----------------------------------------------------------------------
|
| 374 |
+
# --- Fonctions CRUD End_Users (Remplacement) ---
|
| 375 |
+
# ----------------------------------------------------------------------
|
| 376 |
+
|
| 377 |
+
# baserow_storage.py : Dans la section CRUD End_Users
|
| 378 |
+
|
| 379 |
+
|
| 380 |
+
def _get_client_baserow_row_id(client_user_id: str) -> Optional[int]:
|
| 381 |
+
"""Récupère l'ID de ligne interne Baserow du client principal pour le lien."""
|
| 382 |
+
client_user = load_primary_user_data(client_user_id) # utilise la fonction déjà créée
|
| 383 |
+
return client_user.get('baserow_row_id') if client_user else None
|
| 384 |
+
|
| 385 |
+
|
| 386 |
+
def check_baserow_connection() -> str:
|
| 387 |
+
"""
|
| 388 |
+
Vérifie l'état de connexion de la base de données Baserow.
|
| 389 |
+
Retourne 'operational' ou 'outage'.
|
| 390 |
+
"""
|
| 391 |
+
# Liste des IDs de tables critiques à vérifier
|
| 392 |
+
CRITICAL_TABLE_IDS = [
|
| 393 |
+
PRIMARY_USERS_TABLE_ID,
|
| 394 |
+
END_USERS_TABLE_ID
|
| 395 |
+
]
|
| 396 |
+
|
| 397 |
+
if not API_TOKEN:
|
| 398 |
+
# Si le token API n'est pas défini, échec immédiat
|
| 399 |
+
print("DEBUG: BASEROW_API_TOKEN manquant.", file=sys.stderr)
|
| 400 |
+
return "outage"
|
| 401 |
+
|
| 402 |
+
for table_id in CRITICAL_TABLE_IDS:
|
| 403 |
+
if not table_id:
|
| 404 |
+
# Si un des IDs de table critiques n'est pas défini, échec
|
| 405 |
+
print(f"DEBUG: Un ID de table critique Baserow est manquant (ID: {table_id}).", file=sys.stderr)
|
| 406 |
+
return "outage"
|
| 407 |
+
|
| 408 |
+
# Tenter de faire un appel très léger (récupérer la première ligne)
|
| 409 |
+
# On utilise page_size=1 pour minimiser la charge
|
| 410 |
+
url = f"{DATA_BASE_URL}table/{table_id}/?page_size=1"
|
| 411 |
+
|
| 412 |
+
try:
|
| 413 |
+
response = requests.get(url, headers=HEADERS, timeout=5)
|
| 414 |
+
|
| 415 |
+
if response.status_code != 200:
|
| 416 |
+
# Si un 404, 403, ou autre erreur est retournée par Baserow pour CETTE table
|
| 417 |
+
print(f"DEBUG: Baserow check failed for table {table_id} with status code {response.status_code}", file=sys.stderr)
|
| 418 |
+
return "outage"
|
| 419 |
+
|
| 420 |
+
except requests.exceptions.RequestException as e:
|
| 421 |
+
# Erreur de réseau (timeout, DNS, etc.)
|
| 422 |
+
print(f"DEBUG: Baserow connection error for table {table_id}: {e}", file=sys.stderr)
|
| 423 |
+
return "outage"
|
| 424 |
+
|
| 425 |
+
# Si toutes les tables critiques ont été vérifiées avec succès
|
| 426 |
+
return "operational"
|
| 427 |
+
|
| 428 |
+
|
| 429 |
+
def get_health_status() -> Dict:
|
| 430 |
+
"""
|
| 431 |
+
Collecte l'état de santé de tous les services pour la page /statut.
|
| 432 |
+
"""
|
| 433 |
+
|
| 434 |
+
db_status = check_baserow_connection()
|
| 435 |
+
|
| 436 |
+
# L'état de l'authentification et de l'API principale sont
|
| 437 |
+
# généralement liés à l'état de la DB pour une application simple.
|
| 438 |
+
# Si la DB est HS, l'auth est HS. Sinon, ils sont OK.
|
| 439 |
+
|
| 440 |
+
auth_status = db_status # Lié à la DB (pour charger les utilisateurs)
|
| 441 |
+
api_endpoint_status = "operational" # L'endpoint Flask lui-même est considéré comme OK s'il tourne
|
| 442 |
+
|
| 443 |
+
# Version du service (pour information)
|
| 444 |
+
service_version = os.environ.get("SERVICE_VERSION", "1.0.0 (Baserow)")
|
| 445 |
+
|
| 446 |
+
|
| 447 |
+
return {
|
| 448 |
+
# Ces valeurs correspondent aux attributs 'data-status' dans statut.html
|
| 449 |
+
"auth": auth_status,
|
| 450 |
+
"data_storage": db_status,
|
| 451 |
+
"api_endpoint": api_endpoint_status,
|
| 452 |
+
"version": service_version,
|
| 453 |
+
"last_update": datetime.now().strftime("%Y-%m-%d %H:%M:%S UTC")
|
| 454 |
+
}
|
| 455 |
+
|
| 456 |
+
def is_baserow_up() -> bool:
|
| 457 |
+
"""
|
| 458 |
+
Vérifie l'état de Baserow en utilisant l'URL qui garantit un statut 100% fonctionnel
|
| 459 |
+
sur Hugging Face, SANS utiliser la fonction de construction d'URL de table.
|
| 460 |
+
"""
|
| 461 |
+
try:
|
| 462 |
+
# Envoie une requête GET à l'URL qui répond positivement pour le health check.
|
| 463 |
+
response = requests.get(
|
| 464 |
+
HEALTH_CHECK_URL,
|
| 465 |
+
headers=HEADERS,
|
| 466 |
+
timeout=5
|
| 467 |
+
)
|
| 468 |
+
# On vérifie si la réponse est un succès (code 200).
|
| 469 |
+
return response.status_code == 200
|
| 470 |
+
except requests.exceptions.RequestException as e:
|
| 471 |
+
print(f"DEBUG: Baserow health check failed: {e}")
|
| 472 |
+
return False
|
| 473 |
+
|
| 474 |
+
def _make_baserow_request(method: str, url: str, params: Optional[Dict] = None, data: Optional[Dict] = None, log_response: bool = True):
|
| 475 |
+
"""
|
| 476 |
+
Fonction utilitaire pour effectuer des appels API à Baserow et journaliser
|
| 477 |
+
les requêtes et les réponses dans les logs du Space Hugging Face.
|
| 478 |
+
"""
|
| 479 |
+
# 1. Journalisation de la requête
|
| 480 |
+
logger.info(f"BASEROW REQUEST: {method} {url}")
|
| 481 |
+
# ATTENTION: Ne pas logger le token API complet!
|
| 482 |
+
logged_headers = {k: v.replace(API_TOKEN, '[TOKEN_MASKED]') if k == 'Authorization' else v for k, v in HEADERS.items()}
|
| 483 |
+
logger.debug(f"BASEROW REQUEST Headers: {logged_headers}")
|
| 484 |
+
if data:
|
| 485 |
+
# Pour les requêtes POST/PUT, logger les données (sans le hash du mot de passe si possible)
|
| 486 |
+
logged_data = data.copy() if isinstance(data, dict) else data
|
| 487 |
+
# 'Hachage Mot de Passe' est le nom du champ dans _user_to_baserow_data
|
| 488 |
+
if isinstance(logged_data, dict) and FIELD_PASSWORD_HASH in logged_data:
|
| 489 |
+
logged_data[FIELD_PASSWORD_HASH] = '[PASSWORD_HASH_MASKED]'
|
| 490 |
+
# Le nom du champ n'était pas le même dans l'ancienne version, on utilise la constante
|
| 491 |
+
if isinstance(logged_data, dict) and 'Hachage du mot de passe' in logged_data:
|
| 492 |
+
logged_data['Hachage du mot de passe'] = '[PASSWORD_HASH_MASKED]'
|
| 493 |
+
logger.debug(f"BASEROW REQUEST Body: {logged_data}")
|
| 494 |
+
|
| 495 |
+
# 2. Exécution de la requête
|
| 496 |
+
try:
|
| 497 |
+
# NOTE IMPORTANTE: Utilisation des HEADERS globaux et des 'params' pour GET
|
| 498 |
+
if method == "GET":
|
| 499 |
+
response = requests.get(url, headers=HEADERS, params=params)
|
| 500 |
+
elif method == "POST":
|
| 501 |
+
response = requests.post(url, headers=HEADERS, json=data)
|
| 502 |
+
elif method == "PUT":
|
| 503 |
+
response = requests.put(url, headers=HEADERS, json=data)
|
| 504 |
+
elif method == "DELETE":
|
| 505 |
+
response = requests.delete(url, headers=HEADERS)
|
| 506 |
+
elif method == "PATCH": # Ajout de la méthode PATCH pour la complétude
|
| 507 |
+
response = requests.patch(url, headers=HEADERS, json=data)
|
| 508 |
+
else:
|
| 509 |
+
raise ValueError(f"Méthode HTTP non supportée: {method}")
|
| 510 |
+
|
| 511 |
+
# 3. Journalisation de la réponse
|
| 512 |
+
if log_response:
|
| 513 |
+
logger.info(f"BASEROW RESPONSE: Status {response.status_code}")
|
| 514 |
+
# Journaliser le contenu pour les erreurs
|
| 515 |
+
if response.status_code >= 400:
|
| 516 |
+
logger.error(f"BASEROW ERROR RESPONSE Body: {response.text}")
|
| 517 |
+
|
| 518 |
+
# 4. Retourner la réponse
|
| 519 |
+
return response
|
| 520 |
+
|
| 521 |
+
except requests.exceptions.RequestException as e:
|
| 522 |
+
logger.error(f"BASEROW CONNECTION ERROR: {e}")
|
| 523 |
+
# Retourne un objet Response factice pour l'utiliser dans la fonction appelante
|
| 524 |
+
return requests.Response()
|
| 525 |
+
|
| 526 |
+
# --- NOUVELLES FONCTIONS POUR LES DÉPLOIEMENTS (Projets) ---
|
| 527 |
+
|
| 528 |
+
|
| 529 |
+
|
| 530 |
+
def update_user_deployment_data(
|
| 531 |
+
user_baserow_row_id: int,
|
| 532 |
+
deploy_id: str,
|
| 533 |
+
user_link: str, # Utilisera l'ID interne de l'utilisateur
|
| 534 |
+
hf_repo_path: str
|
| 535 |
+
) -> tuple[bool, str]:
|
| 536 |
+
"""
|
| 537 |
+
Met à jour la ligne de l'utilisateur principal (PRIMARY_USERS_TABLE_ID)
|
| 538 |
+
avec les données de déploiement du projet (ID, Repo, etc.).
|
| 539 |
+
"""
|
| 540 |
+
if not PRIMARY_USERS_TABLE_ID:
|
| 541 |
+
return False, "Erreur de configuration: ID de la table utilisateur principal manquant."
|
| 542 |
+
|
| 543 |
+
url = f"{DATA_BASE_URL}table/{PRIMARY_USERS_TABLE_ID}/{user_baserow_row_id}/"
|
| 544 |
+
|
| 545 |
+
# Les données à mettre à jour
|
| 546 |
+
data = {
|
| 547 |
+
FIELD_DEPLOY_ID: deploy_id,
|
| 548 |
+
FIELD_USER_REF: user_link,
|
| 549 |
+
FIELD_HF_REPO_PATH: hf_repo_path
|
| 550 |
+
}
|
| 551 |
+
|
| 552 |
+
# Utiliser PATCH pour mettre à jour seulement les champs spécifiés
|
| 553 |
+
response = _baserow_request(url, method="PATCH", data=data)
|
| 554 |
+
|
| 555 |
+
if response.status_code == 200:
|
| 556 |
+
logger.info(f"Déploiement ID {deploy_id} enregistré sur l'utilisateur Row ID {user_baserow_row_id}.")
|
| 557 |
+
return True, "Données de déploiement enregistrées avec succès sur le compte utilisateur."
|
| 558 |
+
else:
|
| 559 |
+
logger.error(f"Échec de la mise à jour du déploiement Baserow pour l'utilisateur {user_baserow_row_id}. Status: {response.status_code}, Body: {response.text}")
|
| 560 |
+
return False, f"Échec de la mise à jour Baserow: {response.status_code}"
|
| 561 |
+
|
| 562 |
+
|
| 563 |
+
# ----------------------------------------------------------------------
|
| 564 |
+
# --- MODIFICATION DE FONCTION : Récupérer le déploiement par ID ---
|
| 565 |
+
# La recherche doit maintenant se faire dans la table utilisateur.
|
| 566 |
+
# ----------------------------------------------------------------------
|
| 567 |
+
def get_deployment_by_id(deploy_id: str) -> Optional[Dict]:
|
| 568 |
+
"""
|
| 569 |
+
Récupère les détails du déploiement (la ligne de l'utilisateur) par son ID unique (le nom du dossier HF).
|
| 570 |
+
"""
|
| 571 |
+
if not PRIMARY_USERS_TABLE_ID:
|
| 572 |
+
return None
|
| 573 |
+
|
| 574 |
+
# Utiliser un filtre Baserow pour chercher par l'ID de déploiement dans la table utilisateur
|
| 575 |
+
url = f"{DATA_BASE_URL}table/{PRIMARY_USERS_TABLE_ID}/"
|
| 576 |
+
|
| 577 |
+
# Construction du filtre Baserow: filter__Deployment ID__equal={deploy_id}
|
| 578 |
+
filter_param = f"filter__{FIELD_DEPLOY_ID}__equal"
|
| 579 |
+
params = {
|
| 580 |
+
filter_param: deploy_id
|
| 581 |
+
}
|
| 582 |
+
|
| 583 |
+
response = _baserow_request(url, method="GET", params=params)
|
| 584 |
+
|
| 585 |
+
if response.status_code == 200:
|
| 586 |
+
results = response.json().get('results', [])
|
| 587 |
+
if results:
|
| 588 |
+
# Retourne les données de l'utilisateur contenant les données de déploiement
|
| 589 |
+
# Notez que cela renvoie la ligne utilisateur complète.
|
| 590 |
+
return results[0]
|
| 591 |
+
else:
|
| 592 |
+
return None
|
| 593 |
+
else:
|
| 594 |
+
logger.error(f"Échec de la récupération du déploiement Baserow. Status: {response.status_code}, Body: {response.text}")
|
| 595 |
+
return None
|
| 596 |
+
|
| 597 |
+
def save_new_repository(
|
| 598 |
+
user_id: int,
|
| 599 |
+
repo_data: Dict
|
| 600 |
+
) -> tuple[bool, str]:
|
| 601 |
+
"""
|
| 602 |
+
Ajoute un nouveau dépôt à la liste 'FIELD_REPOS_DATA' de l'utilisateur.
|
| 603 |
+
Ceci remplace l'ancienne approche 'save_new_deployment' qui supposait un seul déploiement par utilisateur.
|
| 604 |
+
"""
|
| 605 |
+
|
| 606 |
+
user_record = load_primary_user_data(filters={FIELD_ID: user_id}, single_record=True)
|
| 607 |
+
if not user_record:
|
| 608 |
+
logger.error(f"Utilisateur ID '{user_id}' non trouvé pour l'enregistrement du dépôt.")
|
| 609 |
+
return False, "Utilisateur non trouvé."
|
| 610 |
+
|
| 611 |
+
row_id = user_record.get('id')
|
| 612 |
+
if not row_id:
|
| 613 |
+
return False, f"Erreur critique: ID de ligne Baserow manquant pour l'utilisateur '{user_id}'."
|
| 614 |
+
|
| 615 |
+
# 1. Récupérer et désérialiser la liste des dépôts existants
|
| 616 |
+
repos_json = user_record.get(FIELD_REPOS_DATA)
|
| 617 |
+
try:
|
| 618 |
+
# Baserow renvoie 'None' ou une chaîne vide si le champ est vide
|
| 619 |
+
existing_repos = json.loads(repos_json) if repos_json and isinstance(repos_json, str) else []
|
| 620 |
+
except json.JSONDecodeError:
|
| 621 |
+
logger.warning(f"Champs Repositories Data corrompu pour l'utilisateur {user_id}. Réinitialisation.")
|
| 622 |
+
existing_repos = []
|
| 623 |
+
|
| 624 |
+
# 2. Ajouter le nouveau dépôt
|
| 625 |
+
existing_repos.append(repo_data)
|
| 626 |
+
|
| 627 |
+
# 3. Sérialiser la liste mise à jour
|
| 628 |
+
updated_repos_json = json.dumps(existing_repos)
|
| 629 |
+
|
| 630 |
+
# 4. Mettre à jour Baserow
|
| 631 |
+
url = f"{DATA_BASE_URL}table/{PRIMARY_USERS_TABLE_ID}/{row_id}/"
|
| 632 |
+
data = {
|
| 633 |
+
FIELD_REPOS_DATA: updated_repos_json
|
| 634 |
+
}
|
| 635 |
+
|
| 636 |
+
response = _make_baserow_request(
|
| 637 |
+
method="PATCH",
|
| 638 |
+
url=url,
|
| 639 |
+
data=data,
|
| 640 |
+
log_response=True
|
| 641 |
+
)
|
| 642 |
+
|
| 643 |
+
if response.status_code == 200:
|
| 644 |
+
logger.info(f"Nouveau dépôt '{repo_data['repo_name']}' enregistré pour l'utilisateur ID {user_id}.")
|
| 645 |
+
return True, "Dépôt enregistré avec succès."
|
| 646 |
+
else:
|
| 647 |
+
# Gérer l'échec de la mise à jour (ex: données trop volumineuses ou erreur API)
|
| 648 |
+
error_message = response.text
|
| 649 |
+
logger.error(f"Échec de l'enregistrement du dépôt pour l'utilisateur {user_id}: {error_message}")
|
| 650 |
+
return False, f"Échec de la mise à jour Baserow: {error_message}"
|
| 651 |
+
|
| 652 |
+
# Nouvelle fonction pour récupérer la liste de tous les dépôts d'un utilisateur
|
| 653 |
+
def get_all_user_repositories(user_id: int) -> list:
|
| 654 |
+
"""Récupère tous les dépôts d'un utilisateur depuis le champ JSON."""
|
| 655 |
+
user_record = load_primary_user_data(filters={FIELD_ID: user_id}, single_record=True)
|
| 656 |
+
if not user_record:
|
| 657 |
+
return []
|
| 658 |
+
|
| 659 |
+
repos_json = user_record.get(FIELD_REPOS_DATA)
|
| 660 |
+
try:
|
| 661 |
+
return json.loads(repos_json) if repos_json and isinstance(repos_json, str) else []
|
| 662 |
+
except json.JSONDecodeError:
|
| 663 |
+
logger.warning(f"Champs Repositories Data corrompu pour l'utilisateur {user_id}.")
|
| 664 |
+
return []
|
| 665 |
+
|
| 666 |
+
|
| 667 |
+
def delete_deployment_by_id(deploy_id: str) -> tuple[bool, str]:
|
| 668 |
+
"""
|
| 669 |
+
Supprime l'enregistrement d'un déploiement (la ligne utilisateur)
|
| 670 |
+
dans la table PRIMARY_USERS_TABLE_ID par le Deployment ID.
|
| 671 |
+
|
| 672 |
+
Note: Cela supprime la ligne utilisateur complète. Si la structure
|
| 673 |
+
change (1 utilisateur -> plusieurs déploiements), cela devra être adapté.
|
| 674 |
+
Pour l'instant, on suppose 1 utilisateur = 1 ligne = 1 déploiement.
|
| 675 |
+
|
| 676 |
+
Version modifiée pour mettre à NULL les champs de déploiement au lieu de supprimer la ligne utilisateur.
|
| 677 |
+
"""
|
| 678 |
+
# 1. Récupérer l'enregistrement de l'utilisateur par l'ID de déploiement (le dossier HF)
|
| 679 |
+
user_record = get_deployment_by_id(deploy_id)
|
| 680 |
+
|
| 681 |
+
if not user_record:
|
| 682 |
+
logger.warning(f"Tentative de suppression de déploiement échouée: ID '{deploy_id}' non trouvé dans Baserow.")
|
| 683 |
+
return True, "Déploiement non trouvé dans Baserow (considéré comme déjà supprimé)."
|
| 684 |
+
|
| 685 |
+
# 2. Récupérer l'ID de ligne Baserow pour la mise à jour
|
| 686 |
+
row_id = user_record.get('id')
|
| 687 |
+
|
| 688 |
+
if not row_id:
|
| 689 |
+
return False, f"Erreur critique: ID de ligne Baserow manquant pour le déploiement '{deploy_id}'."
|
| 690 |
+
|
| 691 |
+
# 3. Mettre à jour les champs de déploiement à NULL (ou vide) au lieu de supprimer la ligne utilisateur
|
| 692 |
+
# Note: On suppose que la suppression de déploiement réinitialise ces champs.
|
| 693 |
+
url = f"{DATA_BASE_URL}table/{PRIMARY_USERS_TABLE_ID}/{row_id}/"
|
| 694 |
+
data = {
|
| 695 |
+
FIELD_DEPLOY_ID: None,
|
| 696 |
+
FIELD_USER_REF: None,
|
| 697 |
+
FIELD_HF_REPO_PATH: None
|
| 698 |
+
}
|
| 699 |
+
|
| 700 |
+
response = _make_baserow_request(
|
| 701 |
+
method="PATCH",
|
| 702 |
+
url=url,
|
| 703 |
+
data=data,
|
| 704 |
+
log_response=True
|
| 705 |
+
)
|
| 706 |
+
|
| 707 |
+
if response.status_code == 200:
|
| 708 |
+
logger.info(f"Déploiement ID {deploy_id} supprimé (champs mis à NULL) sur l'utilisateur Row ID {row_id}.")
|
| 709 |
+
return True, "Déploiement supprimé de la base de données avec succès."
|
| 710 |
+
else:
|
| 711 |
+
logger.error(f"Échec de la suppression du déploiement Baserow (PATCH à NULL) pour l'utilisateur Row ID {row_id}. Status: {response.status_code}, Body: {response.text}")
|
| 712 |
+
return False, f"Échec de la suppression Baserow: {response.status_code}"
|
| 713 |
+
|
| 714 |
+
# baserow_storage.py - NOUVELLES FONCTIONS DE VÉRIFICATION DE CHAMPS
|
| 715 |
+
|
| 716 |
+
# --- Liste des Champs Critiques pour la Table Primary Users (pour la vérification) ---
|
| 717 |
+
# Ces champs sont nécessaires pour le fonctionnement global de l'app (Connexion, Profil, Déploiement)
|
| 718 |
+
CRITICAL_PRIMARY_USER_FIELDS = [
|
| 719 |
+
# Primary User Fields (Fonctions Utilisateur)
|
| 720 |
+
FIELD_ID,
|
| 721 |
+
FIELD_EMAIL,
|
| 722 |
+
FIELD_USERNAME,
|
| 723 |
+
FIELD_PASSWORD_HASH,
|
| 724 |
+
FIELD_API_KEY,
|
| 725 |
+
FIELD_API_KEY_2,
|
| 726 |
+
FIELD_API_KEY_3,
|
| 727 |
+
FIELD_API_KEY_4,
|
| 728 |
+
FIELD_API_KEY_5,
|
| 729 |
+
FIELD_SECURITY_Q,
|
| 730 |
+
FIELD_SECURITY_A_HASH,
|
| 731 |
+
FIELD_PLAN_ID,
|
| 732 |
+
FIELD_STRIPE_SUB_ID,
|
| 733 |
+
FIELD_DATE_CREATION,
|
| 734 |
+
FIELD_DATE_PLAN_START,
|
| 735 |
+
FIELD_API_CALLS_MONTH,
|
| 736 |
+
FIELD_STATUS,
|
| 737 |
+
]
|
| 738 |
+
|
| 739 |
+
def _get_table_fields_url(table_id: str) -> str:
|
| 740 |
+
"""Construit l'URL d'API pour lister les champs (colonnes) d'une table."""
|
| 741 |
+
# L'endpoint pour lister les champs est généralement /api/database/fields/table/{table_id}/
|
| 742 |
+
return f"https://api.baserow.io/api/database/fields/table/{table_id}/"
|
| 743 |
+
|
| 744 |
+
def check_critical_fields_existence() -> str:
|
| 745 |
+
"""
|
| 746 |
+
Vérifie que tous les champs critiques requis sont présents dans la table PRIMARY_USERS_TABLE_ID.
|
| 747 |
+
Retourne "operational" ou un message d'erreur listant les champs manquants.
|
| 748 |
+
"""
|
| 749 |
+
if not API_TOKEN or not PRIMARY_USERS_TABLE_ID:
|
| 750 |
+
return "Configuration Baserow incomplète (Token ou ID de Table Manquant)."
|
| 751 |
+
|
| 752 |
+
table_id = PRIMARY_USERS_TABLE_ID
|
| 753 |
+
url = _get_table_fields_url(table_id)
|
| 754 |
+
|
| 755 |
+
try:
|
| 756 |
+
# Assurez-vous d'utiliser une fonction de requête qui gère l'authentification (e.g., _make_baserow_request si elle existe)
|
| 757 |
+
# Ici, nous utilisons directement requests pour un exemple clair.
|
| 758 |
+
response = requests.get(url, headers=HEADERS, timeout=10)
|
| 759 |
+
response.raise_for_status() # Lève une exception pour les codes d'erreur HTTP (4xx, 5xx)
|
| 760 |
+
|
| 761 |
+
fields_data = response.json().get('results', [])
|
| 762 |
+
|
| 763 |
+
# 1. Obtenir les noms des champs existants
|
| 764 |
+
existing_field_names = {field.get('name') for field in fields_data if 'name' in field}
|
| 765 |
+
|
| 766 |
+
# 2. Identifier les champs manquants
|
| 767 |
+
missing_fields = [
|
| 768 |
+
field_name for field_name in CRITICAL_PRIMARY_USER_FIELDS
|
| 769 |
+
if field_name not in existing_field_names
|
| 770 |
+
]
|
| 771 |
+
|
| 772 |
+
if missing_fields:
|
| 773 |
+
missing_str = ", ".join(missing_fields)
|
| 774 |
+
logger.error(f"Champs Baserow Manquants dans la table {table_id}: {missing_str}")
|
| 775 |
+
return f"CHAMPS BASEROW MANQUANTS: {missing_str}. Veuillez les créer."
|
| 776 |
+
|
| 777 |
+
logger.info(f"SUCCÈS: Tous les {len(CRITICAL_PRIMARY_USER_FIELDS)} champs critiques Baserow sont trouvés.")
|
| 778 |
+
return "operational"
|
| 779 |
+
|
| 780 |
+
except requests.exceptions.HTTPError as e:
|
| 781 |
+
# Gérer l'erreur 404 si la table n'existe pas, ou 401/403 si le token est invalide
|
| 782 |
+
logger.error(f"Échec de l'API Baserow lors de la vérification des champs pour la table {table_id}: {e}")
|
| 783 |
+
return f"ÉCHEC API LORS DE LA VÉRIFICATION DES CHAMPS (Statut: {e.response.status_code}). Le token ou l'ID de table est probablement incorrect."
|
| 784 |
+
except requests.exceptions.RequestException as e:
|
| 785 |
+
logger.error(f"Erreur de connexion lors de la vérification des champs Baserow: {e}")
|
| 786 |
+
return f"ERREUR RÉSEAU/TIMEOUT lors de la vérification des champs Baserow: {e}"
|
| 787 |
+
except Exception as e:
|
| 788 |
+
logger.error(f"Erreur inattendue lors de la vérification des champs Baserow: {e}")
|
| 789 |
+
return f"ERREUR INATTENDUE: {e}"
|
| 790 |
+
|
| 791 |
+
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/billing_routes.py
ADDED
|
@@ -0,0 +1,137 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# billing_routes.py
|
| 2 |
+
|
| 3 |
+
import os
|
| 4 |
+
import stripe
|
| 5 |
+
import json
|
| 6 |
+
from flask import Blueprint, request, jsonify, Response, session, current_app, url_for
|
| 7 |
+
from decorators import login_required
|
| 8 |
+
from auth_backend import get_user_by_id, get_plan_details, update_user_plan
|
| 9 |
+
import traceback
|
| 10 |
+
|
| 11 |
+
# Initialisation de Stripe avec la clé secrète
|
| 12 |
+
# La clé sera lue depuis les variables d'environnement (secrets HF)
|
| 13 |
+
stripe.api_key = os.environ.get("STRIPE_SECRET_KEY")
|
| 14 |
+
|
| 15 |
+
# Création du Blueprint 'billing_bp'
|
| 16 |
+
billing_bp = Blueprint('billing_bp', __name__)
|
| 17 |
+
|
| 18 |
+
# --- Route API pour créer la session de paiement (Phase 3) ---
|
| 19 |
+
@billing_bp.route("/api/create-checkout-session", methods=["POST"])
|
| 20 |
+
@login_required
|
| 21 |
+
def create_checkout_session():
|
| 22 |
+
"""
|
| 23 |
+
Crée une session de checkout Stripe pour un plan donné.
|
| 24 |
+
"""
|
| 25 |
+
data = request.get_json()
|
| 26 |
+
# Le plan_id doit être l'ID complet (ex: 'standard_monthly' ou 'illimited_annual')
|
| 27 |
+
final_plan_id = data.get('plan_id')
|
| 28 |
+
user_id = session.get('user_id')
|
| 29 |
+
|
| 30 |
+
plan_details = get_plan_details(final_plan_id)
|
| 31 |
+
|
| 32 |
+
# Détermination de l'ID de prix Stripe (utilise monthly ou annual selon ce qui est défini)
|
| 33 |
+
price_id = plan_details.get('price_id_monthly') or plan_details.get('price_id_annual')
|
| 34 |
+
|
| 35 |
+
# Vérification de l'existence du plan et de l'ID de prix Stripe
|
| 36 |
+
if not plan_details or not price_id:
|
| 37 |
+
if final_plan_id == 'free':
|
| 38 |
+
return jsonify({"message": "Ce plan est gratuit, pas de session de paiement requise.", "url": url_for('user_bp.dashboard')}), 200
|
| 39 |
+
|
| 40 |
+
# Logique de sécurité/erreur si l'ID de prix est manquant pour un plan payant
|
| 41 |
+
current_app.logger.error(f"Erreur: ID de prix Stripe manquant pour le plan {final_plan_id}.")
|
| 42 |
+
return jsonify({"message": "Erreur de configuration du plan.", "status": "Error"}), 500
|
| 43 |
+
|
| 44 |
+
try:
|
| 45 |
+
# Création de la session de paiement Stripe
|
| 46 |
+
checkout_session = stripe.checkout.Session.create(
|
| 47 |
+
# Type de paiement pour les abonnements récurrents
|
| 48 |
+
mode='subscription',
|
| 49 |
+
# Les IDs de prix Stripe
|
| 50 |
+
line_items=[
|
| 51 |
+
{
|
| 52 |
+
'price': price_id,
|
| 53 |
+
'quantity': 1
|
| 54 |
+
}
|
| 55 |
+
],
|
| 56 |
+
# URLs de redirection après paiement/annulation
|
| 57 |
+
# _external=True est crucial pour que Stripe puisse rediriger correctement
|
| 58 |
+
success_url=url_for('user_bp.dashboard', payment='success', _external=True),
|
| 59 |
+
cancel_url=url_for('web_bp.checkout', plan=final_plan_id, payment='cancel', _external=True),
|
| 60 |
+
|
| 61 |
+
# Informations personnalisées CRITIQUES pour le Webhook
|
| 62 |
+
metadata={
|
| 63 |
+
'user_id': user_id,
|
| 64 |
+
'plan_id': final_plan_id, # L'ID de plan complet (e.g. 'standard_monthly')
|
| 65 |
+
},
|
| 66 |
+
# Laisse Stripe pré-remplir l'email du client (si on le souhaite)
|
| 67 |
+
# customer_email=get_user_by_id(user_id).get('email'),
|
| 68 |
+
)
|
| 69 |
+
|
| 70 |
+
# Retourne l'URL de la session Stripe au frontend
|
| 71 |
+
return jsonify({'url': checkout_session.url}), 200
|
| 72 |
+
|
| 73 |
+
except stripe.error.StripeError as e:
|
| 74 |
+
current_app.logger.error(f"Erreur Stripe lors de la création de session: {e}")
|
| 75 |
+
return jsonify({"message": f"Une erreur Stripe est survenue: {e.user_message}", "status": "Error"}), 400
|
| 76 |
+
except Exception as e:
|
| 77 |
+
# Log toutes les autres erreurs pour le diagnostic
|
| 78 |
+
current_app.logger.error(f"Erreur inattendue lors de la création de session: {e}\n{traceback.format_exc()}")
|
| 79 |
+
return jsonify({"message": "Erreur interne du serveur lors de la création de la session.", "status": "Error"}), 500
|
| 80 |
+
|
| 81 |
+
|
| 82 |
+
# --- Route Webhook Stripe (Phase 4) ---
|
| 83 |
+
@billing_bp.route('/webhook/stripe', methods=['POST'])
|
| 84 |
+
def stripe_webhook():
|
| 85 |
+
"""
|
| 86 |
+
Gère les événements envoyés par Stripe pour mettre à jour l'abonnement de l'utilisateur.
|
| 87 |
+
"""
|
| 88 |
+
payload = request.data
|
| 89 |
+
sig_header = request.headers.get('stripe-signature')
|
| 90 |
+
endpoint_secret = os.environ.get("STRIPE_WEBHOOK_SECRET")
|
| 91 |
+
|
| 92 |
+
# 1. Vérification que le secret est bien configuré
|
| 93 |
+
if not endpoint_secret:
|
| 94 |
+
current_app.logger.error("Erreur de configuration: STRIPE_WEBHOOK_SECRET est manquant.")
|
| 95 |
+
return jsonify({'message': 'Erreur de configuration serveur.'}), 500
|
| 96 |
+
|
| 97 |
+
try:
|
| 98 |
+
# 2. Validation de la signature du Webhook
|
| 99 |
+
event = stripe.Webhook.construct_event(
|
| 100 |
+
payload, sig_header, endpoint_secret
|
| 101 |
+
)
|
| 102 |
+
except Exception as e:
|
| 103 |
+
current_app.logger.error(f"Erreur Webhook Stripe (Validation): {e}")
|
| 104 |
+
# Retourne 400 pour que Stripe sache qu'il ne doit pas retenter cet événement
|
| 105 |
+
return 'Invalid payload or signature', 400
|
| 106 |
+
|
| 107 |
+
# 3. Traitement des événements
|
| 108 |
+
if event['type'] == 'checkout.session.completed':
|
| 109 |
+
session_data = event['data']['object']
|
| 110 |
+
|
| 111 |
+
# Récupération des métadonnées CRITIQUES
|
| 112 |
+
user_id = session_data.get('metadata', {}).get('user_id')
|
| 113 |
+
plan_id = session_data.get('metadata', {}).get('plan_id') # L'ID de plan complet (e.g. 'standard_monthly')
|
| 114 |
+
subscription_id = session_data.get('subscription') # L'ID d'abonnement Stripe
|
| 115 |
+
|
| 116 |
+
if user_id and plan_id and subscription_id:
|
| 117 |
+
# Appel à la fonction de mise à jour de la base de données (Phase 4)
|
| 118 |
+
success = update_user_plan(user_id, plan_id, subscription_id)
|
| 119 |
+
|
| 120 |
+
if success:
|
| 121 |
+
current_app.logger.info(f"SUCCESS: Utilisateur {user_id} mis à jour au plan {plan_id} (Sub ID: {subscription_id})")
|
| 122 |
+
else:
|
| 123 |
+
# Le paiement a eu lieu, mais la BDD n'a pas été mise à jour: CRITIQUE
|
| 124 |
+
current_app.logger.error(f"FAILURE: Échec de la mise à jour Git pour l'utilisateur {user_id} après paiement Stripe. Plan: {plan_id}")
|
| 125 |
+
else:
|
| 126 |
+
# Manque d'infos critiques dans le webhook
|
| 127 |
+
current_app.logger.error(f"FAILURE: Données critiques manquantes dans le webhook. Session ID: {session_data.get('id')}. User ID: {user_id}. Plan ID: {plan_id}")
|
| 128 |
+
# Retourne 200 pour éviter une boucle de ré-envoi par Stripe
|
| 129 |
+
return jsonify({'message': 'Données utilisateur critiques manquantes dans la session Stripe.'}), 200
|
| 130 |
+
|
| 131 |
+
# Vous pouvez ajouter d'autres événements si nécessaire (ex: 'customer.subscription.deleted')
|
| 132 |
+
# elif event['type'] == 'customer.subscription.deleted':
|
| 133 |
+
# current_app.logger.info(f"INFO: Abonnement Stripe supprimé. ID de souscription: {event['data']['object'].get('id')}")
|
| 134 |
+
|
| 135 |
+
|
| 136 |
+
# Retourne une réponse pour accuser réception de l'événement (très important)
|
| 137 |
+
return jsonify({'status': 'success'}), 200
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/config.py
ADDED
|
@@ -0,0 +1,122 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# config.py
|
| 2 |
+
|
| 3 |
+
# Fichier de configuration pour le backend ErnestMind 2.5
|
| 4 |
+
import os
|
| 5 |
+
|
| 6 |
+
# --- Configuration Baserow (Nouveau) ---
|
| 7 |
+
# Clés à définir dans les secrets d'environnement Hugging Face Space
|
| 8 |
+
BASEROW_DATABASE_ID = os.environ.get("BASEROW_DATABASE_ID")
|
| 9 |
+
PRIMARY_USERS_TABLE_ID = os.environ.get("PRIMARY_USERS_TABLE_ID")
|
| 10 |
+
END_USERS_TABLE_ID = os.environ.get("END_USERS_TABLE_ID")
|
| 11 |
+
# Le token d'accès API
|
| 12 |
+
BASEROW_API_TOKEN = os.environ.get("BASEROW_API_TOKEN")
|
| 13 |
+
|
| 14 |
+
# --- Configuration Stripe (Paiement) ---
|
| 15 |
+
# Clés à définir dans les secrets d'environnement Hugging Face Space
|
| 16 |
+
STRIPE_SECRET_KEY = os.environ.get("STRIPE_SECRET_KEY")
|
| 17 |
+
STRIPE_WEBHOOK_SECRET = os.environ.get("STRIPE_WEBHOOK_SECRET")
|
| 18 |
+
# Clé Publique (utilisée par le Frontend, mais stockée ici pour référence)
|
| 19 |
+
STRIPE_PUBLIC_KEY = os.environ.get("STRIPE_PUBLIC_KEY")
|
| 20 |
+
# --- Configuration Hugging Face (NOUVEAU: PRs) ---
|
| 21 |
+
HF_DATASET_REPO_ID = os.environ.get("HF_DATASET_REPO_ID") # Déjà existant
|
| 22 |
+
# NOUVELLE VARIABLE pour le dépôt des métadonnées de Pull Requests
|
| 23 |
+
PULL_REQUESTS_HF_REPO_ID = os.environ.get("PULL_REQUESTS_HF_REPO_ID")
|
| 24 |
+
# NOUVELLE VARIABLE pour le dépôt des métadonnées des Issues
|
| 25 |
+
ISSUES_HF_REPO_ID = os.environ.get("ISSUES_HF_REPO_ID")
|
| 26 |
+
GEMINI_API_KEY = os.environ.get("GEMINI_API_KEY")
|
| 27 |
+
HF_TOKEN = os.environ.get("HF_TOKEN")
|
| 28 |
+
GRMINI_HF_REPO_ID = os.environ.get("GEMINI_HF_REPO_ID")
|
| 29 |
+
# ID du Dataset Hugging Face dédié au stockage d'images
|
| 30 |
+
IMAGE_STORAGE_HF_REPO_ID = os.environ.get("IMAGE_STORAGE_HF_REPO_ID")
|
| 31 |
+
# Les 'price_id' doivent correspondre aux IDs créés dans Stripe.
|
| 32 |
+
PLANS_CONFIG = {
|
| 33 |
+
# Plan Gratuit
|
| 34 |
+
"free": {
|
| 35 |
+
"title": "Gratuit",
|
| 36 |
+
"baserow_value": "Free", # <--- NOUVEAU: Mettre la valeur EXACTE attendue par Baserow (ex: GRATUIT, Free, etc.)
|
| 37 |
+
"description": "Idéal pour les tests et les petits projets.",
|
| 38 |
+
"limit": 500,
|
| 39 |
+
"price_monthly": 0.0,
|
| 40 |
+
"price_annual": 0.0,
|
| 41 |
+
"price_id_monthly": None,
|
| 42 |
+
"price_id_annual": None,
|
| 43 |
+
"currency": "EUR"
|
| 44 |
+
},
|
| 45 |
+
# Plan Standard - Mensuel
|
| 46 |
+
"standard_monthly": {
|
| 47 |
+
"title": "Standard (Mensuel)",
|
| 48 |
+
"description": "Pour les utilisateurs réguliers. Paiement mensuel.",
|
| 49 |
+
"limit": 1000,
|
| 50 |
+
"price_monthly": 19.99,
|
| 51 |
+
"price_annual": 0.0,
|
| 52 |
+
"price_id_monthly": "price_1OvXXXXXXX", # REMPLACER PAR VOTRE VRAI ID STRIPE
|
| 53 |
+
"price_id_annual": None,
|
| 54 |
+
"currency": "EUR"
|
| 55 |
+
},
|
| 56 |
+
# Plan Standard - Annuel
|
| 57 |
+
"standard_annual": {
|
| 58 |
+
"title": "Standard (Annuel)",
|
| 59 |
+
"description": "Pour les utilisateurs réguliers. Économisez 20% en payant à l'année.",
|
| 60 |
+
"limit": 1000,
|
| 61 |
+
"price_monthly": 0.0,
|
| 62 |
+
"price_annual": 199.90,
|
| 63 |
+
"price_id_monthly": None,
|
| 64 |
+
"price_id_annual": "price_1OwYYYYYYY", # REMPLACER PAR VOTRE VRAI ID STRIPE
|
| 65 |
+
"currency": "EUR"
|
| 66 |
+
},
|
| 67 |
+
# Plan Pro - Mensuel
|
| 68 |
+
"pro_monthly": {
|
| 69 |
+
"title": "Pro (Mensuel)",
|
| 70 |
+
"description": "Pour les professionnels et les projets importants. Paiement mensuel.",
|
| 71 |
+
"limit": 2000,
|
| 72 |
+
"price_monthly": 49.99,
|
| 73 |
+
"price_annual": 0.0,
|
| 74 |
+
"price_id_monthly": "price_1OxZZZZZZZ", # REMPLACER PAR VOTRE VRAI ID STRIPE
|
| 75 |
+
"price_id_annual": None,
|
| 76 |
+
"currency": "EUR"
|
| 77 |
+
},
|
| 78 |
+
# Plan Pro - Annuel
|
| 79 |
+
"pro_annual": {
|
| 80 |
+
"title": "Pro (Annuel)",
|
| 81 |
+
"description": "Pour les professionnels et les projets importants. Économisez 20% en payant à l'année.",
|
| 82 |
+
"limit": 2000,
|
| 83 |
+
"price_monthly": 0.0,
|
| 84 |
+
"price_annual": 499.90,
|
| 85 |
+
"price_id_monthly": None,
|
| 86 |
+
"price_id_annual": "price_1OyAAAAAAA", # REMPLACER PAR VOTRE VRAI ID STRIPE
|
| 87 |
+
"currency": "EUR"
|
| 88 |
+
},
|
| 89 |
+
# Plan Illimité - Mensuel
|
| 90 |
+
"illimited_monthly": {
|
| 91 |
+
"title": "Illimité (Mensuel)",
|
| 92 |
+
"description": "Sans aucune restriction, pour les grandes entreprises. Paiement mensuel.",
|
| 93 |
+
"limit": float('inf'),
|
| 94 |
+
"price_monthly": 99.99,
|
| 95 |
+
"price_annual": 0.0,
|
| 96 |
+
"price_id_monthly": "price_1OzBBBBBBB", # REMPLACER PAR VOTRE VRAI ID STRIPE
|
| 97 |
+
"price_id_annual": None,
|
| 98 |
+
"currency": "EUR"
|
| 99 |
+
},
|
| 100 |
+
# Plan Illimité - Annuel
|
| 101 |
+
"illimited_annual": {
|
| 102 |
+
"title": "Illimité (Annuel)",
|
| 103 |
+
"description": "Sans aucune restriction, pour les grandes entreprises. Économisez 20% en payant à l'année.",
|
| 104 |
+
"limit": float('inf'),
|
| 105 |
+
"price_monthly": 0.0,
|
| 106 |
+
"price_annual": 999.90,
|
| 107 |
+
"price_id_monthly": None,
|
| 108 |
+
"price_id_annual": "price_1OzAACCCCC", # REMPLACER PAR VOTRE VRAI ID STRIPE
|
| 109 |
+
"currency": "EUR"
|
| 110 |
+
},
|
| 111 |
+
# Plan Spécial pour les End-users (pas listé sur la page de prix)
|
| 112 |
+
"end_user": {
|
| 113 |
+
"title": "End-User",
|
| 114 |
+
"description": "Compte utilisateur créé par un client.",
|
| 115 |
+
"limit": 0,
|
| 116 |
+
"price_monthly": 0.0,
|
| 117 |
+
"price_annual": 0.0,
|
| 118 |
+
"price_id_monthly": None,
|
| 119 |
+
"price_id_annual": None,
|
| 120 |
+
"currency": "EUR"
|
| 121 |
+
},
|
| 122 |
+
}
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/decorators.py
ADDED
|
@@ -0,0 +1,87 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# decorators.py
|
| 2 |
+
|
| 3 |
+
from functools import wraps
|
| 4 |
+
from flask import session, redirect, url_for, flash, request, jsonify
|
| 5 |
+
|
| 6 |
+
# Import nécessaire pour le décorateur API
|
| 7 |
+
import auth_backend
|
| 8 |
+
|
| 9 |
+
def login_required(f):
|
| 10 |
+
@wraps(f)
|
| 11 |
+
def decorated_function(*args, **kwargs):
|
| 12 |
+
if session.get('user_id') is None:
|
| 13 |
+
flash("Vous devez être connecté pour accéder à cette page.", "error")
|
| 14 |
+
# REDIRECTION VERS LA NOUVELLE ROUTE DE CONNEXION DU BACKEND
|
| 15 |
+
return redirect(url_for('web_bp.connexion_page'))
|
| 16 |
+
return f(*args, **kwargs)
|
| 17 |
+
return decorated_function
|
| 18 |
+
|
| 19 |
+
def api_key_required(f):
|
| 20 |
+
"""
|
| 21 |
+
Décorateur pour les routes d'API nécessitant une clé API valide (pour les clients externes).
|
| 22 |
+
... (Reste inchangé)
|
| 23 |
+
"""
|
| 24 |
+
@wraps(f)
|
| 25 |
+
def decorated_function(*args, **kwargs):
|
| 26 |
+
# 1. Récupérer la clé depuis l'en-tête ou les paramètres de requête
|
| 27 |
+
api_key = request.headers.get('X-API-Key')
|
| 28 |
+
if not api_key:
|
| 29 |
+
api_key = request.args.get('api_key')
|
| 30 |
+
|
| 31 |
+
if not api_key:
|
| 32 |
+
return jsonify({
|
| 33 |
+
"message": "Authentification requise. Clé API manquante dans l'en-tête X-API-Key ou le paramètre api_key.",
|
| 34 |
+
"status": "Unauthorized"
|
| 35 |
+
}), 401
|
| 36 |
+
|
| 37 |
+
# 2. Valider la clé et récupérer l'utilisateur principal
|
| 38 |
+
client_user = auth_backend.get_client_user_by_api_key(api_key)
|
| 39 |
+
|
| 40 |
+
if not client_user:
|
| 41 |
+
return jsonify({
|
| 42 |
+
"message": "Clé API invalide ou non reconnue.",
|
| 43 |
+
"status": "Forbidden"
|
| 44 |
+
}), 403
|
| 45 |
+
|
| 46 |
+
# 3. Injecter les données de l'utilisateur principal (le client)
|
| 47 |
+
kwargs['client_user'] = client_user
|
| 48 |
+
|
| 49 |
+
return f(*args, **kwargs)
|
| 50 |
+
|
| 51 |
+
return decorated_function
|
| 52 |
+
|
| 53 |
+
# DÉCORATEUR : Pour les routes d'API qui doivent utiliser l'authentification par session
|
| 54 |
+
def api_session_required(f):
|
| 55 |
+
"""
|
| 56 |
+
Décorateur pour les routes d'API nécessitant une session utilisateur active (Web UI via session cookie).
|
| 57 |
+
Récupère l'ID utilisateur de la session et injecte les données de l'utilisateur dans la fonction.
|
| 58 |
+
"""
|
| 59 |
+
@wraps(f)
|
| 60 |
+
def decorated_function(*args, **kwargs):
|
| 61 |
+
# 1. Récupérer l'ID utilisateur de la session
|
| 62 |
+
user_uuid = session.get('user_id')
|
| 63 |
+
|
| 64 |
+
if not user_uuid:
|
| 65 |
+
# Si l'ID est manquant, on renvoie une réponse JSON 401 (standard pour une API).
|
| 66 |
+
return jsonify({
|
| 67 |
+
"message": "Authentification par session requise. Utilisateur non connecté.",
|
| 68 |
+
"status": "Unauthorized"
|
| 69 |
+
}), 401
|
| 70 |
+
|
| 71 |
+
# 2. Récupérer l'utilisateur principal (client) à partir de son UUID
|
| 72 |
+
client_user = auth_backend.get_client_user_by_uuid(user_uuid)
|
| 73 |
+
|
| 74 |
+
if not client_user:
|
| 75 |
+
# L'utilisateur existe en session mais pas/plus dans la base.
|
| 76 |
+
session.pop('user_id', None) # Vider la session
|
| 77 |
+
return jsonify({
|
| 78 |
+
"message": "Session invalide ou utilisateur non reconnu.",
|
| 79 |
+
"status": "Forbidden"
|
| 80 |
+
}), 403
|
| 81 |
+
|
| 82 |
+
# 3. Injecter les données de l'utilisateur principal (le client)
|
| 83 |
+
kwargs['client_user'] = client_user
|
| 84 |
+
|
| 85 |
+
return f(*args, **kwargs)
|
| 86 |
+
|
| 87 |
+
return decorated_function
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/deployment_routes.py
ADDED
|
@@ -0,0 +1,149 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# deployment_routes.py
|
| 2 |
+
|
| 3 |
+
import logging
|
| 4 |
+
from flask import Blueprint, request, jsonify
|
| 5 |
+
from decorators import api_session_required, api_key_required
|
| 6 |
+
from hf_deploy_manager import (
|
| 7 |
+
deploy_repo_to_space,
|
| 8 |
+
get_space_status,
|
| 9 |
+
fetch_space_logs,
|
| 10 |
+
stop_space,
|
| 11 |
+
get_public_space_url,
|
| 12 |
+
)
|
| 13 |
+
|
| 14 |
+
|
| 15 |
+
logger = logging.getLogger(__name__)
|
| 16 |
+
|
| 17 |
+
# Création du Blueprint 'hf_deploy_bp'
|
| 18 |
+
# Préfixe d'URL pour toutes les routes de ce Blueprint: /api/v1/deployment
|
| 19 |
+
hf_deploy_bp = Blueprint('hf_deploy_bp', __name__, url_prefix='/api/v1/deployment')
|
| 20 |
+
|
| 21 |
+
# --- Route 1 : Lancement du Déploiement (Création/Configuration du Space) ---
|
| 22 |
+
|
| 23 |
+
|
| 24 |
+
@hf_deploy_bp.route("/<string:user_id>/<string:repo_slug>/deploy", methods=['POST'])
|
| 25 |
+
@api_session_required # Assurez-vous que l'utilisateur est authentifié
|
| 26 |
+
def deploy_project(user_id, repo_slug, client_user):
|
| 27 |
+
"""
|
| 28 |
+
Lance le déploiement d'un dépôt utilisateur vers un nouveau Hugging Face Space.
|
| 29 |
+
Nécessite le 'sdk_type' (gradio, streamlit, docker, static) dans le corps JSON.
|
| 30 |
+
"""
|
| 31 |
+
data = request.get_json()
|
| 32 |
+
sdk_type = data.get('sdk_type', 'gradio')
|
| 33 |
+
|
| 34 |
+
# Validation minimale
|
| 35 |
+
if not user_id or not repo_slug:
|
| 36 |
+
return jsonify({"success": False, "message": "ID utilisateur ou slug de dépôt manquant dans l'URL."}), 400
|
| 37 |
+
|
| 38 |
+
logger.info(f"Déploiement initié pour le dépôt '{repo_slug}' (User: {user_id}, SDK: {sdk_type})")
|
| 39 |
+
|
| 40 |
+
# Appel de la fonction de logique métier
|
| 41 |
+
result = deploy_repo_to_space(
|
| 42 |
+
user_id=user_id,
|
| 43 |
+
repo_slug=repo_slug,
|
| 44 |
+
sdk_type=sdk_type
|
| 45 |
+
)
|
| 46 |
+
|
| 47 |
+
if result.get("success"):
|
| 48 |
+
return jsonify(result), 200
|
| 49 |
+
else:
|
| 50 |
+
# Renvoie le message d'erreur et un code 500 ou 400 approprié
|
| 51 |
+
status_code = 500 if "erreur inattendue" in result.get("message", "").lower() else 400
|
| 52 |
+
return jsonify(result), status_code
|
| 53 |
+
|
| 54 |
+
|
| 55 |
+
# --- Route 2 : Vérification du Statut du Space ---
|
| 56 |
+
@hf_deploy_bp.route("/<path:space_id>/status", methods=['GET']) # Utiliser path pour autoriser le slash dans l'ID
|
| 57 |
+
@api_session_required
|
| 58 |
+
def get_deployment_status(space_id, client_user):
|
| 59 |
+
"""
|
| 60 |
+
Récupère le statut (Running, Building, Error, etc.) d'un Space HF.
|
| 61 |
+
Le space_id DOIT être l'ID complet (ex: owner/repo-slug).
|
| 62 |
+
"""
|
| 63 |
+
# L'ID complet (owner/repo_slug) est passé directement dans 'space_id'
|
| 64 |
+
if not space_id:
|
| 65 |
+
return jsonify({"success": False, "message": "L'ID complet du Space est manquant dans l'URL."}), 400
|
| 66 |
+
|
| 67 |
+
logger.debug(f"Demande de statut pour le Space: {space_id}")
|
| 68 |
+
result = get_space_status(space_id=space_id)
|
| 69 |
+
|
| 70 |
+
if result.get("success"):
|
| 71 |
+
return jsonify(result), 200
|
| 72 |
+
else:
|
| 73 |
+
return jsonify(result), 404 # 404 si le Space n'est pas trouvé
|
| 74 |
+
|
| 75 |
+
|
| 76 |
+
# --- Route 3 : Récupération des Logs du Space ---
|
| 77 |
+
@hf_deploy_bp.route("/<path:space_id>/logs", methods=['GET']) # Utiliser path pour autoriser le slash dans l'ID
|
| 78 |
+
@api_session_required
|
| 79 |
+
def get_deployment_logs(space_id, client_user):
|
| 80 |
+
"""
|
| 81 |
+
Récupère les logs (build ou runtime) d'un Space HF.
|
| 82 |
+
"""
|
| 83 |
+
# L'ID complet (owner/repo_slug) est passé directement dans 'space_id'
|
| 84 |
+
if not space_id:
|
| 85 |
+
return jsonify({"success": False, "message": "L'ID complet du Space est manquant dans l'URL."}), 400
|
| 86 |
+
|
| 87 |
+
logs_type = request.args.get('type', 'build') # Valeur par défaut: 'build'
|
| 88 |
+
|
| 89 |
+
logger.debug(f"Demande de logs de type '{logs_type}' pour le Space: {space_id}")
|
| 90 |
+
result = fetch_space_logs(space_id=space_id, logs_type=logs_type) # 'space_id' est l'ID complet
|
| 91 |
+
|
| 92 |
+
if result.get("success"):
|
| 93 |
+
return jsonify(result), 200
|
| 94 |
+
else:
|
| 95 |
+
return jsonify(result), 404
|
| 96 |
+
|
| 97 |
+
|
| 98 |
+
# --- Route 4 : Arrêt (Mise en Pause) du Space ---
|
| 99 |
+
@hf_deploy_bp.route("/<path:space_id>/stop", methods=['POST']) # Utiliser path pour autoriser le slash dans l'ID
|
| 100 |
+
@api_session_required
|
| 101 |
+
def stop_deployment(space_id, client_user):
|
| 102 |
+
"""
|
| 103 |
+
Met en pause (Stop) un Space HF pour économiser des ressources.
|
| 104 |
+
"""
|
| 105 |
+
# L'ID complet (owner/repo_slug) est passé directement dans 'space_id'
|
| 106 |
+
if not space_id:
|
| 107 |
+
return jsonify({"success": False, "message": "L'ID complet du Space est manquant dans l'URL."}), 400
|
| 108 |
+
|
| 109 |
+
logger.info(f"Arrêt demandé pour le Space: {space_id}")
|
| 110 |
+
result = stop_space(space_id=space_id) # 'space_id' est l'ID complet
|
| 111 |
+
|
| 112 |
+
if result.get("success"):
|
| 113 |
+
return jsonify(result), 200
|
| 114 |
+
else:
|
| 115 |
+
return jsonify(result), 400
|
| 116 |
+
|
| 117 |
+
# --- Route 5 : Récupération de l'URL publique du Space ---
|
| 118 |
+
@hf_deploy_bp.route("/<path:space_id>/url", methods=['GET']) # Utiliser path pour autoriser le slash dans l'ID
|
| 119 |
+
@api_session_required
|
| 120 |
+
def get_space_url(space_id, client_user):
|
| 121 |
+
"""
|
| 122 |
+
Construit et retourne l'URL publique d'un Space HF à partir de son ID COMPLET ou du SLUG.
|
| 123 |
+
"""
|
| 124 |
+
# L'ID complet (owner/repo_slug) est passé directement dans 'space_id'
|
| 125 |
+
if not space_id:
|
| 126 |
+
return jsonify({"success": False, "message": "L'ID complet du Space est manquant dans l'URL."}), 400
|
| 127 |
+
|
| 128 |
+
try:
|
| 129 |
+
# Extraire le SLUG du repo à partir de l'ID complet (owner/repo_slug)
|
| 130 |
+
# S'il y a un slash, on utilise la partie après, sinon on suppose que c'est déjà le slug
|
| 131 |
+
parts = space_id.split('/')
|
| 132 |
+
if len(parts) == 2:
|
| 133 |
+
space_id_slug = parts[1] # Cas 'owner/repo_slug'
|
| 134 |
+
elif len(parts) == 1:
|
| 135 |
+
space_id_slug = parts[0] # Cas où on reçoit seulement le 'repo_slug'
|
| 136 |
+
else:
|
| 137 |
+
raise ValueError("L'ID du Space doit être au format 'owner/repo_slug' ou juste le slug.")
|
| 138 |
+
|
| 139 |
+
space_url = get_public_space_url(space_id_slug) # Utilise le SLUG pour l'URL publique
|
| 140 |
+
|
| 141 |
+
return jsonify({
|
| 142 |
+
"success": True,
|
| 143 |
+
"space_url": space_url,
|
| 144 |
+
"space_id": space_id # Retourne l'ID initial pour cohérence
|
| 145 |
+
}), 200
|
| 146 |
+
|
| 147 |
+
except Exception as e:
|
| 148 |
+
logger.error(f"Erreur inattendue lors de la récupération de l'URL pour {space_id}: {e}")
|
| 149 |
+
return jsonify({"success": False, "message": f"Erreur lors de la construction de l'URL: {str(e)}"}), 500
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/entrypoint.sh
ADDED
|
@@ -0,0 +1,24 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
#!/bin/bash
|
| 2 |
+
# entrypoint.sh - Optimisé pour Gunicorn + Eventlet (SocketIO) sur Render
|
| 3 |
+
|
| 4 |
+
# --- CONFIGURATION DES PERFORMANCES ---
|
| 5 |
+
# ⚠️ POUR EVENTLET/SOCKETIO : Le nombre de workers doit être bas.
|
| 6 |
+
# 1 worker est suffisant sur les plans de base de Render car Eventlet gère l'async.
|
| 7 |
+
# Nous allons utiliser 1 worker.
|
| 8 |
+
WORKERS=1
|
| 9 |
+
|
| 10 |
+
# --- PRÉPARATION ---
|
| 11 |
+
|
| 12 |
+
echo "--- Démarrage de l'Application GitForge (Gunicorn/Eventlet) ---"
|
| 13 |
+
|
| 14 |
+
# Définir le port par défaut de Render (la variable PORT est injectée par Render)
|
| 15 |
+
export APP_PORT=${PORT:-8000}
|
| 16 |
+
|
| 17 |
+
# 1. Démarrer le serveur Flask/Gunicorn en premier plan
|
| 18 |
+
echo "Démarrage du serveur Gunicorn sur le port $APP_PORT avec Eventlet et $WORKERS worker(s)..."
|
| 19 |
+
|
| 20 |
+
# MODIFICATION MAJEURE: Utiliser le worker 'eventlet' pour supporter SocketIO (WebSockets)
|
| 21 |
+
# -b 0.0.0.0:$APP_PORT: Se lie à l'interface publique fournie par Render.
|
| 22 |
+
# --workers $WORKERS: Limite à un worker pour l'optimisation Eventlet.
|
| 23 |
+
# app:app: Cible le module app.py et l'objet Flask nommé app.
|
| 24 |
+
exec gunicorn --worker-class eventlet --workers $WORKERS app:app -b 0.0.0.0:$APP_PORT
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/gemini_functions.py
ADDED
|
@@ -0,0 +1,462 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# gemini_functions.py - Version étendue pour Hugging Face Data Management
|
| 2 |
+
|
| 3 |
+
import os
|
| 4 |
+
import logging
|
| 5 |
+
import json
|
| 6 |
+
import tempfile
|
| 7 |
+
from typing import Generator, Dict, Optional, List
|
| 8 |
+
import requests
|
| 9 |
+
from flask import session
|
| 10 |
+
from datetime import datetime
|
| 11 |
+
# NOUVEAU IMPORT pour gérer les fichiers uploadés par Flask
|
| 12 |
+
from werkzeug.datastructures import FileStorage
|
| 13 |
+
import base64 # NOUVEAU IMPORT pour l'encodage Base64
|
| 14 |
+
|
| 15 |
+
# --- IMPORT CORRIGÉ ET SPÉCIFIQUE DES VARIABLES DE CONFIGURATION ---
|
| 16 |
+
from config import HF_TOKEN, GRMINI_HF_REPO_ID
|
| 17 |
+
# NOUVEAUX IMPORTS POUR HUGGING FACE
|
| 18 |
+
from huggingface_hub import HfApi, HfFileSystem
|
| 19 |
+
|
| 20 |
+
|
| 21 |
+
logger = logging.getLogger(__name__)
|
| 22 |
+
|
| 23 |
+
# --- Configuration du Backend Externe ---
|
| 24 |
+
EXTERNAL_LLM_API_URL = "https://ernestmindres-ernestmind-llm-backend.hf.space/api/v1/generate_text"
|
| 25 |
+
# NOUVEAU: URL pour le traitement multimodal
|
| 26 |
+
EXTERNAL_LLM_FILES_API_URL = "https://ernestmindres-ernestmind-llm-backend.hf.space/api/v1/generate_text_with_files"
|
| 27 |
+
|
| 28 |
+
# Utilisation de la variable GRMINI_HF_REPO_ID importée.
|
| 29 |
+
GEMINI_HF_REPO_ID = GRMINI_HF_REPO_ID
|
| 30 |
+
# HF_TOKEN est maintenant disponible directement.
|
| 31 |
+
HF_API_BASE = "https://huggingface.co/api"
|
| 32 |
+
|
| 33 |
+
# --- Fonctions Utilitaires ---
|
| 34 |
+
def get_user_id_from_session() -> str:
|
| 35 |
+
"""
|
| 36 |
+
Simule l'obtention de l'ID utilisateur à partir de la session Flask.
|
| 37 |
+
"""
|
| 38 |
+
return session.get('user_id', 'TEST_USER_ID_FALLBACK')
|
| 39 |
+
|
| 40 |
+
def _get_conversation_file_path(user_id: str, conversation_id: str) -> str:
|
| 41 |
+
"""Génère le chemin du fichier JSON dans le dépôt: <user_id>/<conversation_id>.json."""
|
| 42 |
+
return f"{user_id}/{conversation_id}.json"
|
| 43 |
+
|
| 44 |
+
# ----------------------------------------------------------------------
|
| 45 |
+
# FONCTIONS DE GESTION DU DATASET HUGGING FACE
|
| 46 |
+
# ----------------------------------------------------------------------
|
| 47 |
+
|
| 48 |
+
def load_conversation_history(user_id: str, conversation_id: str) -> List[Dict]:
|
| 49 |
+
"""
|
| 50 |
+
Lit le contenu du fichier JSON de conversation dans le dataset Hugging Face en utilisant HfFileSystem.
|
| 51 |
+
"""
|
| 52 |
+
file_path = _get_conversation_file_path(user_id, conversation_id)
|
| 53 |
+
|
| 54 |
+
try:
|
| 55 |
+
# Initialiser le système de fichiers HF avec le jeton
|
| 56 |
+
fs = HfFileSystem(token=HF_TOKEN)
|
| 57 |
+
repo_path = f"datasets/{GEMINI_HF_REPO_ID}"
|
| 58 |
+
full_path = f"{repo_path}/{file_path}"
|
| 59 |
+
|
| 60 |
+
if fs.exists(full_path):
|
| 61 |
+
# Ouvrir et lire le fichier depuis le dépôt
|
| 62 |
+
with fs.open(full_path, 'r', encoding='utf-8') as f:
|
| 63 |
+
logger.info(f"Historique de conversation {conversation_id} chargé avec succès.")
|
| 64 |
+
return json.load(f)
|
| 65 |
+
else:
|
| 66 |
+
# Fichier non trouvé (nouvelle conversation), retourne un historique vide.
|
| 67 |
+
return []
|
| 68 |
+
|
| 69 |
+
except Exception as e:
|
| 70 |
+
logger.error(f"Erreur lors du chargement de l'historique avec HfFileSystem: {e}")
|
| 71 |
+
return []
|
| 72 |
+
|
| 73 |
+
|
| 74 |
+
def save_conversation_turn(
|
| 75 |
+
user_id: str,
|
| 76 |
+
conversation_id: str,
|
| 77 |
+
prompt: str,
|
| 78 |
+
ai_response: str
|
| 79 |
+
) -> bool:
|
| 80 |
+
"""
|
| 81 |
+
Lit l'historique existant, ajoute le nouveau tour de parole et écrit
|
| 82 |
+
(crée/met à jour) le fichier JSON dans le dataset Hugging Face via HfApi.
|
| 83 |
+
"""
|
| 84 |
+
file_path = _get_conversation_file_path(user_id, conversation_id)
|
| 85 |
+
|
| 86 |
+
# 1. Tenter de charger l'historique existant
|
| 87 |
+
current_history = load_conversation_history(user_id, conversation_id)
|
| 88 |
+
|
| 89 |
+
# 2. Ajouter le nouveau tour de parole
|
| 90 |
+
new_turn = {
|
| 91 |
+
"user_id": user_id,
|
| 92 |
+
"timestamp": datetime.now().isoformat(),
|
| 93 |
+
"messages": [
|
| 94 |
+
{"role": "user", "text": prompt},
|
| 95 |
+
{"role": "assistant", "text": ai_response}
|
| 96 |
+
]
|
| 97 |
+
}
|
| 98 |
+
current_history.append(new_turn)
|
| 99 |
+
|
| 100 |
+
# 3. Préparer le contenu
|
| 101 |
+
content_to_upload = json.dumps(current_history, indent=4)
|
| 102 |
+
tmp_file_path = None
|
| 103 |
+
|
| 104 |
+
# 4. Utiliser un fichier temporaire pour l'upload avec HfApi (méthode robuste)
|
| 105 |
+
try:
|
| 106 |
+
api = HfApi(token=HF_TOKEN)
|
| 107 |
+
|
| 108 |
+
# Écrire le contenu dans un fichier temporaire
|
| 109 |
+
with tempfile.NamedTemporaryFile(mode='w+', delete=False, encoding='utf-8') as tmp_file:
|
| 110 |
+
tmp_file.write(content_to_upload)
|
| 111 |
+
tmp_file_path = tmp_file.name
|
| 112 |
+
|
| 113 |
+
# Utiliser l'API officielle pour uploader/mettre à jour le fichier
|
| 114 |
+
api.upload_file(
|
| 115 |
+
path_or_fileobj=tmp_file_path,
|
| 116 |
+
path_in_repo=file_path,
|
| 117 |
+
repo_id=GEMINI_HF_REPO_ID,
|
| 118 |
+
repo_type="dataset", # Spécifier que c'est un dataset
|
| 119 |
+
commit_message=f"Save/Update conversation {conversation_id} for user {user_id}"
|
| 120 |
+
)
|
| 121 |
+
|
| 122 |
+
# S'assurer que le fichier temporaire est nettoyé
|
| 123 |
+
if tmp_file_path and os.path.exists(tmp_file_path):
|
| 124 |
+
os.remove(tmp_file_path)
|
| 125 |
+
|
| 126 |
+
logger.info(f"Conversation {conversation_id} sauvegardée avec succès via HfApi.")
|
| 127 |
+
return True
|
| 128 |
+
|
| 129 |
+
except Exception as e:
|
| 130 |
+
# Nettoyage en cas d'erreur
|
| 131 |
+
if tmp_file_path and os.path.exists(tmp_file_path):
|
| 132 |
+
os.remove(tmp_file_path)
|
| 133 |
+
|
| 134 |
+
logger.error(f"Échec de la sauvegarde HF via HfApi: {e}")
|
| 135 |
+
return False
|
| 136 |
+
|
| 137 |
+
# --- Fonction principale de streaming (Adaptée à l'API Externe) ---
|
| 138 |
+
|
| 139 |
+
def generate_streaming_response(
|
| 140 |
+
user_id: str,
|
| 141 |
+
conversation_id: str,
|
| 142 |
+
prompt: str
|
| 143 |
+
) -> Generator[str, None, None]:
|
| 144 |
+
"""
|
| 145 |
+
Appelle le backend LLM externe et génère une réponse en streaming.
|
| 146 |
+
"""
|
| 147 |
+
|
| 148 |
+
# 1. Charger l'historique existant pour fournir le contexte à l'IA
|
| 149 |
+
# Cette fonction retourne [] si le fichier n'existe pas.
|
| 150 |
+
history = load_conversation_history(user_id, conversation_id)
|
| 151 |
+
|
| 152 |
+
# 2. Préparer les données pour la requête
|
| 153 |
+
payload = {
|
| 154 |
+
"prompt": prompt,
|
| 155 |
+
"conversation_id": conversation_id,
|
| 156 |
+
# NOUVEAU: Ajouter l'historique de la conversation
|
| 157 |
+
"history": history
|
| 158 |
+
}
|
| 159 |
+
|
| 160 |
+
headers = {
|
| 161 |
+
"Content-Type": "application/json",
|
| 162 |
+
"X-User-ID": user_id
|
| 163 |
+
}
|
| 164 |
+
|
| 165 |
+
# 3. Appeler l'API externe en streaming
|
| 166 |
+
try:
|
| 167 |
+
# Utilisation de 'stream=True' pour traiter la réponse au fur et à mesure
|
| 168 |
+
with requests.post(EXTERNAL_LLM_API_URL, headers=headers, json=payload, stream=True) as response:
|
| 169 |
+
|
| 170 |
+
# Vérifier si la requête a réussi
|
| 171 |
+
if response.status_code != 200:
|
| 172 |
+
logger.error(f"Erreur du backend externe: {response.status_code} - {response.text}")
|
| 173 |
+
error_json = json.dumps({'type': 'ERROR', 'text': f"Erreur backend externe: {response.status_code}"})
|
| 174 |
+
yield f"data: {error_json}\n\n"
|
| 175 |
+
return
|
| 176 |
+
|
| 177 |
+
# Traiter le flux de données
|
| 178 |
+
for line in response.iter_lines():
|
| 179 |
+
if line:
|
| 180 |
+
# Le format attendu est 'data: {"content": "..."}' ou 'data: [DONE]'
|
| 181 |
+
line_str = line.decode('utf-8')
|
| 182 |
+
if line_str.startswith('data:'):
|
| 183 |
+
data_content = line_str[5:].strip() # Récupère le JSON après 'data:'
|
| 184 |
+
|
| 185 |
+
if data_content == '[DONE]':
|
| 186 |
+
# Arrêter le flux après [DONE]
|
| 187 |
+
break
|
| 188 |
+
|
| 189 |
+
# Tenter de parser le JSON pour extraire le texte
|
| 190 |
+
try:
|
| 191 |
+
chunk_data = json.loads(data_content)
|
| 192 |
+
text_chunk = chunk_data.get('content', '')
|
| 193 |
+
|
| 194 |
+
if text_chunk:
|
| 195 |
+
# Format de chunk pour le front-end
|
| 196 |
+
chunk_json = json.dumps({'type': 'CHUNK', 'text': text_chunk})
|
| 197 |
+
yield f"data: {chunk_json}\n\n"
|
| 198 |
+
|
| 199 |
+
except json.JSONDecodeError:
|
| 200 |
+
logger.warning(f"Erreur de décodage JSON dans le flux: {data_content}")
|
| 201 |
+
continue # Passer à la ligne suivante si ce n'est pas un JSON valide
|
| 202 |
+
|
| 203 |
+
except requests.exceptions.RequestException as e:
|
| 204 |
+
logger.error(f"Échec de la connexion au backend LLM: {e}")
|
| 205 |
+
error_json = json.dumps({'type': 'ERROR', 'text': f"Échec de la connexion au service LLM: {e}"})
|
| 206 |
+
yield f"data: {error_json}\n\n"
|
| 207 |
+
|
| 208 |
+
# Événement de fin de flux (FINALE)
|
| 209 |
+
final_end_json = json.dumps({'type': 'END', 'conversation_id': conversation_id, 'title': ''})
|
| 210 |
+
yield f"data: {final_end_json}\n\n"
|
| 211 |
+
|
| 212 |
+
|
| 213 |
+
# NOUVEAU: Fonction pour charger uniquement le titre (basé sur le premier prompt)
|
| 214 |
+
def _get_conversation_title(history: List[Dict]) -> str:
|
| 215 |
+
"""
|
| 216 |
+
Extrait un titre de conversation à partir du premier prompt utilisateur.
|
| 217 |
+
|
| 218 |
+
Args:
|
| 219 |
+
history (List[Dict]): L'historique complet de la conversation chargé depuis le fichier JSON.
|
| 220 |
+
|
| 221 |
+
Returns:
|
| 222 |
+
str: Le titre de la conversation (le premier prompt tronqué) ou 'Nouvelle Conversation' si vide.
|
| 223 |
+
"""
|
| 224 |
+
# Vérifie si l'historique est non-vide et si le premier tour contient des messages
|
| 225 |
+
if history and history[0].get('messages') and len(history[0]['messages']) > 0:
|
| 226 |
+
# Tente d'extraire le texte du premier message utilisateur
|
| 227 |
+
first_prompt = history[0]['messages'][0].get('text', 'Conversation sans titre')
|
| 228 |
+
|
| 229 |
+
# Limiter et nettoyer pour un titre
|
| 230 |
+
# Tronque le titre à 50 caractères et ajoute '...'
|
| 231 |
+
return first_prompt[:50] + '...' if len(first_prompt) > 50 else first_prompt
|
| 232 |
+
|
| 233 |
+
# Cas où le fichier existe mais est vide ou ne contient pas encore de message
|
| 234 |
+
return 'Nouvelle Conversation'
|
| 235 |
+
|
| 236 |
+
|
| 237 |
+
# MODIFICATION: Fonction pour lister tous les fichiers de conversation d'un utilisateur
|
| 238 |
+
def list_user_conversations(user_id: str) -> List[Dict]:
|
| 239 |
+
"""
|
| 240 |
+
Liste toutes les conversations d'un utilisateur, en lisant le titre (premier prompt).
|
| 241 |
+
Cette version est robuste face aux fichiers JSON corrompus ou incomplets.
|
| 242 |
+
|
| 243 |
+
Args:
|
| 244 |
+
user_id (str): L'identifiant de l'utilisateur.
|
| 245 |
+
|
| 246 |
+
Returns:
|
| 247 |
+
List[Dict]: Une liste d'objets, chacun contenant {'id': str, 'title': str}.
|
| 248 |
+
"""
|
| 249 |
+
try:
|
| 250 |
+
# Initialisation du système de fichiers Hugging Face
|
| 251 |
+
fs = HfFileSystem(token=HF_TOKEN)
|
| 252 |
+
repo_path = f"datasets/{GEMINI_HF_REPO_ID}"
|
| 253 |
+
user_dir = f"{repo_path}/{user_id}/"
|
| 254 |
+
|
| 255 |
+
conversations_list = []
|
| 256 |
+
|
| 257 |
+
# 1. Vérifie si le répertoire de l'utilisateur existe
|
| 258 |
+
if fs.exists(user_dir):
|
| 259 |
+
files = fs.ls(user_dir, detail=False)
|
| 260 |
+
|
| 261 |
+
for file in files:
|
| 262 |
+
if file.endswith('.json'):
|
| 263 |
+
conversation_id = file.split('/')[-1].replace('.json', '')
|
| 264 |
+
full_path = f"{repo_path}/{user_id}/{conversation_id}.json"
|
| 265 |
+
|
| 266 |
+
# 2. Charger l'historique de ce fichier (avec gestion des erreurs)
|
| 267 |
+
history = []
|
| 268 |
+
try:
|
| 269 |
+
with fs.open(full_path, 'r', encoding='utf-8') as f:
|
| 270 |
+
history = json.load(f)
|
| 271 |
+
except json.JSONDecodeError as e:
|
| 272 |
+
# Gère spécifiquement les erreurs de format JSON (fichier corrompu ou vide)
|
| 273 |
+
logger.warning(f"Fichier corrompu ou vide trouvé : {full_path}. Ignoré. Erreur: {e}")
|
| 274 |
+
continue
|
| 275 |
+
except Exception as e:
|
| 276 |
+
# Gère toute autre erreur de lecture/réseau
|
| 277 |
+
logger.error(f"Impossible de lire le fichier {full_path}: {e}")
|
| 278 |
+
continue
|
| 279 |
+
|
| 280 |
+
# 3. Extraire le titre à partir de l'historique chargé
|
| 281 |
+
title = _get_conversation_title(history)
|
| 282 |
+
|
| 283 |
+
# 4. Ajouter à la liste finale
|
| 284 |
+
conversations_list.append({
|
| 285 |
+
"id": conversation_id,
|
| 286 |
+
"title": title
|
| 287 |
+
})
|
| 288 |
+
|
| 289 |
+
# Retourne la liste des conversations valides
|
| 290 |
+
return conversations_list
|
| 291 |
+
else:
|
| 292 |
+
# Retourne une liste vide si le répertoire utilisateur n'existe pas
|
| 293 |
+
return []
|
| 294 |
+
|
| 295 |
+
except Exception as e:
|
| 296 |
+
# Gère une erreur globale (e.g., problème de connexion à Hugging Face)
|
| 297 |
+
logger.error(f"Erreur lors du listage des conversations pour {user_id}: {e}")
|
| 298 |
+
return []
|
| 299 |
+
|
| 300 |
+
# ----------------------------------------------------------------------
|
| 301 |
+
# NOUVELLES FONCTIONS DE SUPPRESSION
|
| 302 |
+
# ----------------------------------------------------------------------
|
| 303 |
+
|
| 304 |
+
def delete_specific_conversation(user_id: str, conversation_id: str) -> bool:
|
| 305 |
+
"""
|
| 306 |
+
Supprime un fichier de conversation spécifique dans le dataset Hugging Face.
|
| 307 |
+
"""
|
| 308 |
+
file_path = _get_conversation_file_path(user_id, conversation_id)
|
| 309 |
+
|
| 310 |
+
try:
|
| 311 |
+
fs = HfFileSystem(token=HF_TOKEN)
|
| 312 |
+
repo_path = f"datasets/{GEMINI_HF_REPO_ID}"
|
| 313 |
+
full_path = f"{repo_path}/{file_path}"
|
| 314 |
+
|
| 315 |
+
if fs.exists(full_path):
|
| 316 |
+
# Utiliser la méthode 'rm' de HfFileSystem pour supprimer le fichier
|
| 317 |
+
fs.rm(full_path)
|
| 318 |
+
logger.info(f"Conversation spécifique {conversation_id} de {user_id} supprimée avec succès.")
|
| 319 |
+
return True
|
| 320 |
+
else:
|
| 321 |
+
logger.warning(f"Tentative de suppression: Fichier {full_path} non trouvé.")
|
| 322 |
+
return False # Retourne False si non trouvé, mais la suppression est effective
|
| 323 |
+
|
| 324 |
+
except Exception as e:
|
| 325 |
+
logger.error(f"Erreur lors de la suppression de la conversation {conversation_id}: {e}")
|
| 326 |
+
return False
|
| 327 |
+
|
| 328 |
+
|
| 329 |
+
def delete_all_user_conversations(user_id: str) -> bool:
|
| 330 |
+
"""
|
| 331 |
+
Supprime le répertoire complet de l'utilisateur dans le dataset Hugging Face,
|
| 332 |
+
incluant toutes ses conversations.
|
| 333 |
+
"""
|
| 334 |
+
try:
|
| 335 |
+
fs = HfFileSystem(token=HF_TOKEN)
|
| 336 |
+
repo_path = f"datasets/{GEMINI_HF_REPO_ID}"
|
| 337 |
+
user_dir = f"{repo_path}/{user_id}/"
|
| 338 |
+
|
| 339 |
+
if fs.exists(user_dir):
|
| 340 |
+
# Utiliser la méthode 'rm' de HfFileSystem pour supprimer le répertoire et son contenu
|
| 341 |
+
fs.rm(user_dir, recursive=True)
|
| 342 |
+
logger.info(f"Toutes les conversations pour l'utilisateur {user_id} ont été supprimées.")
|
| 343 |
+
return True
|
| 344 |
+
else:
|
| 345 |
+
logger.warning(f"Tentative de suppression globale: Répertoire utilisateur {user_dir} non trouvé.")
|
| 346 |
+
return True # Considéré comme un succès si le répertoire n'existe pas
|
| 347 |
+
|
| 348 |
+
except Exception as e:
|
| 349 |
+
logger.error(f"Erreur lors de la suppression de toutes les conversations pour {user_id}: {e}")
|
| 350 |
+
return False
|
| 351 |
+
|
| 352 |
+
# ----------------------------------------------------------------------
|
| 353 |
+
# NOUVELLE FONCTION: Traitement des fichiers
|
| 354 |
+
# ----------------------------------------------------------------------
|
| 355 |
+
|
| 356 |
+
def process_uploaded_files(uploaded_files: List[FileStorage]) -> List[Dict]:
|
| 357 |
+
"""
|
| 358 |
+
Traite la liste des objets FileStorage (fichiers uploadés via Flask)
|
| 359 |
+
pour les encoder en Base64 et les préparer pour l'API externe.
|
| 360 |
+
|
| 361 |
+
Args:
|
| 362 |
+
uploaded_files (List[FileStorage]): Liste des fichiers provenant de request.files.
|
| 363 |
+
|
| 364 |
+
Returns:
|
| 365 |
+
List[Dict]: Liste de dictionnaires au format:
|
| 366 |
+
{'filename': str, 'content': str (base64), 'mime_type': str}
|
| 367 |
+
"""
|
| 368 |
+
processed_files = []
|
| 369 |
+
|
| 370 |
+
for file in uploaded_files:
|
| 371 |
+
try:
|
| 372 |
+
# Lire le contenu du fichier
|
| 373 |
+
file_bytes = file.read()
|
| 374 |
+
# Encoder en Base64
|
| 375 |
+
encoded_content = base64.b64encode(file_bytes).decode('utf-8')
|
| 376 |
+
|
| 377 |
+
processed_files.append({
|
| 378 |
+
"filename": file.filename,
|
| 379 |
+
"content": encoded_content,
|
| 380 |
+
"mime_type": file.mimetype
|
| 381 |
+
})
|
| 382 |
+
logger.info(f"Fichier '{file.filename}' traité et encodé en base64.")
|
| 383 |
+
|
| 384 |
+
except Exception as e:
|
| 385 |
+
logger.error(f"Erreur lors du traitement du fichier {file.filename}: {e}")
|
| 386 |
+
# Le fichier est ignoré, mais la conversation peut continuer
|
| 387 |
+
continue
|
| 388 |
+
|
| 389 |
+
return processed_files
|
| 390 |
+
|
| 391 |
+
|
| 392 |
+
# ----------------------------------------------------------------------
|
| 393 |
+
# NOUVELLE FONCTION principale de streaming AVEC fichiers
|
| 394 |
+
# ----------------------------------------------------------------------
|
| 395 |
+
|
| 396 |
+
def generate_streaming_response_with_files(
|
| 397 |
+
user_id: str,
|
| 398 |
+
conversation_id: str,
|
| 399 |
+
prompt: str,
|
| 400 |
+
files_data: List[Dict] # NOUVEAU: Liste des fichiers déjà encodés en base64
|
| 401 |
+
) -> Generator[str, None, None]:
|
| 402 |
+
"""
|
| 403 |
+
Appelle le backend LLM externe (route avec fichiers) et génère une réponse en streaming.
|
| 404 |
+
"""
|
| 405 |
+
|
| 406 |
+
# 1. Charger l'historique existant
|
| 407 |
+
history = load_conversation_history(user_id, conversation_id)
|
| 408 |
+
|
| 409 |
+
# 2. Préparer les données pour la requête (y compris les fichiers)
|
| 410 |
+
payload = {
|
| 411 |
+
"prompt": prompt,
|
| 412 |
+
"history": history,
|
| 413 |
+
"files": files_data # NOUVEAU: Ajout de la liste des fichiers
|
| 414 |
+
}
|
| 415 |
+
|
| 416 |
+
headers = {
|
| 417 |
+
"Content-Type": "application/json",
|
| 418 |
+
"X-User-ID": user_id
|
| 419 |
+
}
|
| 420 |
+
|
| 421 |
+
# 3. Appeler l'API externe en streaming sur la NOUVELLE ROUTE
|
| 422 |
+
try:
|
| 423 |
+
# Utiliser la NOUVELLE URL pour la route multimodale
|
| 424 |
+
with requests.post(EXTERNAL_LLM_FILES_API_URL, headers=headers, json=payload, stream=True) as response:
|
| 425 |
+
|
| 426 |
+
# Vérifier si la requête a réussi (gestion des erreurs du backend HF)
|
| 427 |
+
if response.status_code != 200:
|
| 428 |
+
logger.error(f"Erreur du backend externe (files): {response.status_code} - {response.text}")
|
| 429 |
+
error_json = json.dumps({'type': 'ERROR', 'text': f"Erreur backend externe (files): {response.status_code}"})
|
| 430 |
+
yield f"data: {error_json}\n\n"
|
| 431 |
+
return
|
| 432 |
+
|
| 433 |
+
# Traiter le flux de données (reste le même que l'ancienne fonction)
|
| 434 |
+
for line in response.iter_lines():
|
| 435 |
+
if line:
|
| 436 |
+
line_str = line.decode('utf-8')
|
| 437 |
+
if line_str.startswith('data:'):
|
| 438 |
+
data_content = line_str[5:].strip()
|
| 439 |
+
|
| 440 |
+
if data_content == '[DONE]':
|
| 441 |
+
break
|
| 442 |
+
|
| 443 |
+
try:
|
| 444 |
+
chunk_data = json.loads(data_content)
|
| 445 |
+
text_chunk = chunk_data.get('content', '')
|
| 446 |
+
|
| 447 |
+
if text_chunk:
|
| 448 |
+
chunk_json = json.dumps({'type': 'CHUNK', 'text': text_chunk})
|
| 449 |
+
yield f"data: {chunk_json}\n\n"
|
| 450 |
+
|
| 451 |
+
except json.JSONDecodeError:
|
| 452 |
+
logger.warning(f"Erreur de décodage JSON dans le flux: {data_content}")
|
| 453 |
+
continue
|
| 454 |
+
|
| 455 |
+
except requests.exceptions.RequestException as e:
|
| 456 |
+
logger.error(f"Échec de la connexion au backend LLM (files): {e}")
|
| 457 |
+
error_json = json.dumps({'type': 'ERROR', 'text': f"Échec de la connexion au service LLM (files): {e}"})
|
| 458 |
+
yield f"data: {error_json}\n\n"
|
| 459 |
+
|
| 460 |
+
# Événement de fin de flux (FINALE)
|
| 461 |
+
final_end_json = json.dumps({'type': 'END', 'conversation_id': conversation_id, 'title': ''})
|
| 462 |
+
yield f"data: {final_end_json}\n\n"
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/gemini_routes.py
ADDED
|
@@ -0,0 +1,265 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# gemini_routes.py - Version avec nouvelles routes de gestion de l'historique
|
| 2 |
+
|
| 3 |
+
import logging
|
| 4 |
+
import json
|
| 5 |
+
import uuid
|
| 6 |
+
from flask import Blueprint, request, jsonify, Response, stream_with_context
|
| 7 |
+
from decorators import api_session_required
|
| 8 |
+
from gemini_functions import (
|
| 9 |
+
get_user_id_from_session,
|
| 10 |
+
generate_streaming_response,
|
| 11 |
+
list_user_conversations, # NOUVEL IMPORT
|
| 12 |
+
load_conversation_history,
|
| 13 |
+
save_conversation_turn,
|
| 14 |
+
delete_specific_conversation,
|
| 15 |
+
delete_all_user_conversations,
|
| 16 |
+
process_uploaded_files, # NOUVEL IMPORT
|
| 17 |
+
generate_streaming_response_with_files, # NOUVEL IMPORT
|
| 18 |
+
)
|
| 19 |
+
|
| 20 |
+
gemini_bp = Blueprint('gemini_bp', __name__, url_prefix='/api/gemini')
|
| 21 |
+
logger = logging.getLogger(__name__)
|
| 22 |
+
|
| 23 |
+
|
| 24 |
+
# ------------------------------------------------------------
|
| 25 |
+
# Route: Charger l'historique d'une conversation
|
| 26 |
+
# GET /api/gemini/chat/history/<conversation_id>
|
| 27 |
+
# ------------------------------------------------------------
|
| 28 |
+
@gemini_bp.route('/chat/history/<conversation_id>', methods=['GET'])
|
| 29 |
+
@api_session_required
|
| 30 |
+
def get_chat_history(client_user, conversation_id: str):
|
| 31 |
+
"""
|
| 32 |
+
Récupère l'historique de la conversation pour un ID donné depuis le dataset HF.
|
| 33 |
+
"""
|
| 34 |
+
user_id = client_user.get('user_id', get_user_id_from_session())
|
| 35 |
+
|
| 36 |
+
if not conversation_id:
|
| 37 |
+
return jsonify({"success": False, "message": "L'ID de conversation est requis."}), 400
|
| 38 |
+
|
| 39 |
+
try:
|
| 40 |
+
history = load_conversation_history(user_id, conversation_id)
|
| 41 |
+
# Retourne l'historique (ou [] si nouveau/non trouvé)
|
| 42 |
+
return jsonify({"success": True, "history": history})
|
| 43 |
+
|
| 44 |
+
except Exception as e:
|
| 45 |
+
logger.error(f"Erreur lors du chargement de l'historique {conversation_id}: {e}")
|
| 46 |
+
# En cas d'erreur fatale, retourner une liste vide pour permettre la continuité
|
| 47 |
+
return jsonify({"success": True, "history": [], "message": "Erreur lors du chargement de l'historique."})
|
| 48 |
+
|
| 49 |
+
|
| 50 |
+
# ------------------------------------------------------------
|
| 51 |
+
# Route: Sauvegarder un tour de conversation
|
| 52 |
+
# POST /api/gemini/chat/save
|
| 53 |
+
# ------------------------------------------------------------
|
| 54 |
+
@gemini_bp.route('/chat/save', methods=['POST'])
|
| 55 |
+
@api_session_required
|
| 56 |
+
def save_chat_turn(client_user):
|
| 57 |
+
"""
|
| 58 |
+
Sauvegarde un tour de conversation complet (prompt utilisateur + réponse AI) dans le dataset HF.
|
| 59 |
+
Cette route est destinée à être appelée par le front-end après le stream.
|
| 60 |
+
"""
|
| 61 |
+
user_id = client_user.get('user_id', get_user_id_from_session())
|
| 62 |
+
|
| 63 |
+
try:
|
| 64 |
+
data = request.get_json()
|
| 65 |
+
except Exception:
|
| 66 |
+
return jsonify({"success": False, "message": "Données JSON manquantes ou invalides."}), 400
|
| 67 |
+
|
| 68 |
+
conversation_id = data.get('conversation_id')
|
| 69 |
+
prompt = data.get('prompt', '').strip()
|
| 70 |
+
ai_response = data.get('ai_response', '').strip()
|
| 71 |
+
|
| 72 |
+
if not conversation_id or not prompt or not ai_response:
|
| 73 |
+
return jsonify({"success": False, "message": "conversation_id, prompt, et ai_response sont requis."}), 400
|
| 74 |
+
|
| 75 |
+
# Appel de la nouvelle fonction de sauvegarde
|
| 76 |
+
success = save_conversation_turn(user_id, conversation_id, prompt, ai_response)
|
| 77 |
+
|
| 78 |
+
if success:
|
| 79 |
+
return jsonify({"success": True, "message": "Conversation sauvegardée avec succès."}), 200
|
| 80 |
+
else:
|
| 81 |
+
return jsonify({"success": False, "message": "Échec de la sauvegarde de la conversation."}), 500
|
| 82 |
+
|
| 83 |
+
# ------------------------------------------------------------
|
| 84 |
+
# Route unique: Envoyer un message et recevoir la réponse en STREAMING
|
| 85 |
+
# POST /api/gemini/chat/message
|
| 86 |
+
# ------------------------------------------------------------
|
| 87 |
+
@gemini_bp.route('/chat/message', methods=['POST'])
|
| 88 |
+
@api_session_required
|
| 89 |
+
def send_message_stream(client_user):
|
| 90 |
+
# 1. Identification de l'utilisateur
|
| 91 |
+
user_id = client_user.get('user_id', get_user_id_from_session())
|
| 92 |
+
|
| 93 |
+
# 2. Récupération des données (doit être un JSON dans le corps)
|
| 94 |
+
try:
|
| 95 |
+
data = request.get_json()
|
| 96 |
+
except Exception:
|
| 97 |
+
data = {} # Gérer le cas où le corps n'est pas un JSON valide
|
| 98 |
+
|
| 99 |
+
conversation_id = data.get('conversation_id')
|
| 100 |
+
prompt = data.get('prompt', '').strip()
|
| 101 |
+
|
| 102 |
+
# Vérification du prompt
|
| 103 |
+
if not prompt:
|
| 104 |
+
return jsonify({"success": False, "message": "Le 'prompt' est requis."}), 400
|
| 105 |
+
|
| 106 |
+
# 3. Gestion de l'ID de conversation
|
| 107 |
+
if not conversation_id:
|
| 108 |
+
# Créer un nouvel ID si l'utilisateur envoie un nouveau message sans contexte
|
| 109 |
+
conversation_id = str(uuid.uuid4())
|
| 110 |
+
logger.info(f"Création d'un nouvel ID de conversation: {conversation_id} pour {user_id}")
|
| 111 |
+
|
| 112 |
+
# 4. Fonction générateur pour le streaming (Server-Sent Events - SSE)
|
| 113 |
+
def stream_generator():
|
| 114 |
+
# Envoie l'ID de conversation initial pour le front-end
|
| 115 |
+
yield f"data:{json.dumps({'type': 'CONV_ID', 'id': conversation_id})}\n\n"
|
| 116 |
+
|
| 117 |
+
# Le flux de réponse de l'IA (qui appelle le backend externe)
|
| 118 |
+
try:
|
| 119 |
+
# generate_streaming_response retourne des strings au format SSE (data: JSON\n\n)
|
| 120 |
+
for json_chunk_string in generate_streaming_response(user_id, conversation_id, prompt):
|
| 121 |
+
yield json_chunk_string
|
| 122 |
+
|
| 123 |
+
except Exception as e:
|
| 124 |
+
logger.error(f"Erreur fatale dans le stream_generator: {e}")
|
| 125 |
+
error_json = json.dumps({'type': 'ERROR', 'text': 'Erreur interne du serveur lors du streaming.'})
|
| 126 |
+
yield f"data:{error_json}\n\n"
|
| 127 |
+
|
| 128 |
+
# 5. Retourner la réponse en streaming (text/event-stream)
|
| 129 |
+
return Response(
|
| 130 |
+
stream_with_context(stream_generator()),
|
| 131 |
+
mimetype='text/event-stream',
|
| 132 |
+
headers={'Cache-Control': 'no-cache', 'Connection': 'keep-alive'}
|
| 133 |
+
)
|
| 134 |
+
|
| 135 |
+
|
| 136 |
+
# Correction dans gemini_routes.py
|
| 137 |
+
@gemini_bp.route('/chat/list', methods=['GET'])
|
| 138 |
+
@api_session_required
|
| 139 |
+
def get_chat_list(client_user):
|
| 140 |
+
user_id = client_user.get('user_id', get_user_id_from_session())
|
| 141 |
+
try:
|
| 142 |
+
# Utilise la nouvelle fonction qui retourne les objets complets
|
| 143 |
+
conversations = list_user_conversations(user_id)
|
| 144 |
+
|
| 145 |
+
# IMPORTANT: Le frontend attend 'chats', non pas 'conversations'
|
| 146 |
+
return jsonify({"success": True, "chats": conversations})
|
| 147 |
+
|
| 148 |
+
except Exception as e:
|
| 149 |
+
logger.error(f"Erreur lors du listage des conversations: {e}")
|
| 150 |
+
return jsonify({"success": False, "chats": [], "message": "Erreur lors du listage des conversations."}), 500
|
| 151 |
+
|
| 152 |
+
# ------------------------------------------------------------
|
| 153 |
+
# Route: Supprimer une conversation spécifique
|
| 154 |
+
# DELETE /api/gemini/chat/delete/<conversation_id>
|
| 155 |
+
# ------------------------------------------------------------
|
| 156 |
+
@gemini_bp.route('/chat/delete/<conversation_id>', methods=['DELETE'])
|
| 157 |
+
@api_session_required
|
| 158 |
+
def delete_chat_specific(client_user, conversation_id: str):
|
| 159 |
+
"""
|
| 160 |
+
Supprime le fichier d'une conversation spécifique.
|
| 161 |
+
"""
|
| 162 |
+
user_id = client_user.get('user_id', get_user_id_from_session())
|
| 163 |
+
|
| 164 |
+
if not conversation_id:
|
| 165 |
+
return jsonify({"success": False, "message": "L'ID de conversation est requis pour la suppression."}), 400
|
| 166 |
+
|
| 167 |
+
success = delete_specific_conversation(user_id, conversation_id)
|
| 168 |
+
|
| 169 |
+
if success:
|
| 170 |
+
return jsonify({"success": True, "message": f"Conversation {conversation_id} supprimée avec succès."}), 200
|
| 171 |
+
else:
|
| 172 |
+
# Retourne 404 si le fichier n'a pas été trouvé ou 500 pour une erreur backend
|
| 173 |
+
return jsonify({"success": False, "message": f"Échec de la suppression de la conversation {conversation_id}."}), 500
|
| 174 |
+
|
| 175 |
+
|
| 176 |
+
# ------------------------------------------------------------
|
| 177 |
+
# Route: Supprimer TOUTES les conversations de l'utilisateur
|
| 178 |
+
# DELETE /api/gemini/chat/delete_all
|
| 179 |
+
# ------------------------------------------------------------
|
| 180 |
+
@gemini_bp.route('/chat/delete_all', methods=['DELETE'])
|
| 181 |
+
@api_session_required
|
| 182 |
+
def delete_chat_all(client_user):
|
| 183 |
+
"""
|
| 184 |
+
Supprime le répertoire complet de l'utilisateur, incluant toutes ses conversations.
|
| 185 |
+
"""
|
| 186 |
+
user_id = client_user.get('user_id', get_user_id_from_session())
|
| 187 |
+
|
| 188 |
+
# Sécurité: Ne pas permettre la suppression de l'utilisateur de secours TEST_USER_ID_FALLBACK
|
| 189 |
+
if user_id == 'TEST_USER_ID_FALLBACK':
|
| 190 |
+
return jsonify({"success": False, "message": "La suppression globale n'est pas autorisée pour l'utilisateur de secours."}), 403
|
| 191 |
+
|
| 192 |
+
success = delete_all_user_conversations(user_id)
|
| 193 |
+
|
| 194 |
+
if success:
|
| 195 |
+
return jsonify({"success": True, "message": f"Toutes les conversations pour l'utilisateur {user_id} ont été supprimées."}), 200
|
| 196 |
+
else:
|
| 197 |
+
return jsonify({"success": False, "message": "Échec de la suppression de toutes les conversations."}), 500
|
| 198 |
+
|
| 199 |
+
# ------------------------------------------------------------
|
| 200 |
+
# NOUVELLE ROUTE: Envoyer un message AVEC fichiers en STREAMING
|
| 201 |
+
# POST /api/gemini/chat/message_with_files
|
| 202 |
+
# ------------------------------------------------------------
|
| 203 |
+
@gemini_bp.route('/chat/message_with_files', methods=['POST'])
|
| 204 |
+
@api_session_required
|
| 205 |
+
def send_message_with_files_stream(client_user):
|
| 206 |
+
"""
|
| 207 |
+
Gère l'envoi d'un prompt et de plusieurs fichiers, les encode en Base64,
|
| 208 |
+
et streame la réponse de l'IA via la route multimodale du backend externe.
|
| 209 |
+
"""
|
| 210 |
+
# 1. Identification de l'utilisateur
|
| 211 |
+
user_id = client_user.get('user_id', get_user_id_from_session())
|
| 212 |
+
|
| 213 |
+
# 2. Récupération des données du formulaire (le formulaire est de type multipart/form-data)
|
| 214 |
+
# Les champs texte (prompt, conversation_id) sont dans request.form
|
| 215 |
+
conversation_id = request.form.get('conversation_id')
|
| 216 |
+
prompt = request.form.get('prompt', '').strip()
|
| 217 |
+
|
| 218 |
+
# 3. Récupération des fichiers uploadés
|
| 219 |
+
# Flask stocke les fichiers dans request.files
|
| 220 |
+
# On utilise list(request.files.values()) pour obtenir tous les objets FileStorage
|
| 221 |
+
uploaded_files = list(request.files.values())
|
| 222 |
+
|
| 223 |
+
# 4. Vérification minimale
|
| 224 |
+
if not prompt and not uploaded_files:
|
| 225 |
+
return jsonify({"success": False, "message": "Le 'prompt' ou au moins un fichier est requis."}), 400
|
| 226 |
+
|
| 227 |
+
# 5. Traitement des fichiers (Base64 encoding)
|
| 228 |
+
files_data_b64 = process_uploaded_files(uploaded_files)
|
| 229 |
+
|
| 230 |
+
# Double vérification si tous les fichiers ont échoué
|
| 231 |
+
if not prompt and not files_data_b64:
|
| 232 |
+
return jsonify({"success": False, "message": "Le 'prompt' est vide et aucun fichier valide n'a pu être traité."}), 400
|
| 233 |
+
|
| 234 |
+
# 6. Gestion de l'ID de conversation
|
| 235 |
+
if not conversation_id:
|
| 236 |
+
conversation_id = str(uuid.uuid4())
|
| 237 |
+
logger.info(f"Création d'un nouvel ID de conversation (avec fichiers): {conversation_id} pour {user_id}")
|
| 238 |
+
|
| 239 |
+
# 7. Fonction générateur pour le streaming (Server-Sent Events - SSE)
|
| 240 |
+
def stream_generator():
|
| 241 |
+
# Envoie l'ID de conversation initial pour le front-end
|
| 242 |
+
yield f"data:{json.dumps({'type': 'CONV_ID', 'id': conversation_id})}\n\n"
|
| 243 |
+
|
| 244 |
+
# Le flux de réponse de l'IA (qui appelle le backend externe avec fichiers)
|
| 245 |
+
try:
|
| 246 |
+
# Appel de la NOUVELLE fonction
|
| 247 |
+
for json_chunk_string in generate_streaming_response_with_files(
|
| 248 |
+
user_id,
|
| 249 |
+
conversation_id,
|
| 250 |
+
prompt,
|
| 251 |
+
files_data_b64 # Passage des fichiers encodés
|
| 252 |
+
):
|
| 253 |
+
yield json_chunk_string
|
| 254 |
+
|
| 255 |
+
except Exception as e:
|
| 256 |
+
logger.error(f"Erreur fatale dans le stream_generator (avec fichiers): {e}")
|
| 257 |
+
error_json = json.dumps({'type': 'ERROR', 'text': 'Erreur interne du serveur lors du streaming.'})
|
| 258 |
+
yield f"data:{error_json}\n\n"
|
| 259 |
+
|
| 260 |
+
# 8. Retourner la réponse en streaming (text/event-stream)
|
| 261 |
+
return Response(
|
| 262 |
+
stream_with_context(stream_generator()),
|
| 263 |
+
mimetype='text/event-stream',
|
| 264 |
+
headers={'Cache-Control': 'no-cache', 'Connection': 'keep-alive'}
|
| 265 |
+
)
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/hf_deploy_manager.py
ADDED
|
@@ -0,0 +1,318 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# hf_deploy_manager.py
|
| 2 |
+
# Implémentation du Plan de Travail pour l'Orchestration, la Surveillance et la Maintenance des Spaces Hugging Face.
|
| 3 |
+
|
| 4 |
+
import os
|
| 5 |
+
import re
|
| 6 |
+
import logging
|
| 7 |
+
from typing import Optional, Dict
|
| 8 |
+
from huggingface_hub import HfApi
|
| 9 |
+
from huggingface_hub.utils import HfHubHTTPError # <-- NOUVEL EMPLACEMENT DE L'IMPORT
|
| 10 |
+
import requests
|
| 11 |
+
|
| 12 |
+
# --- Configuration et Initialisation ---
|
| 13 |
+
logger = logging.getLogger(__name__)
|
| 14 |
+
|
| 15 |
+
# Ces variables d'environnement sont nécessaires pour le bon fonctionnement.
|
| 16 |
+
HF_TOKEN = os.environ.get("HF_TOKEN")
|
| 17 |
+
HF_DATASET_REPO_ID = os.environ.get("HF_DATASET_REPO_ID") # Le Dataset qui contient le code utilisateur
|
| 18 |
+
|
| 19 |
+
# Initialisation de l'API Hugging Face
|
| 20 |
+
# Le jeton est lu automatiquement de l'environnement si l'initialisation est faite avec token=HF_TOKEN
|
| 21 |
+
api = HfApi(token=HF_TOKEN)
|
| 22 |
+
|
| 23 |
+
# --- PHASE 1 : Orchestration du Déploiement (La Création du Space) ---
|
| 24 |
+
|
| 25 |
+
def _get_space_id(user_id: str, repo_slug: str) -> str:
|
| 26 |
+
"""
|
| 27 |
+
1. Création d'ID unique : Crée un format de nommage unique et sûr pour le Space HF.
|
| 28 |
+
Format: [user_id_slug]-[repo_slug_slug] (Sans organisation).
|
| 29 |
+
"""
|
| 30 |
+
# Simple slugification pour s'assurer qu'il n'y a pas de caractères non autorisés dans l'ID
|
| 31 |
+
safe_user_id = re.sub(r'[^a-zA-Z0-9-]', '-', user_id).lower()
|
| 32 |
+
safe_repo_slug = re.sub(r'[^a-zA-Z0-9-]', '-', repo_slug).lower()
|
| 33 |
+
|
| 34 |
+
# Construction de l'ID du Space sans l'organisation
|
| 35 |
+
space_id = f"{safe_user_id}-{safe_repo_slug}"
|
| 36 |
+
return space_id
|
| 37 |
+
|
| 38 |
+
def get_public_space_url(space_id: str) -> str:
|
| 39 |
+
"""
|
| 40 |
+
Génère l'URL publique complète pour un Space Hugging Face à partir de son ID.
|
| 41 |
+
L'URL est toujours construite à partir de l'ID du Space.
|
| 42 |
+
"""
|
| 43 |
+
safe_space_id = space_id.replace('/', '-')
|
| 44 |
+
# Format standard de Hugging Face Spaces
|
| 45 |
+
space_url = f"https://{safe_space_id}.hf.space"
|
| 46 |
+
return space_url
|
| 47 |
+
|
| 48 |
+
def _generate_space_readme(user_id: str, repo_slug: str, sdk_type: str = "gradio") -> str:
|
| 49 |
+
"""
|
| 50 |
+
2. Configuration du Code Source : Génère le contenu du fichier README.md.
|
| 51 |
+
Prend en charge les SDKs standards (gradio, streamlit) et 'docker' pour les frameworks.
|
| 52 |
+
"""
|
| 53 |
+
if not HF_DATASET_REPO_ID:
|
| 54 |
+
raise ValueError("HF_DATASET_REPO_ID n'est pas configuré dans l'environnement.")
|
| 55 |
+
|
| 56 |
+
# Chemin où se trouve le code source de l'utilisateur dans le Dataset
|
| 57 |
+
user_data_path = f"{user_id}/{repo_slug}"
|
| 58 |
+
|
| 59 |
+
readme_content = f"""
|
| 60 |
+
---
|
| 61 |
+
title: {repo_slug} - Deployment
|
| 62 |
+
emoji: 🚀
|
| 63 |
+
colorFrom: blue
|
| 64 |
+
colorTo: green
|
| 65 |
+
sdk: {sdk_type}
|
| 66 |
+
external_data:
|
| 67 |
+
- {HF_DATASET_REPO_ID}:{user_data_path}
|
| 68 |
+
---
|
| 69 |
+
|
| 70 |
+
# Space de Déploiement pour {repo_slug}
|
| 71 |
+
Ce Space est un déploiement automatisé du projet de l'utilisateur `{user_id}`.
|
| 72 |
+
|
| 73 |
+
Le code source est monté depuis le Dataset Hugging Face : `{HF_DATASET_REPO_ID}`
|
| 74 |
+
Chemin spécifique de la source : `{user_data_path}`
|
| 75 |
+
|
| 76 |
+
Le type de SDK utilisé est `{sdk_type}`.
|
| 77 |
+
"""
|
| 78 |
+
return readme_content.strip()
|
| 79 |
+
|
| 80 |
+
def _generate_default_requirements() -> str:
|
| 81 |
+
"""
|
| 82 |
+
Génère un fichier requirements.txt minimal pour le Dockerfile par défaut.
|
| 83 |
+
Gunicorn est inclus car il est utilisé dans le Dockerfile.
|
| 84 |
+
"""
|
| 85 |
+
return """
|
| 86 |
+
# Dépendances requises pour l'application.
|
| 87 |
+
# L'utilisateur doit modifier ce fichier avec les dépendances spécifiques à son projet (Flask, FastAPI, Django, etc.)
|
| 88 |
+
gunicorn
|
| 89 |
+
"""
|
| 90 |
+
|
| 91 |
+
def _generate_default_dockerfile(base_image: str = "python:3.10-slim") -> str:
|
| 92 |
+
"""
|
| 93 |
+
3. Fichier d'Environnement : Créer un Dockerfile de base simple pour les déploiements de type 'docker'
|
| 94 |
+
pour les frameworks web (Flask, FastAPI, Django).
|
| 95 |
+
"""
|
| 96 |
+
dockerfile_content = f"""
|
| 97 |
+
# Dockerfile généré par défaut par hf_deploy_manager.py
|
| 98 |
+
|
| 99 |
+
FROM {base_image}
|
| 100 |
+
|
| 101 |
+
# Définir le répertoire de travail
|
| 102 |
+
WORKDIR /app
|
| 103 |
+
|
| 104 |
+
# Les fichiers sont montés via external_data dans le dossier de travail.
|
| 105 |
+
# L'utilisateur DOIT fournir un fichier 'requirements.txt' pour les dépendances.
|
| 106 |
+
# Nous copions le fichier requirements.txt généré ou fourni
|
| 107 |
+
COPY requirements.txt requirements.txt
|
| 108 |
+
RUN pip install --no-cache-dir -r requirements.txt
|
| 109 |
+
|
| 110 |
+
# Installer Gunicorn, un serveur WSGI souvent utilisé pour les applications web
|
| 111 |
+
# Gunicorn est déjà listé dans requirements.txt généré.
|
| 112 |
+
|
| 113 |
+
# Exécuter l'application avec Gunicorn.
|
| 114 |
+
# L'application doit écouter sur le port 7860 et l'objet de l'application doit être nommé 'app'
|
| 115 |
+
# dans le fichier de point d'entrée 'app.py' (commun pour Flask/FastAPI/Streamlit/Gradio).
|
| 116 |
+
# Pour Django, l'utilisateur devra créer son propre Dockerfile.
|
| 117 |
+
# Note: HF Spaces expose les applications web sur le port 7860.
|
| 118 |
+
CMD exec gunicorn --bind 0.0.0.0:7860 app:app
|
| 119 |
+
"""
|
| 120 |
+
return dockerfile_content.strip()
|
| 121 |
+
|
| 122 |
+
def deploy_repo_to_space(user_id: str, repo_slug: str, sdk_type: str = "gradio") -> Dict[str, str]:
|
| 123 |
+
"""
|
| 124 |
+
4. Déploiement Complet : Crée et configure un nouveau Space Hugging Face.
|
| 125 |
+
|
| 126 |
+
Returns:
|
| 127 |
+
Un dictionnaire contenant le statut de succès, l'ID COMPLET (owner/repo_name) et l'URL publique.
|
| 128 |
+
"""
|
| 129 |
+
# Étape 1: Obtenir le slug du dépôt (e.g., a6ea61c8-...)
|
| 130 |
+
space_id_slug = _get_space_id(user_id, repo_slug)
|
| 131 |
+
|
| 132 |
+
# Étape 2: Construire l'ID complet Hugging Face (e.g., ernestmindres/a6ea61c8-...)
|
| 133 |
+
full_space_id = f"{user_id}/{space_id_slug}"
|
| 134 |
+
|
| 135 |
+
# Valider le type de SDK
|
| 136 |
+
valid_sdks = ["gradio", "streamlit", "docker", "static"]
|
| 137 |
+
if sdk_type.lower() not in valid_sdks:
|
| 138 |
+
return {"success": False, "message": f"SDK non valide: {sdk_type}. Types acceptés: {', '.join(valid_sdks)}."}
|
| 139 |
+
|
| 140 |
+
try:
|
| 141 |
+
logger.info(f"Tentative de création du Space: {full_space_id}...")
|
| 142 |
+
|
| 143 |
+
# 1. Créer le dépôt de type 'space' - Utilise l'ID COMPLET
|
| 144 |
+
api.create_repo(
|
| 145 |
+
repo_id=full_space_id,
|
| 146 |
+
repo_type="space",
|
| 147 |
+
private=False,
|
| 148 |
+
space_sdk=sdk_type
|
| 149 |
+
)
|
| 150 |
+
|
| 151 |
+
# 2. Générer le contenu du README.md
|
| 152 |
+
# Assurez-vous que _generate_space_readme est définie
|
| 153 |
+
readme_content = _generate_space_readme(user_id, repo_slug, sdk_type)
|
| 154 |
+
|
| 155 |
+
# 3. Uploader le README.md - Utilise l'ID COMPLET
|
| 156 |
+
api.upload_file(
|
| 157 |
+
path_or_fileobj=readme_content.encode('utf-8'),
|
| 158 |
+
path_in_repo="README.md",
|
| 159 |
+
repo_id=full_space_id,
|
| 160 |
+
repo_type="space",
|
| 161 |
+
commit_message="Initial README.md with external_data directive."
|
| 162 |
+
)
|
| 163 |
+
|
| 164 |
+
# 4. Uploader les fichiers requis pour le mode 'docker'
|
| 165 |
+
if sdk_type.lower() == "docker":
|
| 166 |
+
# 4a. Dockerfile (Assurez-vous que _generate_default_dockerfile est définie)
|
| 167 |
+
dockerfile_content = _generate_default_dockerfile()
|
| 168 |
+
api.upload_file(
|
| 169 |
+
path_or_fileobj=dockerfile_content.encode('utf-8'),
|
| 170 |
+
path_in_repo="Dockerfile",
|
| 171 |
+
repo_id=full_space_id, # Utilise l'ID COMPLET
|
| 172 |
+
repo_type="space",
|
| 173 |
+
commit_message="Initial Dockerfile for web frameworks."
|
| 174 |
+
)
|
| 175 |
+
|
| 176 |
+
# 4b. requirements.txt (Assurez-vous que _generate_default_requirements est définie)
|
| 177 |
+
requirements_content = _generate_default_requirements()
|
| 178 |
+
api.upload_file(
|
| 179 |
+
path_or_fileobj=requirements_content.encode('utf-8'),
|
| 180 |
+
path_in_repo="requirements.txt",
|
| 181 |
+
repo_id=full_space_id, # Utilise l'ID COMPLET
|
| 182 |
+
repo_type="space",
|
| 183 |
+
commit_message="Initial requirements.txt."
|
| 184 |
+
)
|
| 185 |
+
|
| 186 |
+
# 5. Retourner l'URL publique
|
| 187 |
+
# On utilise le SLUG (space_id_slug) pour obtenir l'URL publique
|
| 188 |
+
space_url = get_public_space_url(space_id_slug)
|
| 189 |
+
logger.info(f"Space '{full_space_id}' créé avec succès. URL: {space_url}")
|
| 190 |
+
|
| 191 |
+
return {
|
| 192 |
+
"success": True,
|
| 193 |
+
"message": f"Space créé et configuré avec succès pour SDK: {sdk_type}.",
|
| 194 |
+
"space_id": full_space_id, # IMPORTANT: Retourne l'ID COMPLET
|
| 195 |
+
"space_url": space_url
|
| 196 |
+
}
|
| 197 |
+
|
| 198 |
+
except HfHubHTTPError as e:
|
| 199 |
+
# On logue l'erreur avec l'ID complet pour le débogage
|
| 200 |
+
logger.error(f"Erreur HF lors du déploiement de {full_space_id}: {e}")
|
| 201 |
+
status_code = e.response.status_code
|
| 202 |
+
|
| 203 |
+
# Gérer le cas où le Space existe déjà (code 409 Conflict)
|
| 204 |
+
if status_code == 409:
|
| 205 |
+
# Récupère l'URL pour la renvoyer au client
|
| 206 |
+
space_url = get_public_space_url(space_id_slug)
|
| 207 |
+
return {
|
| 208 |
+
"success": True,
|
| 209 |
+
"message": f"Le Space '{full_space_id}' existe déjà. Vous pouvez procéder à la surveillance du statut via cet ID.",
|
| 210 |
+
"space_id": full_space_id, # IMPORTANT: Retourne l'ID COMPLET
|
| 211 |
+
"space_url": space_url
|
| 212 |
+
}
|
| 213 |
+
|
| 214 |
+
# Gérer les autres erreurs HTTP
|
| 215 |
+
return {
|
| 216 |
+
"success": False,
|
| 217 |
+
"message": f"Erreur lors de la création du Space: {status_code} - **{e}**."
|
| 218 |
+
}
|
| 219 |
+
|
| 220 |
+
except ValueError as e:
|
| 221 |
+
return {"success": False, "message": str(e)}
|
| 222 |
+
except Exception as e:
|
| 223 |
+
logger.error(f"Erreur inattendue lors du déploiement: {e}")
|
| 224 |
+
return {"success": False, "message": f"Erreur inattendue: {str(e)}"}
|
| 225 |
+
|
| 226 |
+
def _get_hf_repo_id(user_id: str, space_id_slug: str) -> str:
|
| 227 |
+
"""
|
| 228 |
+
Crée l'ID complet du dépôt Hugging Face (ex: user_id/space_id_slug).
|
| 229 |
+
"""
|
| 230 |
+
# Note: Si le space est créé sans organisation, HF le met sous l'utilisateur.
|
| 231 |
+
# Pour une organisation, vous devez adapter (ex: org_id/space_id_slug)
|
| 232 |
+
return f"{user_id}/{space_id_slug}"
|
| 233 |
+
|
| 234 |
+
|
| 235 |
+
def get_space_status(space_id: str) -> Dict[str, str]:
|
| 236 |
+
"""
|
| 237 |
+
5. Vérification du Statut : Utilise HfApi().repo_info pour obtenir l'état (Ex: Running, Building, Error).
|
| 238 |
+
|
| 239 |
+
ATTENTION: 'space_id' DOIT être l'ID complet du dépôt Hugging Face (ex: 'utilisateur/nom-du-space').
|
| 240 |
+
"""
|
| 241 |
+
try:
|
| 242 |
+
# Utiliser repo_info (méthode standard pour obtenir des informations complètes sur le dépôt)
|
| 243 |
+
info = api.repo_info(repo_id=space_id, repo_type="space")
|
| 244 |
+
|
| 245 |
+
# Le statut du Space est généralement disponible à deux endroits, on vérifie les deux.
|
| 246 |
+
# Le 'stage' est le statut de compilation/exécution (Building, Running, Error).
|
| 247 |
+
status = 'Unknown'
|
| 248 |
+
if info.cardData and 'space_runtime_stage' in info.cardData:
|
| 249 |
+
status = info.cardData['space_runtime_stage']
|
| 250 |
+
elif info.spaces_status and info.spaces_status.stage:
|
| 251 |
+
status = info.spaces_status.stage
|
| 252 |
+
|
| 253 |
+
# Si le status est encore 'Unknown', on peut essayer de deviner (ex: si 'stage' est manquant)
|
| 254 |
+
if status == 'Unknown':
|
| 255 |
+
if info.spaces_status and info.spaces_status.stage:
|
| 256 |
+
status = info.spaces_status.stage
|
| 257 |
+
|
| 258 |
+
# Fallback si l'API ne renvoie pas la structure attendue
|
| 259 |
+
if status == 'Unknown':
|
| 260 |
+
status = 'No stage'
|
| 261 |
+
|
| 262 |
+
return {
|
| 263 |
+
"success": True,
|
| 264 |
+
"status": status,
|
| 265 |
+
"message": f"Le Space '{space_id}' est dans l'état: {status}"
|
| 266 |
+
}
|
| 267 |
+
except HfHubHTTPError as e:
|
| 268 |
+
logger.error(f"Erreur lors de la récupération du statut de {space_id}: Client error '{e.response.status_code}' for url '{e.response.url}' (Détails: {e})")
|
| 269 |
+
|
| 270 |
+
# Le statut 404 est retourné si le Space n'existe pas (souvent à cause d'un ID incomplet)
|
| 271 |
+
if e.response.status_code == 404:
|
| 272 |
+
return {"success": False, "status": "Error", "message": f"Space non trouvé ou erreur d'API. Vérifiez que l'ID complet '{space_id}' est correct. (Code: 404)"}
|
| 273 |
+
|
| 274 |
+
# Autres erreurs HF
|
| 275 |
+
return {"success": False, "status": "Error", "message": f"Erreur d'API Hugging Face: {e.response.status_code}"}
|
| 276 |
+
|
| 277 |
+
except Exception as e:
|
| 278 |
+
logger.error(f"Erreur inattendue lors de la récupération du statut de {space_id}: {e}")
|
| 279 |
+
return {"success": False, "status": "Error", "message": f"Erreur inattendue lors de la vérification du statut: {str(e)}"}
|
| 280 |
+
|
| 281 |
+
|
| 282 |
+
def fetch_space_logs(space_id: str, logs_type: str = "build") -> Dict[str, str]:
|
| 283 |
+
"""
|
| 284 |
+
6. Récupération des Logs : Utilise HfApi().get_logs pour obtenir les logs.
|
| 285 |
+
"""
|
| 286 |
+
try:
|
| 287 |
+
logs = api.get_logs(repo_id=space_id, repo_type="space", logs_type=logs_type)
|
| 288 |
+
|
| 289 |
+
return {
|
| 290 |
+
"success": True,
|
| 291 |
+
"logs": logs,
|
| 292 |
+
"message": f"Logs de type '{logs_type}' récupérés avec succès pour le Space '{space_id}'."
|
| 293 |
+
}
|
| 294 |
+
except HfHubHTTPError as e:
|
| 295 |
+
logger.error(f"Erreur lors de la récupération des logs de {space_id}: {e}")
|
| 296 |
+
return {"success": False, "logs": "", "message": f"Space non trouvé ou erreur d'API: {e.response.status_code}"}
|
| 297 |
+
except Exception as e:
|
| 298 |
+
logger.error(f"Erreur inattendue lors de la récupération des logs: {e}")
|
| 299 |
+
return {"success": False, "logs": "", "message": f"Erreur inattendue: {str(e)}"}
|
| 300 |
+
|
| 301 |
+
|
| 302 |
+
def stop_space(space_id: str) -> Dict[str, str]:
|
| 303 |
+
"""
|
| 304 |
+
7. Arrêt du Space (Optionnel) : Utilise HfApi().pause_space pour mettre le Space en pause.
|
| 305 |
+
"""
|
| 306 |
+
try:
|
| 307 |
+
api.pause_space(repo_id=space_id)
|
| 308 |
+
|
| 309 |
+
return {
|
| 310 |
+
"success": True,
|
| 311 |
+
"message": f"Le Space '{space_id}' a été mis en pause (Stopped) avec succès."
|
| 312 |
+
}
|
| 313 |
+
except HfHubHTTPError as e:
|
| 314 |
+
logger.error(f"Erreur lors de l'arrêt du Space {space_id}: {e}")
|
| 315 |
+
return {"success": False, "message": f"Space non trouvé ou erreur d'API: {e.response.status_code}. Space déjà arrêté?"}
|
| 316 |
+
except Exception as e:
|
| 317 |
+
logger.error(f"Erreur inattendue lors de l'arrêt du Space: {e}")
|
| 318 |
+
return {"success": False, "message": f"Erreur inattendue: {str(e)}"}
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/huggingface_repo_manager.py
ADDED
|
@@ -0,0 +1,1174 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# huggingface_repo_manager.py
|
| 2 |
+
|
| 3 |
+
from werkzeug.datastructures import FileStorage # NÉCESSAIRE pour typer le paramètre 'files'
|
| 4 |
+
import os
|
| 5 |
+
import shutil
|
| 6 |
+
import logging
|
| 7 |
+
import json # <--- NOUVEL
|
| 8 |
+
from huggingface_hub import HfApi, HfFileSystem, CommitOperationAdd # <-- MODIFICATION
|
| 9 |
+
from huggingface_hub.utils import HfHubHTTPError
|
| 10 |
+
from typing import Optional, Dict, List, Tuple
|
| 11 |
+
from io import BytesIO
|
| 12 |
+
import uuid # <-- NOUVEL IMPORT
|
| 13 |
+
from datetime import datetime, timedelta # <-- MODIFIER CETTE LIGNE
|
| 14 |
+
from config import HF_DATASET_REPO_ID, IMAGE_STORAGE_HF_REPO_ID, PULL_REQUESTS_HF_REPO_ID, HF_TOKEN
|
| 15 |
+
|
| 16 |
+
logger = logging.getLogger(__name__)
|
| 17 |
+
|
| 18 |
+
# --- Configuration Hugging Face ---
|
| 19 |
+
HF_DATASET_REPO_ID = os.environ.get("HF_DATASET_REPO_ID")
|
| 20 |
+
IMAGE_STORAGE_HF_REPO_ID = os.environ.get("IMAGE_STORAGE_HF_REPO_ID") # <-- AJOUTER CETTE LIGNE
|
| 21 |
+
api = HfApi()
|
| 22 |
+
fs = HfFileSystem()
|
| 23 |
+
|
| 24 |
+
# --- Constantes pour le stockage utilisateur ---
|
| 25 |
+
METADATA_FILE_NAME = "metadata.json"
|
| 26 |
+
|
| 27 |
+
TEMP_UPLOAD_DIR = "/tmp/hf_uploads" # <-- AJOUTER/DÉPLACER ICI
|
| 28 |
+
|
| 29 |
+
def _get_user_base_path(user_id: str) -> str:
|
| 30 |
+
"""Retourne le chemin du dossier principal de l'utilisateur dans le Dataset HF."""
|
| 31 |
+
# Le chemin principal est l'UUID de l'utilisateur
|
| 32 |
+
return user_id
|
| 33 |
+
|
| 34 |
+
def _get_user_metadata_path(user_id: str) -> str:
|
| 35 |
+
"""Retourne le chemin complet du fichier de métadonnées utilisateur."""
|
| 36 |
+
# Structure: user_id/metadata.json
|
| 37 |
+
return f"{_get_user_base_path(user_id)}/{METADATA_FILE_NAME}"
|
| 38 |
+
# --- NOUVELLES Fonctions Utilitaires pour les chemins de Variables/Secrets ---
|
| 39 |
+
|
| 40 |
+
|
| 41 |
+
SECRETS_FILE_PREFIX = "secrets__"
|
| 42 |
+
VARIABLES_FILE_PREFIX = "variables__"
|
| 43 |
+
|
| 44 |
+
def _get_repo_secrets_path(user_id: str, repo_slug: str) -> str:
|
| 45 |
+
"""Retourne le chemin complet du fichier JSON des secrets pour un dépôt."""
|
| 46 |
+
# Structure: user_id/secrets__repo_slug.json
|
| 47 |
+
return f"{_get_user_base_path(user_id)}/{SECRETS_FILE_PREFIX}{repo_slug}.json"
|
| 48 |
+
|
| 49 |
+
def _get_repo_variables_path(user_id: str, repo_slug: str) -> str:
|
| 50 |
+
"""Retourne le chemin complet du fichier JSON des variables pour un dépôt."""
|
| 51 |
+
# Structure: user_id/variables__repo_slug.json
|
| 52 |
+
return f"{_get_user_base_path(user_id)}/{VARIABLES_FILE_PREFIX}{repo_slug}.json"
|
| 53 |
+
|
| 54 |
+
|
| 55 |
+
# --- NOUVELLE Fonction Utilitaires pour le formatage du temps écoulé ---
|
| 56 |
+
|
| 57 |
+
def _format_time_ago(datetime_str: str) -> str:
|
| 58 |
+
"""
|
| 59 |
+
Formate une chaîne de date/heure ISO (UTC) en une chaîne de temps écoulé
|
| 60 |
+
(par ex. 'il y a 2 jours', 'le mois dernier').
|
| 61 |
+
"""
|
| 62 |
+
try:
|
| 63 |
+
# Hugging Face renvoie une chaîne ISO formatée (ex: 2025-12-13T17:47:07.000Z)
|
| 64 |
+
# On remplace 'Z' pour être compatible avec `fromisoformat` si Python < 3.11 ou si le format varie.
|
| 65 |
+
last_modified_dt = datetime.fromisoformat(datetime_str.replace('Z', '+00:00'))
|
| 66 |
+
except ValueError:
|
| 67 |
+
return "Date invalide"
|
| 68 |
+
|
| 69 |
+
# Utiliser le fuseau horaire de la date/heure lue (ici UTC)
|
| 70 |
+
now = datetime.now(last_modified_dt.tzinfo)
|
| 71 |
+
diff: timedelta = now - last_modified_dt
|
| 72 |
+
|
| 73 |
+
# Différence en secondes
|
| 74 |
+
seconds = int(diff.total_seconds())
|
| 75 |
+
|
| 76 |
+
# Gérer le cas où la date est dans le futur (très rare)
|
| 77 |
+
if seconds < 0:
|
| 78 |
+
return "à l'instant"
|
| 79 |
+
|
| 80 |
+
# Tableau des intervalles de temps
|
| 81 |
+
intervals = (
|
| 82 |
+
('années', 31536000), # 365 jours
|
| 83 |
+
('mois', 2592000), # 30 jours (approximation)
|
| 84 |
+
('semaines', 604800), # 7 jours
|
| 85 |
+
('jours', 86400),
|
| 86 |
+
('heures', 3600),
|
| 87 |
+
('minutes', 60),
|
| 88 |
+
('secondes', 1),
|
| 89 |
+
)
|
| 90 |
+
|
| 91 |
+
for name, count in intervals:
|
| 92 |
+
value = seconds // count
|
| 93 |
+
if value >= 1:
|
| 94 |
+
# Gérer les pluriels et le formatage "il y a"
|
| 95 |
+
s = 's' if value > 1 and name not in ['mois', 'années'] else ''
|
| 96 |
+
|
| 97 |
+
if name == 'années':
|
| 98 |
+
return f"il y a {value} an{s}"
|
| 99 |
+
if name == 'mois':
|
| 100 |
+
return f"il y a {value} mois"
|
| 101 |
+
if name == 'semaines':
|
| 102 |
+
return f"il y a {value} semaine{s}"
|
| 103 |
+
if name == 'jours':
|
| 104 |
+
return f"il y a {value} jour{s}"
|
| 105 |
+
if name == 'heures':
|
| 106 |
+
return f"il y a {value} heure{s}"
|
| 107 |
+
if name == 'minutes':
|
| 108 |
+
return f"il y a {value} minute{s}"
|
| 109 |
+
if name == 'secondes':
|
| 110 |
+
return f"il y a {value} seconde{s}"
|
| 111 |
+
|
| 112 |
+
return "à l'instant"
|
| 113 |
+
|
| 114 |
+
|
| 115 |
+
def upload_files_to_repo_backend(
|
| 116 |
+
user_id: str,
|
| 117 |
+
repo_slug: str,
|
| 118 |
+
files: List[FileStorage],
|
| 119 |
+
commit_message: str,
|
| 120 |
+
commit_description: Optional[str] = None,
|
| 121 |
+
branch: str = "main",
|
| 122 |
+
repo_id: Optional[str] = None
|
| 123 |
+
) -> tuple[bool, str]:
|
| 124 |
+
"""
|
| 125 |
+
Téléverse une liste de fichiers (incluant ceux dans des sous-dossiers)
|
| 126 |
+
vers le sous-dossier de dépôt de l'utilisateur sur Hugging Face
|
| 127 |
+
en une seule commit atomique (Git-like) en utilisant un dossier temporaire.
|
| 128 |
+
"""
|
| 129 |
+
repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
|
| 130 |
+
if not repo_id:
|
| 131 |
+
return False, "Erreur de configuration: Repository Hugging Face non défini."
|
| 132 |
+
if not files:
|
| 133 |
+
return False, "Aucun fichier à téléverser."
|
| 134 |
+
|
| 135 |
+
# 1. Préparer le dossier temporaire local
|
| 136 |
+
local_temp_repo_path = os.path.join(TEMP_UPLOAD_DIR, user_id, repo_slug)
|
| 137 |
+
|
| 138 |
+
# S'assurer que le dossier local temporaire est propre et existe
|
| 139 |
+
if os.path.exists(local_temp_repo_path):
|
| 140 |
+
shutil.rmtree(local_temp_repo_path)
|
| 141 |
+
os.makedirs(local_temp_repo_path, exist_ok=True)
|
| 142 |
+
|
| 143 |
+
local_file_paths = []
|
| 144 |
+
|
| 145 |
+
try:
|
| 146 |
+
# 2. Sauvegarder tous les fichiers uploadés dans le dossier temporaire
|
| 147 |
+
for file_storage in files:
|
| 148 |
+
# --- CORRECTION POUR LA GESTION DES SOUS-DOSSIERS ---
|
| 149 |
+
|
| 150 |
+
# Utiliser le chemin relatif complet du fichier (ex: 'css/style.css' ou 'index.html')
|
| 151 |
+
# Nous faisons confiance à file_storage.filename pour contenir le chemin relatif
|
| 152 |
+
filename_with_path = file_storage.filename.strip()
|
| 153 |
+
|
| 154 |
+
# Sécurité: normaliser le chemin pour éviter les traversées de dossiers (ex: '../')
|
| 155 |
+
safe_relative_path = os.path.normpath(filename_with_path)
|
| 156 |
+
|
| 157 |
+
# Construction du chemin local complet dans le dossier temporaire
|
| 158 |
+
local_path = os.path.join(local_temp_repo_path, safe_relative_path)
|
| 159 |
+
|
| 160 |
+
# S'assurer que le SOUS-DOSSIER local existe avant de sauvegarder le fichier
|
| 161 |
+
# os.path.dirname('temp/css/style.css') -> 'temp/css'
|
| 162 |
+
os.makedirs(os.path.dirname(local_path), exist_ok=True)
|
| 163 |
+
|
| 164 |
+
# Sauvegarder l'objet FileStorage dans le chemin local
|
| 165 |
+
file_storage.save(local_path)
|
| 166 |
+
local_file_paths.append(local_path)
|
| 167 |
+
|
| 168 |
+
# --- FIN DE LA CORRECTION ---
|
| 169 |
+
|
| 170 |
+
# 3. Effectuer le téléversement atomique du dossier local vers HF
|
| 171 |
+
path_in_repo = f"{user_id}/{repo_slug}"
|
| 172 |
+
|
| 173 |
+
commit_message_full = (commit_message.strip() if commit_message else "Ajout de fichiers via upload")
|
| 174 |
+
if commit_description:
|
| 175 |
+
commit_message_full += f"\n\n{commit_description}"
|
| 176 |
+
|
| 177 |
+
api.upload_folder(
|
| 178 |
+
folder_path=local_temp_repo_path,
|
| 179 |
+
repo_id=repo_id,
|
| 180 |
+
path_in_repo=path_in_repo,
|
| 181 |
+
repo_type="dataset",
|
| 182 |
+
# Utilise 'commit_message_full' pour le titre et la description
|
| 183 |
+
commit_message=commit_message_full,
|
| 184 |
+
# Laisse 'delete_old_files' désactivé pour ne pas supprimer les fichiers existants non inclus dans l'upload actuel
|
| 185 |
+
revision=branch # Cible la bonne branche (Git-like)
|
| 186 |
+
)
|
| 187 |
+
|
| 188 |
+
# 4. Nettoyage
|
| 189 |
+
# On supprime le dossier temporaire de l'utilisateur/repo, mais pas TEMP_UPLOAD_DIR
|
| 190 |
+
shutil.rmtree(local_temp_repo_path)
|
| 191 |
+
|
| 192 |
+
message = f"Téléversement réussi de {len(files)} fichiers (avec sous-dossiers si présents) vers le dépôt '{repo_slug}'."
|
| 193 |
+
logger.info(message)
|
| 194 |
+
return True, message
|
| 195 |
+
|
| 196 |
+
except HfHubHTTPError as e:
|
| 197 |
+
logger.error(f"Erreur API Hugging Face lors de l'upload pour {repo_slug}: {e}")
|
| 198 |
+
return False, f"Échec du téléversement Hugging Face (vérifiez les permissions ou la branche) : {e.response.text.splitlines()[0]}"
|
| 199 |
+
except Exception as e:
|
| 200 |
+
logger.error(f"Erreur inconnue lors du téléversement pour {repo_slug}: {e}")
|
| 201 |
+
# L'erreur de l'argument manquant peut être capturée ici
|
| 202 |
+
return False, f"Erreur interne lors du téléversement : {str(e)}"
|
| 203 |
+
finally:
|
| 204 |
+
# S'assurer que le dossier temporaire est toujours nettoyé, même en cas d'erreur
|
| 205 |
+
if os.path.exists(local_temp_repo_path):
|
| 206 |
+
shutil.rmtree(local_temp_repo_path)
|
| 207 |
+
|
| 208 |
+
def save_json_file_to_hf(
|
| 209 |
+
file_path: str,
|
| 210 |
+
data: Dict,
|
| 211 |
+
commit_message: str,
|
| 212 |
+
repo_id: Optional[str] = None
|
| 213 |
+
) -> tuple[bool, str]:
|
| 214 |
+
"""
|
| 215 |
+
Encode les données en JSON, les commite et les enregistre sur Hugging Face.
|
| 216 |
+
"""
|
| 217 |
+
if not repo_id:
|
| 218 |
+
return False, "Erreur de configuration: Repository Hugging Face non défini."
|
| 219 |
+
|
| 220 |
+
try:
|
| 221 |
+
updated_content = json.dumps(data, indent=4).encode('utf-8')
|
| 222 |
+
updated_file = BytesIO(updated_content)
|
| 223 |
+
|
| 224 |
+
api.upload_file(
|
| 225 |
+
path_or_fileobj=updated_file,
|
| 226 |
+
path_in_repo=file_path,
|
| 227 |
+
repo_id=repo_id,
|
| 228 |
+
repo_type="dataset",
|
| 229 |
+
commit_message=commit_message
|
| 230 |
+
)
|
| 231 |
+
|
| 232 |
+
logger.info(f"Fichier JSON mis à jour sur HF à {file_path}.")
|
| 233 |
+
return True, "Fichier JSON mis à jour avec succès sur Hugging Face."
|
| 234 |
+
|
| 235 |
+
except Exception as e:
|
| 236 |
+
logger.error(f"Erreur lors de la mise à jour du JSON HF pour {file_path}: {e}")
|
| 237 |
+
return False, f"Échec de la mise à jour du JSON Hugging Face: {str(e)}"
|
| 238 |
+
|
| 239 |
+
def get_user_repo_metadata(
|
| 240 |
+
user_id: str,
|
| 241 |
+
repo_id: Optional[str] = None
|
| 242 |
+
) -> tuple[Optional[Dict], str]:
|
| 243 |
+
"""
|
| 244 |
+
Charge les métadonnées de tous les dépôts d'un utilisateur depuis le fichier metadata.json sur HF.
|
| 245 |
+
"""
|
| 246 |
+
repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
|
| 247 |
+
if not repo_id:
|
| 248 |
+
return None, "Erreur de configuration: Repository Hugging Face non défini."
|
| 249 |
+
|
| 250 |
+
metadata_path = _get_user_metadata_path(user_id)
|
| 251 |
+
hf_file_path = f"datasets/{repo_id}/{metadata_path}"
|
| 252 |
+
|
| 253 |
+
try:
|
| 254 |
+
if not fs.exists(hf_file_path):
|
| 255 |
+
return None, f"Fichier de métadonnées non trouvé pour l'utilisateur {user_id}."
|
| 256 |
+
|
| 257 |
+
with fs.open(hf_file_path, "rb") as f:
|
| 258 |
+
content = f.read()
|
| 259 |
+
|
| 260 |
+
metadata = json.loads(content.decode('utf-8'))
|
| 261 |
+
return metadata, "Métadonnées chargées avec succès."
|
| 262 |
+
|
| 263 |
+
except Exception as e:
|
| 264 |
+
logger.error(f"Erreur lors du chargement des métadonnées HF pour {user_id}: {e}")
|
| 265 |
+
return None, f"Échec du chargement des métadonnées: {str(e)}"
|
| 266 |
+
|
| 267 |
+
def initialize_user_hf_folder(
|
| 268 |
+
user_id: str,
|
| 269 |
+
repo_id: Optional[str] = None
|
| 270 |
+
) -> tuple[bool, str]:
|
| 271 |
+
"""
|
| 272 |
+
Crée le dossier principal de l'utilisateur (user_id/) sur HF et un fichier de métadonnées initial (metadata.json).
|
| 273 |
+
Ceci est le 'dossier principal' qui stocke les informations de l'utilisateur.
|
| 274 |
+
"""
|
| 275 |
+
repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
|
| 276 |
+
if not repo_id:
|
| 277 |
+
return False, "Erreur de configuration: Repository Hugging Face non défini."
|
| 278 |
+
|
| 279 |
+
base_path = _get_user_base_path(user_id)
|
| 280 |
+
metadata_path = _get_user_metadata_path(user_id)
|
| 281 |
+
|
| 282 |
+
initial_metadata = {
|
| 283 |
+
"user_ref": user_id,
|
| 284 |
+
"repos": []
|
| 285 |
+
}
|
| 286 |
+
|
| 287 |
+
try:
|
| 288 |
+
metadata_content = json.dumps(initial_metadata, indent=4).encode('utf-8')
|
| 289 |
+
metadata_file = BytesIO(metadata_content)
|
| 290 |
+
|
| 291 |
+
commit_url = api.upload_file(
|
| 292 |
+
path_or_fileobj=metadata_file,
|
| 293 |
+
path_in_repo=metadata_path,
|
| 294 |
+
repo_id=repo_id,
|
| 295 |
+
repo_type="dataset",
|
| 296 |
+
commit_message=f"Initialisation du dossier et des métadonnées pour l'utilisateur {user_id}"
|
| 297 |
+
)
|
| 298 |
+
|
| 299 |
+
logger.info(f"Dossier HF initialisé pour l'utilisateur {user_id} à {base_path}. Commit: {commit_url}")
|
| 300 |
+
return True, "Dossier et métadonnées HF initialisés."
|
| 301 |
+
except Exception as e:
|
| 302 |
+
logger.error(f"Échec de l'initialisation du dossier HF pour {user_id}: {e}")
|
| 303 |
+
return False, f"Échec de l'initialisation Hugging Face: {str(e)}"
|
| 304 |
+
|
| 305 |
+
def update_user_repo_metadata(
|
| 306 |
+
user_id: str,
|
| 307 |
+
new_repo_data: Dict,
|
| 308 |
+
repo_id: Optional[str] = None
|
| 309 |
+
) -> tuple[bool, str]:
|
| 310 |
+
"""
|
| 311 |
+
Met à jour le fichier metadata.json de l'utilisateur en ajoutant ou remplaçant un dépôt.
|
| 312 |
+
"""
|
| 313 |
+
repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
|
| 314 |
+
if not repo_id:
|
| 315 |
+
return False, "Erreur de configuration: Repository Hugging Face non défini."
|
| 316 |
+
|
| 317 |
+
metadata_path = _get_user_metadata_path(user_id)
|
| 318 |
+
|
| 319 |
+
# 1. Charger les métadonnées actuelles ou initialiser si manquant
|
| 320 |
+
current_metadata, message = get_user_repo_metadata(user_id)
|
| 321 |
+
|
| 322 |
+
if current_metadata is None:
|
| 323 |
+
logger.warning(f"Tentative de chargement des métadonnées pour {user_id} échouée: {message}. Tentative d'initialisation.")
|
| 324 |
+
success_init, init_message = initialize_user_hf_folder(user_id)
|
| 325 |
+
|
| 326 |
+
if not success_init:
|
| 327 |
+
return False, f"Impossible de charger OU d'initialiser les métadonnées: {init_message}"
|
| 328 |
+
|
| 329 |
+
# Recharger après initialisation
|
| 330 |
+
current_metadata, _ = get_user_repo_metadata(user_id)
|
| 331 |
+
if current_metadata is None:
|
| 332 |
+
return False, "Impossible de charger ou d'initialiser les métadonnées."
|
| 333 |
+
|
| 334 |
+
# 2. Mettre à jour la liste des dépôts
|
| 335 |
+
repos = current_metadata.get("repos", [])
|
| 336 |
+
|
| 337 |
+
# Remplacer l'entrée existante si le FIELD_DEPLOY_ID correspond (mise à jour ou nouvel ajout)
|
| 338 |
+
deploy_id = new_repo_data.get('FIELD_DEPLOY_ID')
|
| 339 |
+
repos = [repo for repo in repos if repo.get('FIELD_DEPLOY_ID') != deploy_id]
|
| 340 |
+
|
| 341 |
+
repos.append(new_repo_data)
|
| 342 |
+
current_metadata["repos"] = repos
|
| 343 |
+
|
| 344 |
+
# 3. Écrire et téléverser le fichier mis à jour
|
| 345 |
+
try:
|
| 346 |
+
updated_content = json.dumps(current_metadata, indent=4).encode('utf-8')
|
| 347 |
+
updated_file = BytesIO(updated_content)
|
| 348 |
+
|
| 349 |
+
api.upload_file(
|
| 350 |
+
path_or_fileobj=updated_file,
|
| 351 |
+
path_in_repo=metadata_path,
|
| 352 |
+
repo_id=repo_id,
|
| 353 |
+
repo_type="dataset",
|
| 354 |
+
commit_message=f"Mise à jour des métadonnées: Ajout/Modification du dépôt {deploy_id} par l'utilisateur {user_id}"
|
| 355 |
+
)
|
| 356 |
+
|
| 357 |
+
logger.info(f"Métadonnées HF mises à jour pour l'utilisateur {user_id}. Dépôt {deploy_id} ajouté.")
|
| 358 |
+
return True, "Métadonnées du dépôt mises à jour avec succès sur Hugging Face."
|
| 359 |
+
|
| 360 |
+
except Exception as e:
|
| 361 |
+
logger.error(f"Erreur lors de la mise à jour des métadonnées HF pour {user_id}: {e}")
|
| 362 |
+
return False, f"Échec de la mise à jour des métadonnées Hugging Face: {str(e)}"
|
| 363 |
+
|
| 364 |
+
|
| 365 |
+
|
| 366 |
+
def create_empty_repo_folder_on_hf(
|
| 367 |
+
repo_slug: str,
|
| 368 |
+
user_id: str,
|
| 369 |
+
repo_id: Optional[str] = None
|
| 370 |
+
) -> tuple[bool, str]:
|
| 371 |
+
"""
|
| 372 |
+
Crée le sous-dossier du dépôt (user_id/repo_slug/) sur le Dataset Hugging Face
|
| 373 |
+
en y ajoutant un fichier README.md initial.
|
| 374 |
+
"""
|
| 375 |
+
repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
|
| 376 |
+
if not repo_id:
|
| 377 |
+
return False, "Erreur de configuration: Repository Hugging Face non défini."
|
| 378 |
+
|
| 379 |
+
readme_content = f"# Dépôt {repo_slug}\n\nBienvenue sur votre dépôt GitForge, hébergé sur Mailix.\n\nCommencez par ajouter ou créer des fichiers."
|
| 380 |
+
path_in_repo = f"{user_id}/{repo_slug}/README.md"
|
| 381 |
+
|
| 382 |
+
try:
|
| 383 |
+
# Utilisation de HfApi.upload_file pour créer un fichier unique, ce qui crée le dossier
|
| 384 |
+
commit_url = api.upload_file(
|
| 385 |
+
path_or_fileobj=readme_content.encode('utf-8'),
|
| 386 |
+
path_in_repo=path_in_repo,
|
| 387 |
+
repo_id=repo_id,
|
| 388 |
+
repo_type="dataset",
|
| 389 |
+
commit_message=f"feat: Initialisation du dépôt '{repo_slug}' pour l'utilisateur {user_id}"
|
| 390 |
+
)
|
| 391 |
+
|
| 392 |
+
logger.info(f"Dépôt initialisé avec succès pour {user_id}/{repo_slug}. Commit: {commit_url}")
|
| 393 |
+
return True, f"Dépôt initialisé avec succès sur Hugging Face. Chemin: {user_id}/{repo_slug}"
|
| 394 |
+
|
| 395 |
+
except Exception as e:
|
| 396 |
+
logger.error(f"Échec de l'initialisation du dépôt HF pour {repo_slug} par {user_id}: {e}")
|
| 397 |
+
return False, f"Échec de l'initialisation Hugging Face: {str(e)}"
|
| 398 |
+
|
| 399 |
+
|
| 400 |
+
def list_repo_files_from_hf(
|
| 401 |
+
repo_slug: str,
|
| 402 |
+
user_id: str,
|
| 403 |
+
repo_id: Optional[str] = None
|
| 404 |
+
) -> tuple[list[Dict], str]:
|
| 405 |
+
"""
|
| 406 |
+
Liste tous les fichiers et dossiers dans le chemin spécifique (user_id/repo_slug)
|
| 407 |
+
du Dataset Hugging Face, incluant le temps écoulé (time_ago).
|
| 408 |
+
"""
|
| 409 |
+
repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
|
| 410 |
+
if not repo_id:
|
| 411 |
+
return [], "Erreur de configuration: Repository Hugging Face non défini."
|
| 412 |
+
|
| 413 |
+
# Le chemin dans le repo est 'user_id/repo_slug'
|
| 414 |
+
path_to_repo = f"{user_id}/{repo_slug}"
|
| 415 |
+
|
| 416 |
+
try:
|
| 417 |
+
# Utiliser HfFileSystem pour lister le contenu du dossier
|
| 418 |
+
# 'detail=True' est essentiel pour obtenir 'last_modified'
|
| 419 |
+
items = fs.ls(f"datasets/{repo_id}/{path_to_repo}", detail=True)
|
| 420 |
+
|
| 421 |
+
file_list = []
|
| 422 |
+
for item in items:
|
| 423 |
+
# item est un dictionnaire avec 'name', 'type', 'size', 'last_modified', etc.
|
| 424 |
+
# On ignore le nom du dossier racine pour l'affichage utilisateur
|
| 425 |
+
file_name = item['name'].split('/')[-1]
|
| 426 |
+
|
| 427 |
+
# Ignorer les dossiers et les fichiers système cachés (.DS_Store, .gitattributes, etc.)
|
| 428 |
+
if item['type'] == 'directory' or file_name.startswith('.'):
|
| 429 |
+
# Inclure les dossiers pourrait être une future amélioration
|
| 430 |
+
continue
|
| 431 |
+
|
| 432 |
+
last_modified_datetime = item.get('last_modified', 'N/A')
|
| 433 |
+
|
| 434 |
+
# --- AJOUT DE LA LOGIQUE DE TEMPS ÉCOULÉ ---
|
| 435 |
+
time_ago_string = 'N/A'
|
| 436 |
+
if last_modified_datetime != 'N/A':
|
| 437 |
+
# S'assurer que la chaîne est une date/heure valide avant de la traiter
|
| 438 |
+
try:
|
| 439 |
+
time_ago_string = _format_time_ago(last_modified_datetime)
|
| 440 |
+
except Exception:
|
| 441 |
+
logger.warning(f"Impossible de formater la date/heure: {last_modified_datetime}")
|
| 442 |
+
time_ago_string = 'N/A'
|
| 443 |
+
# --------------------------------------------
|
| 444 |
+
|
| 445 |
+
file_list.append({
|
| 446 |
+
"name": file_name,
|
| 447 |
+
"path": item['name'], # Chemin complet pour référence interne
|
| 448 |
+
"size": item.get('size', 0),
|
| 449 |
+
"type": "file", # Liste seulement les fichiers
|
| 450 |
+
"last_modified": last_modified_datetime, # Conserver la date/heure complète
|
| 451 |
+
"time_ago": time_ago_string # <-- NOUVEAU CHAMP
|
| 452 |
+
})
|
| 453 |
+
|
| 454 |
+
logger.info(f"Liste des fichiers récupérée pour {path_to_repo} ({len(file_list)} fichiers).")
|
| 455 |
+
return file_list, "Liste des fichiers récupérée avec succès."
|
| 456 |
+
|
| 457 |
+
except HfHubHTTPError as e:
|
| 458 |
+
if "404" in str(e):
|
| 459 |
+
# Le dossier n'existe pas encore
|
| 460 |
+
return [], f"Le dépôt '{repo_slug}' n'a pas encore de fichiers sur Hugging Face (404)."
|
| 461 |
+
logger.error(f"Erreur HTTP HF lors de la liste des fichiers pour {path_to_repo}: {e}")
|
| 462 |
+
return [], f"Erreur Hugging Face: {str(e)}"
|
| 463 |
+
except Exception as e:
|
| 464 |
+
logger.error(f"Erreur inconnue lors de la liste des fichiers HF pour {path_to_repo}: {e}")
|
| 465 |
+
return [], f"Erreur inconnue lors de l'accès à Hugging Face: {str(e)}"
|
| 466 |
+
|
| 467 |
+
# Nom du fichier de métadonnées de l'utilisateur dans son dossier principal
|
| 468 |
+
METADATA_FILE_NAME = "user_repo_metadata.json"
|
| 469 |
+
|
| 470 |
+
|
| 471 |
+
def get_file_content_from_hf(
|
| 472 |
+
file_path_in_repo: str,
|
| 473 |
+
repo_id: Optional[str] = None
|
| 474 |
+
) -> tuple[Optional[str], str]:
|
| 475 |
+
"""
|
| 476 |
+
Récupère le contenu brut d'un fichier spécifique depuis Hugging Face.
|
| 477 |
+
|
| 478 |
+
:param file_path_in_repo: Le chemin complet du fichier dans le repo HF,
|
| 479 |
+
incluant user_id/repo_slug/nom_fichier.ext.
|
| 480 |
+
:param repo_id: L'ID du repo HF (Dataset).
|
| 481 |
+
:return: (Contenu du fichier: Optional[str], Message: str)
|
| 482 |
+
"""
|
| 483 |
+
repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
|
| 484 |
+
if not repo_id:
|
| 485 |
+
return None, "Erreur de configuration: Repository Hugging Face non défini."
|
| 486 |
+
|
| 487 |
+
hf_file_path = f"datasets/{repo_id}/{file_path_in_repo}"
|
| 488 |
+
|
| 489 |
+
try:
|
| 490 |
+
if not fs.exists(hf_file_path):
|
| 491 |
+
return None, f"Fichier non trouvé sur Hugging Face: {file_path_in_repo}"
|
| 492 |
+
|
| 493 |
+
# Utiliser fs.open pour lire le contenu
|
| 494 |
+
with fs.open(hf_file_path, "rb") as f:
|
| 495 |
+
content = f.read()
|
| 496 |
+
|
| 497 |
+
# Tenter le décodage en UTF-8 pour le contenu texte (ex: README.md)
|
| 498 |
+
return content.decode('utf-8'), "Contenu du fichier chargé avec succès."
|
| 499 |
+
|
| 500 |
+
except HfHubHTTPError as e:
|
| 501 |
+
if "404" in str(e):
|
| 502 |
+
return None, f"Fichier non trouvé sur Hugging Face (404): {file_path_in_repo}"
|
| 503 |
+
logger.error(f"Erreur HTTP HF lors de la lecture de {file_path_in_repo}: {e}")
|
| 504 |
+
return None, f"Erreur Hugging Face: {str(e)}"
|
| 505 |
+
except Exception as e:
|
| 506 |
+
logger.error(f"Erreur inconnue lors de la lecture de {file_path_in_repo}: {e}")
|
| 507 |
+
return None, f"Échec de la lecture du fichier: {str(e)}"
|
| 508 |
+
|
| 509 |
+
|
| 510 |
+
def load_json_file_from_hf(
|
| 511 |
+
file_path: str,
|
| 512 |
+
repo_id: Optional[str] = None
|
| 513 |
+
) -> tuple[Optional[Dict], str]:
|
| 514 |
+
"""
|
| 515 |
+
Charge un fichier JSON spécifique depuis Hugging Face et le décode.
|
| 516 |
+
Utilisé pour charger le fichier prs.json.
|
| 517 |
+
"""
|
| 518 |
+
# Si repo_id n'est pas fourni, on assume le repo principal si le chemin le permet,
|
| 519 |
+
# mais il sera plus sûr de le passer explicitement (PULL_REQUESTS_HF_REPO_ID)
|
| 520 |
+
if not repo_id:
|
| 521 |
+
# Dans le contexte des PR, on devrait avoir un repo_id dédié
|
| 522 |
+
return None, "Erreur de configuration: Repository Hugging Face non défini."
|
| 523 |
+
|
| 524 |
+
hf_file_path = f"datasets/{repo_id}/{file_path}"
|
| 525 |
+
|
| 526 |
+
try:
|
| 527 |
+
if not fs.exists(hf_file_path):
|
| 528 |
+
# C'est un cas normal pour un dépôt sans PR encore créé
|
| 529 |
+
return None, f"Fichier JSON non trouvé (normal si première PR): {file_path}"
|
| 530 |
+
|
| 531 |
+
with fs.open(hf_file_path, "rb") as f:
|
| 532 |
+
content = f.read()
|
| 533 |
+
|
| 534 |
+
metadata = json.loads(content.decode('utf-8'))
|
| 535 |
+
return metadata, "Fichier JSON chargé avec succès."
|
| 536 |
+
|
| 537 |
+
except Exception as e:
|
| 538 |
+
logger.error(f"Erreur lors du chargement du JSON HF depuis {hf_file_path}: {e}")
|
| 539 |
+
return None, f"Échec du chargement du JSON: {str(e)}"
|
| 540 |
+
|
| 541 |
+
# Renommage et adaptation de la fonction pour la rendre générique
|
| 542 |
+
def save_file_content_to_hf(
|
| 543 |
+
user_id: str,
|
| 544 |
+
repo_slug: str,
|
| 545 |
+
file_path: str,
|
| 546 |
+
file_content: str, # Le contenu du fichier, peu importe le type (string)
|
| 547 |
+
commit_message: str,
|
| 548 |
+
# repo_id est l'ID du dépôt conteneur global (ex: 'Mindus/Nexus-Data')
|
| 549 |
+
repo_id: Optional[str] = None,
|
| 550 |
+
repo_type: str = "dataset",
|
| 551 |
+
branch: str = "main" # <-- Argument conservé dans la signature de la fonction
|
| 552 |
+
) -> tuple[bool, str]:
|
| 553 |
+
"""
|
| 554 |
+
Crée un nouveau fichier ou met à jour un fichier existant dans un dépôt
|
| 555 |
+
spécifié (user_id/repo_slug) avec le contenu string fourni.
|
| 556 |
+
"""
|
| 557 |
+
|
| 558 |
+
if not repo_id:
|
| 559 |
+
# Ceci suppose que HF_DATASET_REPO_ID est défini dans votre configuration globale
|
| 560 |
+
try:
|
| 561 |
+
from config import HF_DATASET_REPO_ID
|
| 562 |
+
repo_id = HF_DATASET_REPO_ID
|
| 563 |
+
except ImportError:
|
| 564 |
+
return False, "Erreur de configuration: Repository Hugging Face non défini."
|
| 565 |
+
|
| 566 |
+
# Construction du chemin complet cible: {user_id}/{repo_slug}/{file_path}
|
| 567 |
+
path_in_repo = f"{user_id}/{repo_slug}/{file_path}"
|
| 568 |
+
|
| 569 |
+
try:
|
| 570 |
+
# 1. Convertir le contenu string en objet BytesIO pour l'API
|
| 571 |
+
updated_content = file_content.encode('utf-8')
|
| 572 |
+
updated_file = BytesIO(updated_content)
|
| 573 |
+
|
| 574 |
+
# 2. Appel de l'API pour commiter le fichier
|
| 575 |
+
# CORRECTION : Le paramètre 'branch' est retiré de l'appel pour compatibilité avec
|
| 576 |
+
# les anciennes versions de la librairie huggingface_hub qui n'ont pas cet argument.
|
| 577 |
+
api.upload_file(
|
| 578 |
+
path_or_fileobj=updated_file,
|
| 579 |
+
path_in_repo=path_in_repo,
|
| 580 |
+
repo_id=repo_id,
|
| 581 |
+
repo_type=repo_type,
|
| 582 |
+
commit_message=commit_message,
|
| 583 |
+
# branch=branch, <-- RETIRÉ
|
| 584 |
+
)
|
| 585 |
+
|
| 586 |
+
logging.info(f"Fichier '{path_in_repo}' commité avec succès sur HF.")
|
| 587 |
+
return True, f"Fichier '{file_path}' sauvegardé avec succès dans le dépôt '{repo_slug}'."
|
| 588 |
+
|
| 589 |
+
except HfHubHTTPError as e:
|
| 590 |
+
logging.error(f"Erreur de l'API HF lors de la sauvegarde de {path_in_repo}: {e}")
|
| 591 |
+
return False, f"Erreur de l'API Hugging Face: {str(e)}"
|
| 592 |
+
except Exception as e:
|
| 593 |
+
logging.error(f"Erreur inattendue lors de la sauvegarde de {path_in_repo}: {e}")
|
| 594 |
+
return False, f"Échec de la sauvegarde: {str(e)}"
|
| 595 |
+
|
| 596 |
+
|
| 597 |
+
def get_diff_between_branches(
|
| 598 |
+
repo_slug: str,
|
| 599 |
+
user_id: str,
|
| 600 |
+
branch_a: str, # Source
|
| 601 |
+
branch_b: str, # Target
|
| 602 |
+
repo_id: Optional[str] = None
|
| 603 |
+
) -> tuple[Optional[Dict], str]:
|
| 604 |
+
"""
|
| 605 |
+
(Placeholder) Calcule le 'diff' entre deux branches d'un dépôt utilisateur.
|
| 606 |
+
Nécessite une fonctionnalité avancée de l'API Hugging Face ou un clonage/diff local.
|
| 607 |
+
"""
|
| 608 |
+
# L'API HfHub ne fournit pas de 'diff' simple entre branches.
|
| 609 |
+
# Ceci est un DÉMONSTRATEUR de la signature requise.
|
| 610 |
+
|
| 611 |
+
# Le chemin dans le repo est 'user_id/repo_slug'
|
| 612 |
+
target_repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
|
| 613 |
+
|
| 614 |
+
# TODO: Implémentation réelle pour calculer/récupérer le diff
|
| 615 |
+
# Pour l'instant, on retourne un placeholder.
|
| 616 |
+
return None, f"Fonction de diff non implémentée (simulation requise pour {branch_a} vs {branch_b})."
|
| 617 |
+
|
| 618 |
+
|
| 619 |
+
def check_for_conflicts(
|
| 620 |
+
repo_slug: str,
|
| 621 |
+
user_id: str,
|
| 622 |
+
source_branch: str,
|
| 623 |
+
target_branch: str,
|
| 624 |
+
repo_id: Optional[str] = None
|
| 625 |
+
) -> tuple[bool, List[str], str]:
|
| 626 |
+
"""
|
| 627 |
+
(Placeholder) Simule une fusion pour vérifier les conflits.
|
| 628 |
+
"""
|
| 629 |
+
# Mêmes contraintes que get_diff_between_branches.
|
| 630 |
+
# Ceci est un DÉMONSTRATEUR de la signature requise.
|
| 631 |
+
|
| 632 |
+
return True, [], "Vérification de conflit non implémentée. Supposons 'pas de conflit' pour l'ébauche."
|
| 633 |
+
|
| 634 |
+
|
| 635 |
+
def execute_merge_commit(
|
| 636 |
+
repo_slug: str,
|
| 637 |
+
user_id: str,
|
| 638 |
+
source_branch: str,
|
| 639 |
+
target_branch: str,
|
| 640 |
+
message: str,
|
| 641 |
+
committer_id: str,
|
| 642 |
+
repo_id: Optional[str] = None
|
| 643 |
+
) -> tuple[bool, str]:
|
| 644 |
+
"""
|
| 645 |
+
Exécute la fusion de la branche source vers la branche cible en utilisant l'API Hugging Face.
|
| 646 |
+
|
| 647 |
+
:param repo_slug: Le slug du dépôt de l'utilisateur.
|
| 648 |
+
:param user_id: L'ID de l'utilisateur propriétaire.
|
| 649 |
+
:param source_branch: La branche source à fusionner (ex: feature/branch).
|
| 650 |
+
:param target_branch: La branche cible (ex: main).
|
| 651 |
+
:param message: Le message de commit pour la fusion.
|
| 652 |
+
:param committer_id: L'ID de l'utilisateur qui exécute la fusion.
|
| 653 |
+
:param repo_id: L'ID du dépôt HF (Dataset) si différent du principal.
|
| 654 |
+
:return: (Statut de succès: bool, Message: str)
|
| 655 |
+
"""
|
| 656 |
+
repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
|
| 657 |
+
if not repo_id:
|
| 658 |
+
return False, "Erreur de configuration: HF_DATASET_REPO_ID manquant."
|
| 659 |
+
|
| 660 |
+
# L'ID complet du dépôt est toujours 'user_id/repo_slug' dans notre structure logique
|
| 661 |
+
target_repo_path = f"{user_id}/{repo_slug}"
|
| 662 |
+
|
| 663 |
+
try:
|
| 664 |
+
|
| 665 |
+
|
| 666 |
+
logger.warning(f"Simulating Git Merge for {target_repo_path}: {source_branch} -> {target_branch}. Requires actual Git implementation or dedicated API endpoint.")
|
| 667 |
+
|
| 668 |
+
|
| 669 |
+
merge_success_msg = f"Fusion Git simulée entre {source_branch} et {target_branch} pour {target_repo_path}."
|
| 670 |
+
|
| 671 |
+
# 2. Nettoyage : Suppression de la branche source (comportement typique après PR merge)
|
| 672 |
+
# Note: Cette étape est optionnelle pour le merge mais typique pour le nettoyage d'une PR.
|
| 673 |
+
api.delete_branch(
|
| 674 |
+
repo_id=target_repo_path,
|
| 675 |
+
repo_type="dataset",
|
| 676 |
+
branch=source_branch
|
| 677 |
+
)
|
| 678 |
+
logger.info(f"Branche source '{source_branch}' supprimée pour le dépôt {target_repo_path}.")
|
| 679 |
+
|
| 680 |
+
return True, f"Fusion simulée et nettoyage réussi. {merge_success_msg}"
|
| 681 |
+
|
| 682 |
+
except HfHubHTTPError as e:
|
| 683 |
+
if "404" in str(e):
|
| 684 |
+
return False, f"Erreur 404: Dépôt ou branche non trouvée sur Hugging Face. {e}"
|
| 685 |
+
# Gérer spécifiquement les conflits si l'API renvoie une erreur pertinente
|
| 686 |
+
elif "conflict" in str(e).lower():
|
| 687 |
+
return False, f"Échec de la fusion : Conflit détecté par le service Hugging Face. {e}"
|
| 688 |
+
return False, f"Erreur API Hugging Face lors de la fusion : {e}"
|
| 689 |
+
except Exception as e:
|
| 690 |
+
logger.error(f"Erreur inattendue lors de l'exécution du merge pour {target_repo_path}: {e}")
|
| 691 |
+
return False, f"Erreur inattendue lors de la fusion : {str(e)}"
|
| 692 |
+
|
| 693 |
+
def commit_file_to_hf(
|
| 694 |
+
repo_slug: str,
|
| 695 |
+
user_id: str,
|
| 696 |
+
file_path: str, # Le chemin du fichier dans le repo de l'utilisateur (ex: 'index.html', 'css/style.css')
|
| 697 |
+
file_content: str,
|
| 698 |
+
commit_message: str,
|
| 699 |
+
repo_type: str = "dataset",
|
| 700 |
+
branch: str = "main" # On simplifie en commitant directement sur main pour l'instant
|
| 701 |
+
) -> tuple[bool, str]:
|
| 702 |
+
"""
|
| 703 |
+
Crée ou met à jour un fichier dans un dépôt Hugging Face avec un message de commit.
|
| 704 |
+
|
| 705 |
+
:param repo_slug: Le nom du dépôt (ex: 'mailix').
|
| 706 |
+
:param user_id: L'ID de l'utilisateur (pour le chemin principal dans le dataset).
|
| 707 |
+
:param file_path: Le chemin relatif du fichier dans le dépôt.
|
| 708 |
+
:param file_content: Le contenu (string) du fichier à enregistrer.
|
| 709 |
+
:param commit_message: Le message de commit.
|
| 710 |
+
:param repo_type: Le type de dépôt (par défaut 'dataset' pour la structure actuelle).
|
| 711 |
+
:param branch: La branche cible (par défaut 'main').
|
| 712 |
+
:return: Un tuple (succès: bool, message: str).
|
| 713 |
+
"""
|
| 714 |
+
# Chemin complet du fichier dans le HF Dataset : user_id/repo_slug/file_path
|
| 715 |
+
hf_path = f"{user_id}/{repo_slug}/{file_path}"
|
| 716 |
+
|
| 717 |
+
try:
|
| 718 |
+
# L'API Hub de HF utilise `upload_file` (ou `upload_folder`) pour
|
| 719 |
+
# créer ou remplacer un fichier existant. Nous utilisons BytesIO
|
| 720 |
+
# pour traiter le contenu comme un fichier sans l'écrire sur disque local.
|
| 721 |
+
file_data = BytesIO(file_content.encode('utf-8'))
|
| 722 |
+
|
| 723 |
+
# Le nom du fichier est requis pour HfApi.upload_file.
|
| 724 |
+
# Ici, nous utilisons le nom de la variable `file_path` qui est déjà
|
| 725 |
+
# le chemin complet dans le repo HF pour la fonction
|
| 726 |
+
|
| 727 |
+
api.upload_file(
|
| 728 |
+
path_or_fileobj=file_data, # <-- C'EST LA CORRECTION
|
| 729 |
+
path_in_repo=hf_path, # Chemin complet cible dans le repo HF Dataset
|
| 730 |
+
repo_id=HF_DATASET_REPO_ID, # ID du dataset global qui contient tous les utilisateurs/repos
|
| 731 |
+
repo_type=repo_type,
|
| 732 |
+
commit_message=commit_message,
|
| 733 |
+
branch=branch,
|
| 734 |
+
)
|
| 735 |
+
|
| 736 |
+
logger.info(f"Fichier '{hf_path}' commité avec succès sur HF.")
|
| 737 |
+
return True, f"File '{file_path}' successfully committed."
|
| 738 |
+
|
| 739 |
+
except HfHubHTTPError as e:
|
| 740 |
+
logger.error(f"HF API Error during commit for {hf_path}: {e}")
|
| 741 |
+
return False, f"Hugging Face API Error: Failed to commit file. {e}"
|
| 742 |
+
except Exception as e:
|
| 743 |
+
logger.error(f"Unexpected Error during commit for {hf_path}: {e}")
|
| 744 |
+
return False, f"Unexpected Error: {e}"
|
| 745 |
+
|
| 746 |
+
def delete_file_from_hf_repo(
|
| 747 |
+
repo_slug: str,
|
| 748 |
+
user_id: str,
|
| 749 |
+
file_path: str, # Le chemin relatif du fichier dans le dépôt
|
| 750 |
+
commit_message: str,
|
| 751 |
+
repo_type: str = "dataset",
|
| 752 |
+
branch: str = "main"
|
| 753 |
+
) -> tuple[bool, str]:
|
| 754 |
+
"""
|
| 755 |
+
Supprime un fichier spécifique d'un dépôt Hugging Face.
|
| 756 |
+
|
| 757 |
+
:param repo_slug: Le slug du dépôt.
|
| 758 |
+
:param user_id: L'ID de l'utilisateur.
|
| 759 |
+
:param file_path: Le chemin relatif complet du fichier à supprimer (ex: user_id/repo_slug/fichier.ext).
|
| 760 |
+
:param commit_message: Le message de commit pour la suppression.
|
| 761 |
+
:return: Un tuple (succès: bool, message: str).
|
| 762 |
+
"""
|
| 763 |
+
repo_id = HF_DATASET_REPO_ID # S'assurer que la variable globale est accessible
|
| 764 |
+
|
| 765 |
+
if not repo_id:
|
| 766 |
+
# Utiliser `logger.error` ici est une bonne pratique
|
| 767 |
+
logger.error("Erreur de configuration: Repository Hugging Face non défini (HF_DATASET_REPO_ID manquant).")
|
| 768 |
+
return False, "Erreur de configuration: Repository Hugging Face non défini."
|
| 769 |
+
|
| 770 |
+
# --- CORRECTION APPLIQUÉE ---
|
| 771 |
+
# Le chemin 'file_path' (qui provient de votre fonction de listage)
|
| 772 |
+
# est utilisé directement car il contient déjà le préfixe complet nécessaire
|
| 773 |
+
# (par exemple : 'a6ea61c8-951a-413a-ba9d-7365d83fbd4d/github/app.py')
|
| 774 |
+
hf_path = file_path # <-- MODIFICATION CLÉ
|
| 775 |
+
# Si le frontend n'envoyait que 'app.py' ou le chemin relatif AU SEIN du repo,
|
| 776 |
+
# L'ancienne ligne (f"{user_id}/{repo_slug}/{file_path}") aurait été correcte.
|
| 777 |
+
# Mais dans votre cas, 'file_path' est déjà le chemin complet.
|
| 778 |
+
|
| 779 |
+
try:
|
| 780 |
+
# L'API HfHub utilise 'delete_file' pour supprimer un fichier.
|
| 781 |
+
api.delete_file(
|
| 782 |
+
path_in_repo=hf_path, # Chemin complet du fichier cible
|
| 783 |
+
repo_id=repo_id, # ID du dataset global (ernestmindres/ernestmind_user_data)
|
| 784 |
+
repo_type=repo_type,
|
| 785 |
+
commit_message=commit_message,
|
| 786 |
+
# branch=branch, # Peut être laissé pour plus de robustesse si la branche n'est pas 'main'
|
| 787 |
+
)
|
| 788 |
+
|
| 789 |
+
logger.info(f"Fichier '{hf_path}' supprimé avec succès sur HF.")
|
| 790 |
+
return True, f"File '{file_path}' successfully deleted from repository '{repo_slug}'."
|
| 791 |
+
|
| 792 |
+
except HfHubHTTPError as e:
|
| 793 |
+
# Gérer le cas où le fichier n'existe pas (404) ou autre erreur d'API
|
| 794 |
+
logger.error(f"HF API Error during file deletion for {hf_path}: {e}")
|
| 795 |
+
# Renvoyer l'erreur spécifique de Hugging Face au client
|
| 796 |
+
return False, f"Hugging Face API Error: Failed to delete file. {e}"
|
| 797 |
+
except Exception as e:
|
| 798 |
+
logger.error(f"Unexpected Error during file deletion for {hf_path}: {e}")
|
| 799 |
+
return False, f"Unexpected Error: {e}"
|
| 800 |
+
|
| 801 |
+
|
| 802 |
+
def save_application_json_to_hf(application_data: Dict, application_id: str, commit_message: Optional[str] = None) -> (bool, str):
|
| 803 |
+
"""
|
| 804 |
+
Sauvegarde les données d'application JSON dans le dépôt HF (IMAGE_STORAGE_HF_REPO_ID).
|
| 805 |
+
Structure du chemin : json_applications/{application_id}.json
|
| 806 |
+
"""
|
| 807 |
+
if not IMAGE_STORAGE_HF_REPO_ID:
|
| 808 |
+
return False, "IMAGE_STORAGE_HF_REPO_ID n'est pas configuré. Veuillez vérifier config.py et les variables d'environnement."
|
| 809 |
+
|
| 810 |
+
repo_id = IMAGE_STORAGE_HF_REPO_ID
|
| 811 |
+
# Chemin complet dans le dépôt
|
| 812 |
+
hf_path = f"json_applications/{application_id}.json"
|
| 813 |
+
|
| 814 |
+
# Convertir les données en JSON string
|
| 815 |
+
# ensure_ascii=False permet de gérer correctement les caractères français (accents)
|
| 816 |
+
json_content = json.dumps(application_data, indent=4, ensure_ascii=False)
|
| 817 |
+
|
| 818 |
+
commit_message = commit_message or f"Ajout des données de candidature: {application_id}"
|
| 819 |
+
|
| 820 |
+
try:
|
| 821 |
+
# Utiliser 'upload_file' avec 'data' (contenu bytes ou string)
|
| 822 |
+
api.upload_file(
|
| 823 |
+
path_in_repo=hf_path,
|
| 824 |
+
path_or_fileobj=json_content.encode('utf-8'), # L'encodage est crucial pour les données
|
| 825 |
+
repo_id=repo_id,
|
| 826 |
+
repo_type="dataset",
|
| 827 |
+
commit_message=commit_message,
|
| 828 |
+
)
|
| 829 |
+
|
| 830 |
+
logger.info(f"Fichier JSON '{hf_path}' sauvegardé avec succès sur HF dans {repo_id}.")
|
| 831 |
+
return True, f"Données d'application '{application_id}' sauvegardées avec succès."
|
| 832 |
+
|
| 833 |
+
except HfHubHTTPError as e:
|
| 834 |
+
logger.error(f"Erreur API HF lors de la sauvegarde du JSON: {e}")
|
| 835 |
+
return False, f"Erreur lors de la sauvegarde du JSON: {str(e)}"
|
| 836 |
+
except Exception as e:
|
| 837 |
+
logger.error(f"Erreur inattendue lors de la sauvegarde du JSON: {e}")
|
| 838 |
+
return False, f"Erreur inattendue: {str(e)}"
|
| 839 |
+
|
| 840 |
+
|
| 841 |
+
def upload_application_document_to_hf(file_storage_obj: FileStorage, application_id: str, file_extension: str, commit_message: Optional[str] = None) -> (bool, str):
|
| 842 |
+
"""
|
| 843 |
+
Téléverse un fichier PDF/DOCX dans le dépôt HF dédié au stockage (IMAGE_STORAGE_HF_REPO_ID).
|
| 844 |
+
Structure du chemin : document_applications/{application_id}{file_extension}
|
| 845 |
+
"""
|
| 846 |
+
if not IMAGE_STORAGE_HF_REPO_ID:
|
| 847 |
+
return False, "IMAGE_STORAGE_HF_REPO_ID n'est pas configuré. Veuillez vérifier config.py et les variables d'environnement."
|
| 848 |
+
|
| 849 |
+
repo_id = IMAGE_STORAGE_HF_REPO_ID
|
| 850 |
+
# Chemin complet dans le dépôt
|
| 851 |
+
hf_path = f"document_applications/{application_id}{file_extension}"
|
| 852 |
+
|
| 853 |
+
commit_message = commit_message or f"Téléversement du document de candidature: {application_id}{file_extension}"
|
| 854 |
+
temp_file_path = None # Initialisation pour le nettoyage
|
| 855 |
+
|
| 856 |
+
try:
|
| 857 |
+
# 1. Créer un chemin temporaire pour le fichier
|
| 858 |
+
# TEMP_UPLOAD_DIR est supposé être défini (ex: "/tmp/hf_uploads")
|
| 859 |
+
os.makedirs(TEMP_UPLOAD_DIR, exist_ok=True)
|
| 860 |
+
# Utilisation d'un UUID pour s'assurer que le nom du fichier temporaire est unique
|
| 861 |
+
temp_file_path = os.path.join(TEMP_UPLOAD_DIR, f"temp_{application_id}_{uuid.uuid4()}{file_extension}")
|
| 862 |
+
|
| 863 |
+
# 2. Sauvegarder l'objet FileStorage sur le disque
|
| 864 |
+
file_storage_obj.save(temp_file_path)
|
| 865 |
+
|
| 866 |
+
# 3. Téléverser le fichier depuis le chemin temporaire
|
| 867 |
+
api.upload_file(
|
| 868 |
+
path_in_repo=hf_path,
|
| 869 |
+
path_or_fileobj=temp_file_path,
|
| 870 |
+
repo_id=repo_id,
|
| 871 |
+
repo_type="dataset",
|
| 872 |
+
commit_message=commit_message,
|
| 873 |
+
)
|
| 874 |
+
|
| 875 |
+
# 4. Nettoyer le fichier temporaire
|
| 876 |
+
if os.path.exists(temp_file_path):
|
| 877 |
+
os.remove(temp_file_path)
|
| 878 |
+
|
| 879 |
+
logger.info(f"Fichier '{hf_path}' téléversé avec succès sur HF dans {repo_id}.")
|
| 880 |
+
return True, f"Document d'application '{file_storage_obj.filename}' téléversé avec succès."
|
| 881 |
+
|
| 882 |
+
except HfHubHTTPError as e:
|
| 883 |
+
logger.error(f"Erreur API HF lors du téléversement du document: {e}")
|
| 884 |
+
return False, f"Erreur lors du téléversement du document: {str(e)}"
|
| 885 |
+
except Exception as e:
|
| 886 |
+
logger.error(f"Erreur inattendue lors du téléversement du document: {e}")
|
| 887 |
+
return False, f"Erreur inattendue: {str(e)}"
|
| 888 |
+
finally:
|
| 889 |
+
# Nettoyage final en cas d'erreur ou de succès
|
| 890 |
+
if temp_file_path and os.path.exists(temp_file_path):
|
| 891 |
+
os.remove(temp_file_path)
|
| 892 |
+
|
| 893 |
+
|
| 894 |
+
def delete_repo_folder_from_hf(
|
| 895 |
+
repo_slug: str,
|
| 896 |
+
user_id: str,
|
| 897 |
+
deploy_id: str, # L'identifiant unique utilisé dans metadata.json
|
| 898 |
+
commit_message: Optional[str] = None,
|
| 899 |
+
repo_id: Optional[str] = None
|
| 900 |
+
) -> tuple[bool, str]:
|
| 901 |
+
"""
|
| 902 |
+
Supprime récursivement un dossier de dépôt complet (user_id/repo_slug) sur Hugging Face
|
| 903 |
+
et met à jour le fichier metadata.json de l'utilisateur.
|
| 904 |
+
|
| 905 |
+
:param repo_slug: Le slug du dépôt à supprimer.
|
| 906 |
+
:param user_id: L'ID de l'utilisateur propriétaire.
|
| 907 |
+
:param deploy_id: L'ID utilisé pour identifier le dépôt dans les métadonnées.
|
| 908 |
+
:return: (Statut de succès: bool, Message: str)
|
| 909 |
+
"""
|
| 910 |
+
repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
|
| 911 |
+
if not repo_id:
|
| 912 |
+
return False, "Erreur de configuration: HF_DATASET_REPO_ID manquant."
|
| 913 |
+
|
| 914 |
+
path_in_repo = f"{user_id}/{repo_slug}"
|
| 915 |
+
commit_msg = commit_message or f"Suppression du dépôt complet '{repo_slug}' et du dossier '{path_in_repo}'"
|
| 916 |
+
|
| 917 |
+
try:
|
| 918 |
+
# 1. Suppression du dossier sur Hugging Face (suppression récursive)
|
| 919 |
+
# Note: L'API HfApi ne fournit pas de 'delete_folder' direct qui commite.
|
| 920 |
+
# On peut utiliser delete_repo, mais si c'est un sous-dossier, l'approche 'git-like'
|
| 921 |
+
# consiste à utiliser 'upload_folder' avec une liste de fichiers vides ou
|
| 922 |
+
# une autre méthode de suppression de sous-dossier.
|
| 923 |
+
# La meilleure façon de supprimer un dossier *dans un dataset existant* est
|
| 924 |
+
# d'utiliser api.delete_folder (si disponible) ou d'utiliser une solution de contournement.
|
| 925 |
+
|
| 926 |
+
# En utilisant HfApi, la méthode la plus fiable est delete_folder
|
| 927 |
+
api.delete_folder(
|
| 928 |
+
path_in_repo=path_in_repo,
|
| 929 |
+
repo_id=repo_id,
|
| 930 |
+
repo_type="dataset",
|
| 931 |
+
commit_message=commit_msg,
|
| 932 |
+
)
|
| 933 |
+
|
| 934 |
+
logger.info(f"Dossier HF '{path_in_repo}' supprimé avec succès.")
|
| 935 |
+
|
| 936 |
+
# 2. Mise à jour des métadonnées de l'utilisateur
|
| 937 |
+
current_metadata, msg = get_user_repo_metadata(user_id, repo_id=repo_id)
|
| 938 |
+
if current_metadata:
|
| 939 |
+
repos = current_metadata.get("repos", [])
|
| 940 |
+
|
| 941 |
+
# Filtrer le dépôt supprimé
|
| 942 |
+
new_repos = [repo for repo in repos if repo.get('FIELD_DEPLOY_ID') != deploy_id]
|
| 943 |
+
current_metadata["repos"] = new_repos
|
| 944 |
+
|
| 945 |
+
# Commiter la mise à jour des métadonnées
|
| 946 |
+
metadata_path = _get_user_metadata_path(user_id)
|
| 947 |
+
save_success, save_msg = save_json_file_to_hf(
|
| 948 |
+
file_path=metadata_path,
|
| 949 |
+
data=current_metadata,
|
| 950 |
+
commit_message=f"Nettoyage des métadonnées après suppression de dépôt {deploy_id}.",
|
| 951 |
+
repo_id=repo_id
|
| 952 |
+
)
|
| 953 |
+
|
| 954 |
+
if not save_success:
|
| 955 |
+
logger.error(f"Échec de la mise à jour des métadonnées après suppression de {repo_slug}: {save_msg}")
|
| 956 |
+
# Le dossier est supprimé, mais les métadonnées ne le sont pas (erreur partielle)
|
| 957 |
+
return False, f"Dépôt supprimé, mais échec de la mise à jour des métadonnées: {save_msg}"
|
| 958 |
+
|
| 959 |
+
else:
|
| 960 |
+
logger.warning(f"Métadonnées utilisateur {user_id} non trouvées ou inaccessibles après suppression du dépôt. Nettoyage des métadonnées ignoré.")
|
| 961 |
+
|
| 962 |
+
return True, f"Dépôt '{repo_slug}' et ses fichiers supprimés avec succès. Métadonnées mises à jour."
|
| 963 |
+
|
| 964 |
+
except HfHubHTTPError as e:
|
| 965 |
+
if "404" in str(e):
|
| 966 |
+
logger.warning(f"Tentative de suppression d'un dépôt non existant : {path_in_repo}. Passage au nettoyage des métadonnées.")
|
| 967 |
+
# Si le dossier n'existe pas, on procède quand même au nettoyage des métadonnées
|
| 968 |
+
# 2. Mise à jour des métadonnées de l'utilisateur (logique du 404)
|
| 969 |
+
current_metadata, msg = get_user_repo_metadata(user_id, repo_id=repo_id)
|
| 970 |
+
if current_metadata:
|
| 971 |
+
repos = current_metadata.get("repos", [])
|
| 972 |
+
new_repos = [repo for repo in repos if repo.get('FIELD_DEPLOY_ID') != deploy_id]
|
| 973 |
+
current_metadata["repos"] = new_repos
|
| 974 |
+
|
| 975 |
+
metadata_path = _get_user_metadata_path(user_id)
|
| 976 |
+
save_success, save_msg = save_json_file_to_hf(
|
| 977 |
+
file_path=metadata_path,
|
| 978 |
+
data=current_metadata,
|
| 979 |
+
commit_message=f"Nettoyage des métadonnées après suppression du dépôt non trouvé {deploy_id}.",
|
| 980 |
+
repo_id=repo_id
|
| 981 |
+
)
|
| 982 |
+
if save_success:
|
| 983 |
+
return True, f"Le dépôt '{repo_slug}' n'existait pas, mais les métadonnées ont été nettoyées avec succès."
|
| 984 |
+
else:
|
| 985 |
+
return False, f"Le dépôt n'existait pas, mais échec de la mise à jour des métadonnées: {save_msg}"
|
| 986 |
+
|
| 987 |
+
return True, f"Le dépôt '{repo_slug}' n'existait pas et a été traité."
|
| 988 |
+
|
| 989 |
+
logger.error(f"Erreur API Hugging Face lors de la suppression de {path_in_repo}: {e}")
|
| 990 |
+
return False, f"Échec de la suppression Hugging Face: {str(e)}"
|
| 991 |
+
except Exception as e:
|
| 992 |
+
logger.error(f"Erreur inattendue lors de la suppression de {path_in_repo}: {e}")
|
| 993 |
+
return False, f"Erreur interne lors de la suppression du dépôt : {str(e)}"
|
| 994 |
+
|
| 995 |
+
def update_repo_secrets_or_variables(
|
| 996 |
+
user_id: str,
|
| 997 |
+
repo_slug: str,
|
| 998 |
+
item_type: str, # 'secret' ou 'variable'
|
| 999 |
+
name: str,
|
| 1000 |
+
value: str, # 'valeur'
|
| 1001 |
+
description: Optional[str] = None
|
| 1002 |
+
) -> tuple[bool, str]:
|
| 1003 |
+
"""
|
| 1004 |
+
Charge, met à jour (ajoute/remplace) un secret ou une variable, et sauvegarde le fichier JSON sur Hugging Face.
|
| 1005 |
+
"""
|
| 1006 |
+
if item_type not in ['secret', 'variable']:
|
| 1007 |
+
return False, "Type d'élément non valide. Doit être 'secret' ou 'variable'."
|
| 1008 |
+
|
| 1009 |
+
is_secret = (item_type == 'secret')
|
| 1010 |
+
|
| 1011 |
+
if is_secret:
|
| 1012 |
+
file_path = _get_repo_secrets_path(user_id, repo_slug)
|
| 1013 |
+
commit_message = f"Mise à jour du secret '{name}' pour le dépôt '{repo_slug}'."
|
| 1014 |
+
else:
|
| 1015 |
+
file_path = _get_repo_variables_path(user_id, repo_slug)
|
| 1016 |
+
commit_message = f"Mise à jour de la variable '{name}' pour le dépôt '{repo_slug}'."
|
| 1017 |
+
|
| 1018 |
+
# 2. Charger les données actuelles
|
| 1019 |
+
current_data, load_message = load_json_file_from_hf(
|
| 1020 |
+
file_path=file_path,
|
| 1021 |
+
repo_id=HF_DATASET_REPO_ID # Assumer le repo principal
|
| 1022 |
+
)
|
| 1023 |
+
|
| 1024 |
+
# --- CORRECTION pour assurer la structure {"items": []} ---
|
| 1025 |
+
if current_data is None:
|
| 1026 |
+
if "non trouvé" in load_message:
|
| 1027 |
+
current_data = {"items": []}
|
| 1028 |
+
else:
|
| 1029 |
+
return False, f"Échec du chargement des données existantes: {load_message}"
|
| 1030 |
+
|
| 1031 |
+
# Si le fichier existe mais n'est pas un dictionnaire, ou s'il manque la clé 'items'
|
| 1032 |
+
if not isinstance(current_data, dict) or "items" not in current_data or not isinstance(current_data["items"], list):
|
| 1033 |
+
# Ceci résout le problème de la perte des secrets/variables existantes.
|
| 1034 |
+
# Si le fichier est chargé mais mal formaté (par exemple une liste ou un autre dict),
|
| 1035 |
+
# on réinitialise la structure pour éviter la perte de données à la sauvegarde.
|
| 1036 |
+
logger.warning(f"Le fichier {file_path} est dans un format inattendu. Réinitialisation de la liste des items.")
|
| 1037 |
+
current_data = {"items": []}
|
| 1038 |
+
# -------------------------------------------------------------
|
| 1039 |
+
|
| 1040 |
+
# 3. Préparer le nouvel élément (Aucun changement)
|
| 1041 |
+
new_item = {
|
| 1042 |
+
"name": name,
|
| 1043 |
+
"description": description if description is not None else "",
|
| 1044 |
+
"value": value,
|
| 1045 |
+
"last_updated": datetime.utcnow().isoformat()
|
| 1046 |
+
}
|
| 1047 |
+
|
| 1048 |
+
# 4. Mettre à jour la liste (remplacement par nom - La logique est CORRECTE)
|
| 1049 |
+
items_list = current_data.get("items", []) # Maintenant items_list est garantie d'être la liste des éléments existants
|
| 1050 |
+
|
| 1051 |
+
# Filtre les éléments existants pour supprimer celui portant le même nom (Update)
|
| 1052 |
+
items_list = [item for item in items_list if item.get('name') != name]
|
| 1053 |
+
|
| 1054 |
+
# Ajoute le nouvel élément ou l'élément mis à jour (Create/Update)
|
| 1055 |
+
items_list.append(new_item)
|
| 1056 |
+
current_data["items"] = items_list
|
| 1057 |
+
|
| 1058 |
+
# 5. Sauvegarder le fichier mis à jour (Aucun changement)
|
| 1059 |
+
success, save_message = save_json_file_to_hf(
|
| 1060 |
+
file_path=file_path,
|
| 1061 |
+
data=current_data,
|
| 1062 |
+
commit_message=commit_message,
|
| 1063 |
+
repo_id=HF_DATASET_REPO_ID
|
| 1064 |
+
)
|
| 1065 |
+
|
| 1066 |
+
if success:
|
| 1067 |
+
logger.info(f"Le {item_type} '{name}' a été mis à jour avec succès pour le dépôt '{repo_slug}'.")
|
| 1068 |
+
return True, f"Le {item_type} '{name}' a été mis à jour avec succès pour le dépôt '{repo_slug}'."
|
| 1069 |
+
else:
|
| 1070 |
+
return False, f"Échec de la sauvegarde du {item_type} : {save_message}"
|
| 1071 |
+
|
| 1072 |
+
# --- Nouvelle Fonction pour récupérer les Secrets ou Variables ---
|
| 1073 |
+
|
| 1074 |
+
def get_repo_secrets_or_variables(
|
| 1075 |
+
user_id: str,
|
| 1076 |
+
repo_slug: str,
|
| 1077 |
+
item_type: str # 'secret' ou 'variable'
|
| 1078 |
+
) -> tuple[List[Dict], str]:
|
| 1079 |
+
"""
|
| 1080 |
+
Charge et retourne la liste des secrets ou variables pour un dépôt spécifique.
|
| 1081 |
+
La valeur des secrets est masquée pour la sécurité.
|
| 1082 |
+
"""
|
| 1083 |
+
if item_type not in ['secret', 'variable']:
|
| 1084 |
+
return [], "Type d'élément non valide. Doit être 'secret' ou 'variable'."
|
| 1085 |
+
|
| 1086 |
+
is_secret = (item_type == 'secret')
|
| 1087 |
+
|
| 1088 |
+
if is_secret:
|
| 1089 |
+
file_path = _get_repo_secrets_path(user_id, repo_slug)
|
| 1090 |
+
else:
|
| 1091 |
+
file_path = _get_repo_variables_path(user_id, repo_slug)
|
| 1092 |
+
|
| 1093 |
+
current_data, load_message = load_json_file_from_hf(
|
| 1094 |
+
file_path=file_path,
|
| 1095 |
+
repo_id=HF_DATASET_REPO_ID
|
| 1096 |
+
)
|
| 1097 |
+
|
| 1098 |
+
if current_data is None:
|
| 1099 |
+
if "non trouvé" in load_message:
|
| 1100 |
+
return [], f"Aucun {item_type} trouvé pour le dépôt '{repo_slug}'."
|
| 1101 |
+
else:
|
| 1102 |
+
logger.error(f"Erreur inattendue lors du chargement des {item_type}s : {load_message}")
|
| 1103 |
+
return [], f"Échec du chargement des {item_type}s : {load_message}"
|
| 1104 |
+
|
| 1105 |
+
items_list = current_data.get("items", [])
|
| 1106 |
+
|
| 1107 |
+
if is_secret:
|
| 1108 |
+
# Masquer la valeur des secrets
|
| 1109 |
+
sanitized_list = []
|
| 1110 |
+
for item in items_list:
|
| 1111 |
+
sanitized_item = item.copy()
|
| 1112 |
+
sanitized_item['value'] = '***SECRET_VALUE_HIDDEN***'
|
| 1113 |
+
sanitized_list.append(sanitized_item)
|
| 1114 |
+
|
| 1115 |
+
logger.info(f"{len(sanitized_list)} secrets chargés avec succès pour {repo_slug} (valeurs masquées).")
|
| 1116 |
+
return sanitized_list, f"{len(sanitized_list)} secrets chargés avec succès (valeurs masquées)."
|
| 1117 |
+
else:
|
| 1118 |
+
logger.info(f"{len(items_list)} variables chargées avec succès pour {repo_slug}.")
|
| 1119 |
+
return items_list, f"{len(items_list)} variables chargées avec succès."
|
| 1120 |
+
|
| 1121 |
+
# --- Nouvelle fonction pour la suppression (DELETE) ---
|
| 1122 |
+
def delete_repo_secret_or_variable(
|
| 1123 |
+
user_id: str,
|
| 1124 |
+
repo_slug: str,
|
| 1125 |
+
item_type: str, # 'secret' ou 'variable'
|
| 1126 |
+
name: str,
|
| 1127 |
+
) -> tuple[bool, str]:
|
| 1128 |
+
"""
|
| 1129 |
+
Charge, supprime un secret ou une variable par son nom, et sauvegarde le fichier JSON sur Hugging Face.
|
| 1130 |
+
"""
|
| 1131 |
+
if item_type not in ['secret', 'variable']:
|
| 1132 |
+
return False, "Type d'élément non valide. Doit être 'secret' ou 'variable'."
|
| 1133 |
+
|
| 1134 |
+
is_secret = (item_type == 'secret')
|
| 1135 |
+
|
| 1136 |
+
if is_secret:
|
| 1137 |
+
file_path = _get_repo_secrets_path(user_id, repo_slug)
|
| 1138 |
+
commit_message = f"Suppression du secret '{name}' pour le dépôt '{repo_slug}'."
|
| 1139 |
+
else:
|
| 1140 |
+
file_path = _get_repo_variables_path(user_id, repo_slug)
|
| 1141 |
+
commit_message = f"Suppression de la variable '{name}' pour le dépôt '{repo_slug}'."
|
| 1142 |
+
|
| 1143 |
+
# 1. Charger les données actuelles
|
| 1144 |
+
current_data, load_message = load_json_file_from_hf(file_path=file_path, repo_id=HF_DATASET_REPO_ID)
|
| 1145 |
+
|
| 1146 |
+
if current_data is None or "items" not in current_data:
|
| 1147 |
+
# Si le fichier n'existe pas ou est vide, l'élément n'existe pas de toute façon.
|
| 1148 |
+
return True, f"Le {item_type} '{name}' a déjà été supprimé ou n'existe pas."
|
| 1149 |
+
|
| 1150 |
+
items_list = current_data.get("items", [])
|
| 1151 |
+
|
| 1152 |
+
# 2. Filtrer la liste pour EXCLURE l'élément à supprimer
|
| 1153 |
+
# On garde tous les éléments SAUF celui qui a le nom correspondant.
|
| 1154 |
+
new_items_list = [item for item in items_list if item.get('name') != name]
|
| 1155 |
+
|
| 1156 |
+
# Vérifier si quelque chose a été réellement supprimé
|
| 1157 |
+
if len(new_items_list) == len(items_list):
|
| 1158 |
+
return False, f"Le {item_type} '{name}' n'a pas été trouvé ou n'a pas pu être supprimé."
|
| 1159 |
+
|
| 1160 |
+
current_data["items"] = new_items_list
|
| 1161 |
+
|
| 1162 |
+
# 3. Sauvegarder la nouvelle liste
|
| 1163 |
+
success, save_message = save_json_file_to_hf(
|
| 1164 |
+
file_path=file_path,
|
| 1165 |
+
data=current_data,
|
| 1166 |
+
commit_message=commit_message,
|
| 1167 |
+
repo_id=HF_DATASET_REPO_ID
|
| 1168 |
+
)
|
| 1169 |
+
|
| 1170 |
+
if success:
|
| 1171 |
+
return True, f"Le {item_type} '{name}' a été supprimé avec succès pour le dépôt '{repo_slug}'."
|
| 1172 |
+
else:
|
| 1173 |
+
return False, f"Échec de la sauvegarde après suppression : {save_message}"
|
| 1174 |
+
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/huggingface_storage.py
ADDED
|
@@ -0,0 +1,140 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# huggingface_storage.py
|
| 2 |
+
|
| 3 |
+
from werkzeug.datastructures import FileStorage # NÉCESSAIRE pour typer le paramètre 'files'
|
| 4 |
+
import os
|
| 5 |
+
import shutil
|
| 6 |
+
import logging
|
| 7 |
+
import json # <--- NOUVEL IMPORT
|
| 8 |
+
from huggingface_hub import HfApi, HfFileSystem
|
| 9 |
+
from huggingface_hub.utils import HfHubHTTPError
|
| 10 |
+
from typing import Optional, Dict, List
|
| 11 |
+
from io import BytesIO
|
| 12 |
+
from config import HF_DATASET_REPO_ID # <--- S'assurer que ceci est importé
|
| 13 |
+
|
| 14 |
+
logger = logging.getLogger(__name__)
|
| 15 |
+
|
| 16 |
+
# --- Configuration Hugging Face ---
|
| 17 |
+
HF_DATASET_REPO_ID = os.environ.get("HF_DATASET_REPO_ID")
|
| 18 |
+
api = HfApi()
|
| 19 |
+
fs = HfFileSystem()
|
| 20 |
+
|
| 21 |
+
# --- Constantes pour le stockage utilisateur ---
|
| 22 |
+
METADATA_FILE_NAME = "metadata.json"
|
| 23 |
+
|
| 24 |
+
TEMP_UPLOAD_DIR = "/tmp/hf_uploads" # <-- AJOUTER/DÉPLACER ICI
|
| 25 |
+
|
| 26 |
+
def delete_project_folder_from_hf(
|
| 27 |
+
deploy_id: str,
|
| 28 |
+
repo_id: Optional[str] = None
|
| 29 |
+
) -> tuple[bool, str]:
|
| 30 |
+
"""
|
| 31 |
+
Supprime un dossier (projet utilisateur) complet du Dataset Hugging Face.
|
| 32 |
+
"""
|
| 33 |
+
repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
|
| 34 |
+
|
| 35 |
+
if not repo_id:
|
| 36 |
+
return False, "Erreur de configuration: Repository Hugging Face non défini."
|
| 37 |
+
|
| 38 |
+
try:
|
| 39 |
+
# delete_folder crée une seule commit pour la suppression du dossier.
|
| 40 |
+
commit_url = api.delete_folder(
|
| 41 |
+
path_in_repo=deploy_id,
|
| 42 |
+
repo_id=repo_id,
|
| 43 |
+
repo_type="dataset",
|
| 44 |
+
commit_message=f"Suppression du projet utilisateur ID: {deploy_id}"
|
| 45 |
+
)
|
| 46 |
+
|
| 47 |
+
logger.info(f"Suppression réussie du projet {deploy_id}. URL de commit: {commit_url}")
|
| 48 |
+
return True, "Dossier de projet supprimé avec succès de Hugging Face."
|
| 49 |
+
|
| 50 |
+
except Exception as e:
|
| 51 |
+
logger.error(f"Erreur inconnue lors de la suppression HF pour {deploy_id}: {e}")
|
| 52 |
+
# Si le dossier est déjà supprimé, HfHubHTTPError 404 est levée par delete_folder
|
| 53 |
+
if "404" in str(e):
|
| 54 |
+
return True, "Dossier non trouvé sur Hugging Face (déjà supprimé ou ID invalide)."
|
| 55 |
+
return False, f"Échec de la suppression Hugging Face: {str(e)}"
|
| 56 |
+
|
| 57 |
+
def get_project_files_from_hf(
|
| 58 |
+
deploy_id: str,
|
| 59 |
+
local_target_path: str,
|
| 60 |
+
repo_id: Optional[str] = None
|
| 61 |
+
) -> tuple[bool, str]:
|
| 62 |
+
"""
|
| 63 |
+
Télécharge le dossier d'un projet depuis Hugging Face vers un dossier local.
|
| 64 |
+
"""
|
| 65 |
+
repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
|
| 66 |
+
|
| 67 |
+
if not repo_id:
|
| 68 |
+
return False, "Erreur de configuration: Repository Hugging Face non défini."
|
| 69 |
+
|
| 70 |
+
try:
|
| 71 |
+
# Créer le dossier cible local
|
| 72 |
+
if os.path.exists(local_target_path):
|
| 73 |
+
shutil.rmtree(local_target_path)
|
| 74 |
+
os.makedirs(local_target_path, exist_ok=True)
|
| 75 |
+
|
| 76 |
+
# Chemin complet vers le dossier du projet dans le dépôt Hugging Face
|
| 77 |
+
hf_folder_path = f"datasets/{repo_id}/{deploy_id}"
|
| 78 |
+
|
| 79 |
+
if not fs.isdir(hf_folder_path):
|
| 80 |
+
return False, f"Projet non trouvé sur Hugging Face: {deploy_id}"
|
| 81 |
+
|
| 82 |
+
# Télécharger récursivement le dossier du projet
|
| 83 |
+
# fs.get(chemin_distant, chemin_local)
|
| 84 |
+
fs.get(hf_folder_path, local_target_path, recursive=True)
|
| 85 |
+
|
| 86 |
+
logger.info(f"Téléchargement réussi du projet {deploy_id} vers {local_target_path}.")
|
| 87 |
+
return True, "Dossier de projet téléchargé avec succès."
|
| 88 |
+
|
| 89 |
+
except Exception as e:
|
| 90 |
+
logger.error(f"Erreur lors du téléchargement HF pour {deploy_id}: {e}")
|
| 91 |
+
return False, f"Échec du téléchargement Hugging Face: {str(e)}"
|
| 92 |
+
|
| 93 |
+
|
| 94 |
+
def upload_project_folder_to_hf(
|
| 95 |
+
local_folder_path: str,
|
| 96 |
+
deploy_id: str,
|
| 97 |
+
repo_id: Optional[str] = None
|
| 98 |
+
) -> tuple[bool, str, Optional[str]]:
|
| 99 |
+
"""
|
| 100 |
+
Téléverse un dossier local (le projet utilisateur) vers un dossier spécifique
|
| 101 |
+
dans le Dataset Hugging Face, en une seule commit, en utilisant deploy_id comme path_in_repo.
|
| 102 |
+
"""
|
| 103 |
+
repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
|
| 104 |
+
|
| 105 |
+
if not repo_id:
|
| 106 |
+
return False, "Erreur de configuration: Repository Hugging Face non défini (HF_DATASET_REPO_ID manquant).", None
|
| 107 |
+
|
| 108 |
+
try:
|
| 109 |
+
if not os.path.isdir(local_folder_path):
|
| 110 |
+
return False, f"Erreur: Le dossier local pour le déploiement ID '{deploy_id}' est introuvable.", None
|
| 111 |
+
|
| 112 |
+
# path_in_repo est le chemin où les fichiers seront stockés dans le repo (le dossier du projet)
|
| 113 |
+
hf_folder_path = f"{deploy_id}"
|
| 114 |
+
|
| 115 |
+
logger.info(f"Début du téléversement de {local_folder_path} vers HF repo: {repo_id}/{hf_folder_path}")
|
| 116 |
+
|
| 117 |
+
api.upload_folder(
|
| 118 |
+
folder_path=local_folder_path,
|
| 119 |
+
repo_id=repo_id,
|
| 120 |
+
path_in_repo=hf_folder_path,
|
| 121 |
+
repo_type="dataset",
|
| 122 |
+
commit_message=f"Ajout du site web statique pour le projet ID: {deploy_id}",
|
| 123 |
+
# CORRECTION: Suppression de l'argument 'delete_old_files'
|
| 124 |
+
# (Le comportement par défaut de l'API moderne est de ne pas le supprimer sauf si explicitement listé)
|
| 125 |
+
)
|
| 126 |
+
|
| 127 |
+
full_repo_path = f"https://huggingface.co/datasets/{repo_id}/tree/main/{deploy_id}"
|
| 128 |
+
logger.info(f"Téléversement HF réussi pour le projet {deploy_id}.")
|
| 129 |
+
|
| 130 |
+
return True, "Téléversement vers Hugging Face réussi.", full_repo_path
|
| 131 |
+
|
| 132 |
+
except HfHubHTTPError as e:
|
| 133 |
+
error_message = f"Erreur API Hugging Face (vérifiez votre jeton d'API et les permissions): {e.response.text}"
|
| 134 |
+
logger.error(error_message)
|
| 135 |
+
return False, error_message, None
|
| 136 |
+
except Exception as e:
|
| 137 |
+
logger.error(f"Erreur lors du téléchargement HF pour {deploy_id}: {e}")
|
| 138 |
+
return False, f"Échec du téléchargement Hugging Face: {str(e)}", None
|
| 139 |
+
|
| 140 |
+
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/issue_routes.py
ADDED
|
@@ -0,0 +1,214 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# issue_routes.py
|
| 2 |
+
|
| 3 |
+
from flask import Blueprint, request, jsonify, session
|
| 4 |
+
from decorators import api_session_required
|
| 5 |
+
from typing import List, Dict, Any
|
| 6 |
+
import logging
|
| 7 |
+
|
| 8 |
+
# Importation des fonctions du backend Issues
|
| 9 |
+
from issues_backend import (
|
| 10 |
+
create_issue,
|
| 11 |
+
load_all_issues_from_hf,
|
| 12 |
+
get_issue_by_id,
|
| 13 |
+
update_issue,
|
| 14 |
+
add_comment_to_issue,
|
| 15 |
+
load_all_user_issues
|
| 16 |
+
)
|
| 17 |
+
|
| 18 |
+
|
| 19 |
+
|
| 20 |
+
logger = logging.getLogger(__name__)
|
| 21 |
+
|
| 22 |
+
# Création du Blueprint 'issue_bp'
|
| 23 |
+
issue_bp = Blueprint('issue_bp', __name__)
|
| 24 |
+
|
| 25 |
+
# ----------------------------------------------------------------------
|
| 26 |
+
# ENDPOINTS API POUR LES ISSUES
|
| 27 |
+
# ----------------------------------------------------------------------
|
| 28 |
+
|
| 29 |
+
@issue_bp.route("/api/issue/create", methods=["POST"])
|
| 30 |
+
@api_session_required
|
| 31 |
+
def create_issue_route(client_user: Dict):
|
| 32 |
+
"""
|
| 33 |
+
Route (POST) : Créer une nouvelle Issue.
|
| 34 |
+
"""
|
| 35 |
+
user_id = str(client_user['user_id']) # ID du propriétaire du dépôt
|
| 36 |
+
data = request.get_json()
|
| 37 |
+
|
| 38 |
+
repo_slug = data.get("repo_slug")
|
| 39 |
+
title = data.get("title")
|
| 40 |
+
description = data.get("description", "")
|
| 41 |
+
creator_id = str(client_user.get('uuid')) # ID de l'utilisateur connecté (créateur)
|
| 42 |
+
assigned_to = data.get("assigned_to")
|
| 43 |
+
labels = data.get("labels")
|
| 44 |
+
|
| 45 |
+
if not all([repo_slug, title]):
|
| 46 |
+
return jsonify({
|
| 47 |
+
"success": False,
|
| 48 |
+
"message": "Données manquantes : repo_slug et title sont requis."
|
| 49 |
+
}), 400
|
| 50 |
+
|
| 51 |
+
issue_id, message = create_issue(
|
| 52 |
+
repo_slug=repo_slug,
|
| 53 |
+
user_id=user_id,
|
| 54 |
+
title=title,
|
| 55 |
+
description=description,
|
| 56 |
+
creator_id=creator_id,
|
| 57 |
+
assigned_to=assigned_to,
|
| 58 |
+
labels=labels
|
| 59 |
+
)
|
| 60 |
+
|
| 61 |
+
if issue_id:
|
| 62 |
+
return jsonify({
|
| 63 |
+
"success": True,
|
| 64 |
+
"message": message,
|
| 65 |
+
"issue_id": issue_id
|
| 66 |
+
}), 201
|
| 67 |
+
else:
|
| 68 |
+
return jsonify({
|
| 69 |
+
"success": False,
|
| 70 |
+
"message": message
|
| 71 |
+
}), 500
|
| 72 |
+
|
| 73 |
+
|
| 74 |
+
@issue_bp.route("/api/issue/list/<repo_slug>", methods=["GET"])
|
| 75 |
+
@api_session_required
|
| 76 |
+
def list_issues_route(client_user: Dict, repo_slug: str):
|
| 77 |
+
"""
|
| 78 |
+
Route (GET) : Lister toutes les Issues pour un dépôt donné.
|
| 79 |
+
"""
|
| 80 |
+
user_id = str(client_user['user_id'])
|
| 81 |
+
issue_list: List[Dict] = load_all_issues_from_hf(repo_slug, user_id)
|
| 82 |
+
|
| 83 |
+
status_filter = request.args.get('status', 'all').lower()
|
| 84 |
+
if status_filter != 'all':
|
| 85 |
+
issue_list = [issue for issue in issue_list if issue.get('status', '').lower() == status_filter]
|
| 86 |
+
|
| 87 |
+
return jsonify({
|
| 88 |
+
"success": True,
|
| 89 |
+
"data": issue_list,
|
| 90 |
+
"count": len(issue_list)
|
| 91 |
+
}), 200
|
| 92 |
+
|
| 93 |
+
|
| 94 |
+
@issue_bp.route("/api/issue/detail/<repo_slug>/<issue_id>", methods=["GET"])
|
| 95 |
+
@api_session_required
|
| 96 |
+
def get_issue_details_route(client_user: Dict, repo_slug: str, issue_id: str):
|
| 97 |
+
"""
|
| 98 |
+
Route (GET) : Récupérer les détails d'une Issue spécifique par son ID.
|
| 99 |
+
"""
|
| 100 |
+
user_id = str(client_user['user_id'])
|
| 101 |
+
issue = get_issue_by_id(issue_id, repo_slug, user_id)
|
| 102 |
+
|
| 103 |
+
if issue:
|
| 104 |
+
return jsonify({"success": True, "data": issue}), 200
|
| 105 |
+
else:
|
| 106 |
+
return jsonify({"success": False, "message": f"Issue ID {issue_id} non trouvée dans le dépôt {repo_slug}."}), 404
|
| 107 |
+
|
| 108 |
+
|
| 109 |
+
@issue_bp.route("/api/issue/update/<repo_slug>/<issue_id>", methods=["PUT"])
|
| 110 |
+
@api_session_required
|
| 111 |
+
def update_issue_route(client_user: Dict, repo_slug: str, issue_id: str):
|
| 112 |
+
"""
|
| 113 |
+
Route (PUT) : Mettre à jour des champs spécifiques (statut, titre, assignation, etc.) d'une Issue.
|
| 114 |
+
"""
|
| 115 |
+
user_id = str(client_user['user_id'])
|
| 116 |
+
updates = request.get_json()
|
| 117 |
+
|
| 118 |
+
if not updates:
|
| 119 |
+
return jsonify({"success": False, "message": "Aucune donnée de mise à jour fournie."}), 400
|
| 120 |
+
|
| 121 |
+
success, message = update_issue(issue_id, repo_slug, user_id, updates)
|
| 122 |
+
|
| 123 |
+
if success:
|
| 124 |
+
return jsonify({"success": True, "message": message}), 200
|
| 125 |
+
else:
|
| 126 |
+
return jsonify({"success": False, "message": message}), 404
|
| 127 |
+
|
| 128 |
+
|
| 129 |
+
@issue_bp.route("/api/issue/comment/<repo_slug>/<issue_id>", methods=["POST"])
|
| 130 |
+
@api_session_required
|
| 131 |
+
def add_comment_route(client_user: Dict, repo_slug: str, issue_id: str):
|
| 132 |
+
"""
|
| 133 |
+
Route (POST) : Ajouter un commentaire à une Issue.
|
| 134 |
+
"""
|
| 135 |
+
user_id = str(client_user['user_id']) # ID du propriétaire du dépôt (pour l'accès au fichier)
|
| 136 |
+
commenter_id = str(client_user.get('uuid')) # ID de l'utilisateur connecté (commentateur)
|
| 137 |
+
data = request.get_json()
|
| 138 |
+
comment_content = data.get("content")
|
| 139 |
+
|
| 140 |
+
if not comment_content:
|
| 141 |
+
return jsonify({"success": False, "message": "Le contenu du commentaire est requis."}), 400
|
| 142 |
+
|
| 143 |
+
success, message = add_comment_to_issue(
|
| 144 |
+
issue_id=issue_id,
|
| 145 |
+
repo_slug=repo_slug,
|
| 146 |
+
user_id=user_id,
|
| 147 |
+
comment_content=comment_content,
|
| 148 |
+
commenter_id=commenter_id
|
| 149 |
+
)
|
| 150 |
+
|
| 151 |
+
if success:
|
| 152 |
+
return jsonify({"success": True, "message": message}), 201
|
| 153 |
+
else:
|
| 154 |
+
return jsonify({"success": False, "message": message}), 404
|
| 155 |
+
|
| 156 |
+
|
| 157 |
+
@issue_bp.route("/api/issue/list_active_for_user", methods=["GET"])
|
| 158 |
+
@api_session_required
|
| 159 |
+
def list_active_issues_for_user_route(client_user: Dict):
|
| 160 |
+
"""
|
| 161 |
+
Route (GET) : Récupérer tous les Issues actifs pour l'utilisateur
|
| 162 |
+
à travers tous ses dépôts (pour le dashboard).
|
| 163 |
+
"""
|
| 164 |
+
user_id = str(client_user['user_id'])
|
| 165 |
+
|
| 166 |
+
try:
|
| 167 |
+
# 1. Charger TOUTES les Issues de l'utilisateur (de tous les dépôts)
|
| 168 |
+
all_issues_list = load_all_user_issues(user_id)
|
| 169 |
+
|
| 170 |
+
# 2. Filtrer seulement les Issues ouvertes (Open) pour le tableau de bord
|
| 171 |
+
active_issues = [issue for issue in all_issues_list if issue.get('status') == 'Open']
|
| 172 |
+
|
| 173 |
+
except Exception as e:
|
| 174 |
+
logger.error(f"Erreur lors du chargement des Issues du dashboard pour l'utilisateur {user_id} : {e}")
|
| 175 |
+
return jsonify({"success": False, "message": "Erreur interne lors du chargement des Issues."}), 500
|
| 176 |
+
|
| 177 |
+
|
| 178 |
+
# 3. Retourne la liste consolidée des Issues actives au format JSON
|
| 179 |
+
return jsonify({
|
| 180 |
+
"success": True,
|
| 181 |
+
"pull_requests": active_issues # Note: Le nom de la clé a été laissé 'pull_requests' pour la cohérence avec pr_routes.py
|
| 182 |
+
}), 200
|
| 183 |
+
|
| 184 |
+
@issue_bp.route("/api/issue/list_by_repo", methods=["GET"])
|
| 185 |
+
@api_session_required
|
| 186 |
+
def list_issues_by_repo_route(client_user: Dict):
|
| 187 |
+
|
| 188 |
+
user_id = str(client_user['user_id'])
|
| 189 |
+
|
| 190 |
+
# 1. Récupérer le repo_slug depuis les arguments de la requête (query string)
|
| 191 |
+
repo_slug = request.args.get('repo_slug')
|
| 192 |
+
|
| 193 |
+
if not repo_slug:
|
| 194 |
+
return jsonify({
|
| 195 |
+
"success": False,
|
| 196 |
+
"message": "Le paramètre 'repo_slug' est manquant."
|
| 197 |
+
}), 400
|
| 198 |
+
|
| 199 |
+
try:
|
| 200 |
+
# 2. Charger toutes les Issues pour ce dépôt et cet utilisateur
|
| 201 |
+
all_issues = load_all_issues_from_hf(repo_slug, user_id)
|
| 202 |
+
|
| 203 |
+
# 3. Retourner la liste complète des Issues au format JSON
|
| 204 |
+
return jsonify({
|
| 205 |
+
"success": True,
|
| 206 |
+
"issues": all_issues
|
| 207 |
+
}), 200
|
| 208 |
+
|
| 209 |
+
except Exception as e:
|
| 210 |
+
logger.error(f"Erreur lors du chargement des Issues pour le dépôt {repo_slug} et l'utilisateur {user_id} : {e}")
|
| 211 |
+
return jsonify({
|
| 212 |
+
"success": False,
|
| 213 |
+
"message": "Erreur interne du serveur lors de la récupération des Issues."
|
| 214 |
+
}), 500
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/issues_backend.py
ADDED
|
@@ -0,0 +1,196 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# issues_backend.py
|
| 2 |
+
|
| 3 |
+
import uuid
|
| 4 |
+
from datetime import datetime
|
| 5 |
+
from typing import Optional, Dict, List, Any
|
| 6 |
+
import logging
|
| 7 |
+
from config import ISSUES_HF_REPO_ID # Nouvelle variable
|
| 8 |
+
from huggingface_repo_manager import (
|
| 9 |
+
load_json_file_from_hf,
|
| 10 |
+
save_json_file_to_hf,
|
| 11 |
+
get_user_repo_metadata
|
| 12 |
+
)
|
| 13 |
+
|
| 14 |
+
logger = logging.getLogger(__name__)
|
| 15 |
+
|
| 16 |
+
# --- Constantes ---
|
| 17 |
+
ISSUE_FILE_PATH_TEMPLATE = "issues_data/{user_id}/{repo_slug}/issues.json"
|
| 18 |
+
|
| 19 |
+
# --- Fonctions de Métadonnées (Interaction avec issues.json) ---
|
| 20 |
+
|
| 21 |
+
def _get_issue_file_path(repo_slug: str, user_id: str) -> str:
|
| 22 |
+
"""Construit le chemin d'accès au fichier issues.json."""
|
| 23 |
+
return ISSUE_FILE_PATH_TEMPLATE.format(user_id=user_id, repo_slug=repo_slug)
|
| 24 |
+
|
| 25 |
+
def save_all_issues_to_hf(repo_slug: str, user_id: str, issues_list: List[Dict]) -> tuple[bool, str]:
|
| 26 |
+
"""Sérialise et enregistre la liste complète des Issues dans le fichier issues.json."""
|
| 27 |
+
if not ISSUES_HF_REPO_ID:
|
| 28 |
+
return False, "Erreur de configuration: ISSUES_HF_REPO_ID manquant."
|
| 29 |
+
|
| 30 |
+
file_path = _get_issue_file_path(repo_slug, user_id)
|
| 31 |
+
data_to_save = {"issues": issues_list, "last_updated": datetime.now().isoformat()}
|
| 32 |
+
|
| 33 |
+
return save_json_file_to_hf(
|
| 34 |
+
file_path=file_path,
|
| 35 |
+
data=data_to_save,
|
| 36 |
+
commit_message=f"Mise à jour des issues pour {repo_slug}",
|
| 37 |
+
repo_id=ISSUES_HF_REPO_ID
|
| 38 |
+
)
|
| 39 |
+
|
| 40 |
+
def load_all_issues_from_hf(repo_slug: str, user_id: str) -> List[Dict]:
|
| 41 |
+
"""Charge l'intégralité du fichier issues.json du dépôt spécifié."""
|
| 42 |
+
if not ISSUES_HF_REPO_ID:
|
| 43 |
+
logger.error("Configuration error: ISSUES_HF_REPO_ID missing.")
|
| 44 |
+
return []
|
| 45 |
+
|
| 46 |
+
file_path = _get_issue_file_path(repo_slug, user_id)
|
| 47 |
+
|
| 48 |
+
issue_data, msg = load_json_file_from_hf(
|
| 49 |
+
file_path=file_path,
|
| 50 |
+
repo_id=ISSUES_HF_REPO_ID
|
| 51 |
+
)
|
| 52 |
+
|
| 53 |
+
if issue_data is None or "issues" not in issue_data:
|
| 54 |
+
return []
|
| 55 |
+
|
| 56 |
+
return issue_data.get("issues", [])
|
| 57 |
+
|
| 58 |
+
def get_issue_by_id(issue_id: str, repo_slug: str, user_id: str) -> Optional[Dict]:
|
| 59 |
+
"""Récupère une Issue spécifique par son ID."""
|
| 60 |
+
all_issues = load_all_issues_from_hf(repo_slug, user_id)
|
| 61 |
+
found_issue = next((i for i in all_issues if str(i.get('issue_id')) == str(issue_id)), None)
|
| 62 |
+
return found_issue
|
| 63 |
+
|
| 64 |
+
def create_issue(
|
| 65 |
+
repo_slug: str,
|
| 66 |
+
user_id: str,
|
| 67 |
+
title: str,
|
| 68 |
+
description: str,
|
| 69 |
+
creator_id: str,
|
| 70 |
+
assigned_to: Optional[str] = None,
|
| 71 |
+
labels: Optional[List[str]] = None
|
| 72 |
+
) -> tuple[Optional[str], str]:
|
| 73 |
+
"""Génère un issue_id, ajoute la nouvelle Issue, puis sauvegarde."""
|
| 74 |
+
|
| 75 |
+
all_issues = load_all_issues_from_hf(repo_slug, user_id)
|
| 76 |
+
issue_id = str(uuid.uuid4())
|
| 77 |
+
|
| 78 |
+
new_issue = {
|
| 79 |
+
"issue_id": issue_id,
|
| 80 |
+
"repo_slug": repo_slug,
|
| 81 |
+
"title": title,
|
| 82 |
+
"description": description,
|
| 83 |
+
"status": "Open",
|
| 84 |
+
"creator_id": creator_id,
|
| 85 |
+
"assigned_to": assigned_to,
|
| 86 |
+
"labels": labels if labels is not None else [],
|
| 87 |
+
"created_at": datetime.now().isoformat(),
|
| 88 |
+
"updated_at": datetime.now().isoformat(),
|
| 89 |
+
"comments": []
|
| 90 |
+
}
|
| 91 |
+
|
| 92 |
+
all_issues.append(new_issue)
|
| 93 |
+
success, message = save_all_issues_to_hf(repo_slug, user_id, all_issues)
|
| 94 |
+
|
| 95 |
+
if success:
|
| 96 |
+
return issue_id, f"Issue '{title}' créée avec succès (ID: {issue_id})."
|
| 97 |
+
else:
|
| 98 |
+
logger.error(f"Échec de la sauvegarde de l'issue {issue_id}: {message}")
|
| 99 |
+
return None, f"Échec de la création de l'Issue: {message}"
|
| 100 |
+
|
| 101 |
+
|
| 102 |
+
def update_issue(issue_id: str, repo_slug: str, user_id: str, updates: Dict[str, Any]) -> tuple[bool, str]:
|
| 103 |
+
"""Met à jour un ou plusieurs champs spécifiques (titre, statut, assignation, etc.)."""
|
| 104 |
+
all_issues = load_all_issues_from_hf(repo_slug, user_id)
|
| 105 |
+
issue_index = next((i for i, issue in enumerate(all_issues) if str(issue.get('issue_id')) == str(issue_id)), -1)
|
| 106 |
+
|
| 107 |
+
if issue_index == -1:
|
| 108 |
+
return False, f"Issue ID {issue_id} introuvable."
|
| 109 |
+
|
| 110 |
+
issue_to_update = all_issues[issue_index]
|
| 111 |
+
|
| 112 |
+
for key, value in updates.items():
|
| 113 |
+
if key in issue_to_update:
|
| 114 |
+
issue_to_update[key] = value
|
| 115 |
+
|
| 116 |
+
issue_to_update['updated_at'] = datetime.now().isoformat()
|
| 117 |
+
all_issues[issue_index] = issue_to_update
|
| 118 |
+
|
| 119 |
+
success, message = save_all_issues_to_hf(repo_slug, user_id, all_issues)
|
| 120 |
+
|
| 121 |
+
if success:
|
| 122 |
+
return True, f"Issue ID {issue_id} mise à jour avec succès."
|
| 123 |
+
else:
|
| 124 |
+
logger.error(f"Échec de la sauvegarde de l'issue {issue_id} après mise à jour: {message}")
|
| 125 |
+
return False, f"Échec de la mise à jour de l'Issue: {message}"
|
| 126 |
+
|
| 127 |
+
|
| 128 |
+
def add_comment_to_issue(
|
| 129 |
+
issue_id: str,
|
| 130 |
+
repo_slug: str,
|
| 131 |
+
user_id: str,
|
| 132 |
+
comment_content: str,
|
| 133 |
+
commenter_id: str
|
| 134 |
+
) -> tuple[bool, str]:
|
| 135 |
+
"""Ajoute un nouveau commentaire à la liste 'comments' de l'Issue correspondante et sauvegarde."""
|
| 136 |
+
all_issues = load_all_issues_from_hf(repo_slug, user_id)
|
| 137 |
+
issue_index = next((i for i, issue in enumerate(all_issues) if str(issue.get('issue_id')) == str(issue_id)), -1)
|
| 138 |
+
|
| 139 |
+
if issue_index == -1:
|
| 140 |
+
return False, f"Issue ID {issue_id} introuvable."
|
| 141 |
+
|
| 142 |
+
issue_to_update = all_issues[issue_index]
|
| 143 |
+
|
| 144 |
+
new_comment = {
|
| 145 |
+
"comment_id": str(uuid.uuid4()),
|
| 146 |
+
"user_id": commenter_id,
|
| 147 |
+
"content": comment_content,
|
| 148 |
+
"created_at": datetime.now().isoformat()
|
| 149 |
+
}
|
| 150 |
+
|
| 151 |
+
if 'comments' not in issue_to_update:
|
| 152 |
+
issue_to_update['comments'] = []
|
| 153 |
+
|
| 154 |
+
issue_to_update['comments'].append(new_comment)
|
| 155 |
+
issue_to_update['updated_at'] = datetime.now().isoformat()
|
| 156 |
+
all_issues[issue_index] = issue_to_update
|
| 157 |
+
|
| 158 |
+
success, message = save_all_issues_to_hf(repo_slug, user_id, all_issues)
|
| 159 |
+
|
| 160 |
+
if success:
|
| 161 |
+
return True, f"Commentaire ajouté avec succès à l'Issue ID {issue_id}."
|
| 162 |
+
else:
|
| 163 |
+
logger.error(f"Échec de la sauvegarde du commentaire pour l'issue {issue_id}: {message}")
|
| 164 |
+
return False, f"Échec de l'ajout du commentaire: {message}"
|
| 165 |
+
|
| 166 |
+
|
| 167 |
+
def load_all_user_issues(user_id: str) -> List[Dict]:
|
| 168 |
+
"""
|
| 169 |
+
Récupère toutes les Issues de l'utilisateur à travers tous ses dépôts
|
| 170 |
+
en utilisant les métadonnées de dépôt.
|
| 171 |
+
"""
|
| 172 |
+
all_issues: List[Dict] = []
|
| 173 |
+
|
| 174 |
+
try:
|
| 175 |
+
metadata, _ = get_user_repo_metadata(user_id)
|
| 176 |
+
if not metadata or not metadata.get("repos"):
|
| 177 |
+
return []
|
| 178 |
+
|
| 179 |
+
repo_slugs = [repo.get('repo_slug') for repo in metadata["repos"] if repo.get('repo_slug')]
|
| 180 |
+
except Exception as e:
|
| 181 |
+
logger.error(f"Erreur lors de la récupération des métadonnées de dépôt pour l'utilisateur {user_id}: {e}")
|
| 182 |
+
return []
|
| 183 |
+
|
| 184 |
+
for repo_slug in repo_slugs:
|
| 185 |
+
try:
|
| 186 |
+
issues_for_repo = load_all_issues_from_hf(repo_slug, user_id)
|
| 187 |
+
for issue in issues_for_repo:
|
| 188 |
+
issue['repo_slug'] = repo_slug
|
| 189 |
+
|
| 190 |
+
all_issues.extend(issues_for_repo)
|
| 191 |
+
|
| 192 |
+
except Exception as e:
|
| 193 |
+
logger.warning(f"Impossible de charger les Issues pour le dépôt {repo_slug}: {e}")
|
| 194 |
+
continue
|
| 195 |
+
|
| 196 |
+
return all_issues
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/pr_routes.py
ADDED
|
@@ -0,0 +1,432 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# pr_routes.py
|
| 2 |
+
|
| 3 |
+
from flask import Blueprint, request, jsonify, session
|
| 4 |
+
from decorators import api_session_required # Pour l'authentification par session
|
| 5 |
+
from typing import List, Dict
|
| 6 |
+
import logging
|
| 7 |
+
|
| 8 |
+
# Importation des fonctions du backend Pull Request
|
| 9 |
+
from pull_request_backend import (
|
| 10 |
+
create_pull_request,
|
| 11 |
+
load_all_prs_from_hf,
|
| 12 |
+
get_pull_request_by_id,
|
| 13 |
+
update_pull_request_status,
|
| 14 |
+
get_pr_diff,
|
| 15 |
+
check_pr_merge_status,
|
| 16 |
+
merge_pull_request,
|
| 17 |
+
load_all_user_prs,
|
| 18 |
+
create_new_pr_branch,
|
| 19 |
+
get_files_in_pr_branch,
|
| 20 |
+
get_pr_file_content,
|
| 21 |
+
get_repo_branches
|
| 22 |
+
)
|
| 23 |
+
|
| 24 |
+
logger = logging.getLogger(__name__)
|
| 25 |
+
|
| 26 |
+
# Création du Blueprint 'pr_bp'
|
| 27 |
+
pr_bp = Blueprint('pr_bp', __name__)
|
| 28 |
+
|
| 29 |
+
# ----------------------------------------------------------------------
|
| 30 |
+
# ENDPOINTS API POUR LES PULL REQUESTS
|
| 31 |
+
# ----------------------------------------------------------------------
|
| 32 |
+
|
| 33 |
+
@pr_bp.route("/api/pr/create", methods=["POST"])
|
| 34 |
+
@api_session_required
|
| 35 |
+
def create_pr_route(client_user: Dict):
|
| 36 |
+
"""
|
| 37 |
+
Route (POST) : Créer une nouvelle Pull Request.
|
| 38 |
+
"""
|
| 39 |
+
user_id = str(client_user['user_id'])
|
| 40 |
+
data = request.get_json()
|
| 41 |
+
|
| 42 |
+
repo_slug = data.get("repo_slug")
|
| 43 |
+
source_branch = data.get("source_branch")
|
| 44 |
+
target_branch = data.get("target_branch")
|
| 45 |
+
title = data.get("title")
|
| 46 |
+
description = data.get("description", "") # Description optionnelle
|
| 47 |
+
|
| 48 |
+
if not all([repo_slug, source_branch, target_branch, title]):
|
| 49 |
+
return jsonify({
|
| 50 |
+
"success": False,
|
| 51 |
+
"message": "Données manquantes : repo_slug, source_branch, target_branch et title sont requis."
|
| 52 |
+
}), 400
|
| 53 |
+
|
| 54 |
+
pr_id, message = create_pull_request(
|
| 55 |
+
repo_slug=repo_slug,
|
| 56 |
+
source_branch=source_branch,
|
| 57 |
+
target_branch=target_branch,
|
| 58 |
+
title=title,
|
| 59 |
+
description=description,
|
| 60 |
+
user_id=user_id
|
| 61 |
+
)
|
| 62 |
+
|
| 63 |
+
if pr_id:
|
| 64 |
+
return jsonify({
|
| 65 |
+
"success": True,
|
| 66 |
+
"message": message,
|
| 67 |
+
"pr_id": pr_id
|
| 68 |
+
}), 201
|
| 69 |
+
else:
|
| 70 |
+
return jsonify({
|
| 71 |
+
"success": False,
|
| 72 |
+
"message": message
|
| 73 |
+
}), 500
|
| 74 |
+
|
| 75 |
+
|
| 76 |
+
@pr_bp.route("/api/pr/list/<repo_slug>", methods=["GET"])
|
| 77 |
+
@api_session_required
|
| 78 |
+
def list_prs_route(client_user: Dict, repo_slug: str):
|
| 79 |
+
"""
|
| 80 |
+
Route (GET) : Lister toutes les PR pour un dépôt donné.
|
| 81 |
+
"""
|
| 82 |
+
user_id = str(client_user['user_id'])
|
| 83 |
+
|
| 84 |
+
pr_list: List[Dict] = load_all_prs_from_hf(repo_slug, user_id)
|
| 85 |
+
|
| 86 |
+
# Optionnel: Filtrer ou trier ici si nécessaire (ex: trier par date/statut)
|
| 87 |
+
|
| 88 |
+
return jsonify({
|
| 89 |
+
"success": True,
|
| 90 |
+
"data": pr_list,
|
| 91 |
+
"count": len(pr_list)
|
| 92 |
+
}), 200
|
| 93 |
+
|
| 94 |
+
|
| 95 |
+
@pr_bp.route("/api/pr/<pr_id>", methods=["GET"])
|
| 96 |
+
@api_session_required
|
| 97 |
+
def get_pr_details_route(client_user: Dict, pr_id: str):
|
| 98 |
+
"""
|
| 99 |
+
Route (GET) : Obtenir les détails d'une PR spécifique.
|
| 100 |
+
"""
|
| 101 |
+
user_id = str(client_user['user_id'])
|
| 102 |
+
repo_slug = request.args.get('repo')
|
| 103 |
+
|
| 104 |
+
if not repo_slug:
|
| 105 |
+
return jsonify({
|
| 106 |
+
"success": False,
|
| 107 |
+
"message": "Le paramètre 'repo' (repo_slug) est manquant dans la requête."
|
| 108 |
+
}), 400
|
| 109 |
+
|
| 110 |
+
pr = get_pull_request_by_id(pr_id, repo_slug, user_id)
|
| 111 |
+
|
| 112 |
+
if pr:
|
| 113 |
+
return jsonify({"success": True, "data": pr}), 200
|
| 114 |
+
else:
|
| 115 |
+
return jsonify({"success": False, "message": f"Pull Request ID {pr_id} non trouvée."}), 404
|
| 116 |
+
|
| 117 |
+
|
| 118 |
+
@pr_bp.route("/api/pr/<pr_id>/diff", methods=["GET"])
|
| 119 |
+
@api_session_required
|
| 120 |
+
def get_pr_diff_route(client_user: Dict, pr_id: str):
|
| 121 |
+
"""
|
| 122 |
+
Route (GET) : Obtenir le contenu des changements (diff) entre les branches de la PR.
|
| 123 |
+
"""
|
| 124 |
+
user_id = str(client_user['user_id'])
|
| 125 |
+
repo_slug = request.args.get('repo')
|
| 126 |
+
|
| 127 |
+
if not repo_slug:
|
| 128 |
+
return jsonify({
|
| 129 |
+
"success": False,
|
| 130 |
+
"message": "Le paramètre 'repo' (repo_slug) est manquant."
|
| 131 |
+
}), 400
|
| 132 |
+
|
| 133 |
+
# La fonction de backend résout les branches à partir du pr_id
|
| 134 |
+
diff_data, message = get_pr_diff(repo_slug, user_id, pr_id)
|
| 135 |
+
|
| 136 |
+
if diff_data is not None:
|
| 137 |
+
return jsonify({"success": True, "data": diff_data}), 200
|
| 138 |
+
else:
|
| 139 |
+
# Ceci peut être dû à un pr_id invalide ou à une erreur de diff
|
| 140 |
+
return jsonify({"success": False, "message": message}), 404
|
| 141 |
+
|
| 142 |
+
|
| 143 |
+
@pr_bp.route("/api/pr/<pr_id>/merge", methods=["POST"])
|
| 144 |
+
@api_session_required
|
| 145 |
+
def merge_pr_route(client_user: Dict, pr_id: str):
|
| 146 |
+
"""
|
| 147 |
+
Route (POST) : Exécuter la fusion (merge) de la PR.
|
| 148 |
+
"""
|
| 149 |
+
user_id = str(client_user['user_id'])
|
| 150 |
+
data = request.get_json()
|
| 151 |
+
repo_slug = data.get("repo_slug")
|
| 152 |
+
|
| 153 |
+
if not repo_slug:
|
| 154 |
+
return jsonify({"success": False, "message": "Le 'repo_slug' est requis dans le corps de la requête."}), 400
|
| 155 |
+
|
| 156 |
+
# Le committer est l'utilisateur connecté
|
| 157 |
+
success, message = merge_pull_request(pr_id, repo_slug, user_id, committer_id=user_id)
|
| 158 |
+
|
| 159 |
+
if success:
|
| 160 |
+
return jsonify({"success": True, "message": f"Pull Request ID {pr_id} fusionnée avec succès."}), 200
|
| 161 |
+
else:
|
| 162 |
+
# Erreur lors de la vérification des conflits, de la fusion Git ou de la mise à jour du statut
|
| 163 |
+
return jsonify({"success": False, "message": message}), 409 # 409 Conflict ou 500
|
| 164 |
+
|
| 165 |
+
@pr_bp.route("/api/pr/<pr_id>/close", methods=["POST"])
|
| 166 |
+
@api_session_required
|
| 167 |
+
def close_pr_route(client_user: Dict, pr_id: str):
|
| 168 |
+
"""
|
| 169 |
+
Route (POST) : Fermer (sans fusion) la PR.
|
| 170 |
+
"""
|
| 171 |
+
user_id = str(client_user['user_id'])
|
| 172 |
+
data = request.get_json()
|
| 173 |
+
repo_slug = data.get("repo_slug")
|
| 174 |
+
|
| 175 |
+
if not repo_slug:
|
| 176 |
+
return jsonify({"success": False, "message": "Le 'repo_slug' est requis dans le corps de la requête."}), 400
|
| 177 |
+
|
| 178 |
+
success, message = update_pull_request_status(pr_id, repo_slug, user_id, "Closed")
|
| 179 |
+
|
| 180 |
+
if success:
|
| 181 |
+
return jsonify({"success": True, "message": f"Pull Request ID {pr_id} fermée."}), 200
|
| 182 |
+
else:
|
| 183 |
+
return jsonify({"success": False, "message": message}), 404
|
| 184 |
+
|
| 185 |
+
@pr_bp.route("/api/pr/list_all", methods=["GET"])
|
| 186 |
+
@api_session_required
|
| 187 |
+
def list_all_prs_route(client_user: Dict):
|
| 188 |
+
"""
|
| 189 |
+
Route (GET) : Récupérer tous les Pull Requests pour un dépôt donné.
|
| 190 |
+
Nécessite 'repo_slug' en paramètre de requête (query parameter).
|
| 191 |
+
"""
|
| 192 |
+
user_id = str(client_user['user_id'])
|
| 193 |
+
# Récupère le repo_slug depuis les paramètres de la requête GET
|
| 194 |
+
repo_slug = request.args.get("repo_slug")
|
| 195 |
+
|
| 196 |
+
if not repo_slug:
|
| 197 |
+
return jsonify({"success": False, "message": "Le 'repo_slug' est requis comme paramètre de requête."}), 400
|
| 198 |
+
|
| 199 |
+
# 1. Appel de la fonction backend pour charger les PRs
|
| 200 |
+
# (Doit être déjà importée : from pull_request_backend import load_all_prs_from_hf)
|
| 201 |
+
try:
|
| 202 |
+
prs_list = load_all_prs_from_hf(repo_slug, user_id)
|
| 203 |
+
except Exception as e:
|
| 204 |
+
logger.error(f"Erreur lors du chargement des PRs pour {repo_slug} : {e}")
|
| 205 |
+
return jsonify({"success": False, "message": "Erreur interne lors du chargement des Pull Requests."}), 500
|
| 206 |
+
|
| 207 |
+
|
| 208 |
+
# 2. Retourne la liste des PRs au format JSON pour le frontend
|
| 209 |
+
return jsonify({
|
| 210 |
+
"success": True,
|
| 211 |
+
"repo_slug": repo_slug,
|
| 212 |
+
"pull_requests": prs_list
|
| 213 |
+
}), 200
|
| 214 |
+
|
| 215 |
+
@pr_bp.route("/api/pr/<pr_id>", methods=["GET"])
|
| 216 |
+
@api_session_required
|
| 217 |
+
def get_single_pr_route(client_user: Dict, pr_id: str):
|
| 218 |
+
"""
|
| 219 |
+
Route (GET) : Récupérer les détails d'un seul Pull Request par son ID.
|
| 220 |
+
Nécessite 'repo_slug' en paramètre de requête.
|
| 221 |
+
"""
|
| 222 |
+
user_id = str(client_user['user_id'])
|
| 223 |
+
# Récupère le repo_slug depuis les paramètres de la requête GET
|
| 224 |
+
repo_slug = request.args.get("repo_slug")
|
| 225 |
+
|
| 226 |
+
if not repo_slug:
|
| 227 |
+
return jsonify({"success": False, "message": "Le 'repo_slug' est requis comme paramètre de requête."}), 400
|
| 228 |
+
|
| 229 |
+
# 1. Récupérer les métadonnées de la PR
|
| 230 |
+
pr_data = get_pull_request_by_id(pr_id, repo_slug, user_id)
|
| 231 |
+
|
| 232 |
+
if not pr_data:
|
| 233 |
+
return jsonify({"success": False, "message": f"Pull Request ID {pr_id} introuvable."}), 404
|
| 234 |
+
|
| 235 |
+
# 2. Récupérer le contenu du Diff pour l'affichage des changements
|
| 236 |
+
diff_content, diff_msg = get_pr_diff(pr_id, repo_slug, user_id)
|
| 237 |
+
|
| 238 |
+
# 3. Ajouter le diff à l'objet retourné (même s'il est vide/erreur)
|
| 239 |
+
pr_data['diff_content'] = diff_content
|
| 240 |
+
# pr_data['diff_message'] = diff_msg # Utile pour le debug
|
| 241 |
+
|
| 242 |
+
return jsonify({
|
| 243 |
+
"success": True,
|
| 244 |
+
"pull_request": pr_data
|
| 245 |
+
}), 200
|
| 246 |
+
|
| 247 |
+
@pr_bp.route("/api/pr/list_active_for_user", methods=["GET"])
|
| 248 |
+
@api_session_required
|
| 249 |
+
def list_active_prs_for_user_route(client_user: Dict):
|
| 250 |
+
"""
|
| 251 |
+
Route (GET) : Récupérer tous les Pull Requests actifs pour l'utilisateur
|
| 252 |
+
à travers tous ses dépôts.
|
| 253 |
+
"""
|
| 254 |
+
user_id = str(client_user['user_id'])
|
| 255 |
+
|
| 256 |
+
try:
|
| 257 |
+
# 1. Charger TOUTES les PRs de l'utilisateur (de tous les dépôts)
|
| 258 |
+
all_prs_list = load_all_user_prs(user_id)
|
| 259 |
+
|
| 260 |
+
# 2. Filtrer seulement les PRs ouvertes (Open) pour le tableau de bord
|
| 261 |
+
# (Si l'on veut seulement les PRs actives)
|
| 262 |
+
active_prs = [pr for pr in all_prs_list if pr.get('status') == 'Open']
|
| 263 |
+
|
| 264 |
+
except Exception as e:
|
| 265 |
+
logger.error(f"Erreur lors du chargement des PRs du dashboard pour l'utilisateur {user_id} : {e}")
|
| 266 |
+
return jsonify({"success": False, "message": "Erreur interne lors du chargement des Pull Requests."}), 500
|
| 267 |
+
|
| 268 |
+
|
| 269 |
+
# 3. Retourne la liste consolidée des PRs actives au format JSON
|
| 270 |
+
return jsonify({
|
| 271 |
+
"success": True,
|
| 272 |
+
"pull_requests": active_prs
|
| 273 |
+
}), 200
|
| 274 |
+
|
| 275 |
+
|
| 276 |
+
@pr_bp.route("/api/pr/create_branch", methods=["POST"])
|
| 277 |
+
@api_session_required
|
| 278 |
+
def create_pr_branch_route(client_user: Dict):
|
| 279 |
+
"""
|
| 280 |
+
Route (POST) : Créer une nouvelle branche de développement isolée
|
| 281 |
+
pour une future Pull Request.
|
| 282 |
+
|
| 283 |
+
Requiert: repo_slug et branch_name (qui sera la source_branch).
|
| 284 |
+
"""
|
| 285 |
+
user_id = str(client_user['user_id'])
|
| 286 |
+
data = request.get_json()
|
| 287 |
+
|
| 288 |
+
repo_slug = data.get("repo_slug")
|
| 289 |
+
new_branch_name = data.get("branch_name") # Nom de la nouvelle branche à créer (ex: 'feature-new-ui')
|
| 290 |
+
|
| 291 |
+
if not all([repo_slug, new_branch_name]):
|
| 292 |
+
return jsonify({
|
| 293 |
+
"success": False,
|
| 294 |
+
"message": "Données manquantes : repo_slug et branch_name sont requis."
|
| 295 |
+
}), 400
|
| 296 |
+
|
| 297 |
+
# Appel de la fonction backend qui copie les fichiers
|
| 298 |
+
success, message = create_new_pr_branch(
|
| 299 |
+
user_id=user_id,
|
| 300 |
+
repo_slug=repo_slug,
|
| 301 |
+
new_branch_name=new_branch_name
|
| 302 |
+
)
|
| 303 |
+
|
| 304 |
+
if success:
|
| 305 |
+
return jsonify({
|
| 306 |
+
"success": True,
|
| 307 |
+
"message": message,
|
| 308 |
+
"branch_name": new_branch_name
|
| 309 |
+
}), 201
|
| 310 |
+
else:
|
| 311 |
+
return jsonify({
|
| 312 |
+
"success": False,
|
| 313 |
+
"message": message
|
| 314 |
+
}), 500 # 500 Internal Server Error ou 409 Conflict si la branche existe déjà.
|
| 315 |
+
|
| 316 |
+
@pr_bp.route("/api/pr/<pr_id>/files", methods=["GET"])
|
| 317 |
+
@api_session_required
|
| 318 |
+
def get_pr_files_route(client_user: Dict, pr_id: str):
|
| 319 |
+
"""
|
| 320 |
+
Route (GET) : Obtenir la liste de tous les chemins de fichiers dans la
|
| 321 |
+
branche source (source_branch) d'une Pull Request spécifique.
|
| 322 |
+
|
| 323 |
+
Nécessite 'repo_slug' en paramètre de requête.
|
| 324 |
+
"""
|
| 325 |
+
user_id = str(client_user['user_id'])
|
| 326 |
+
# Récupère le repo_slug depuis les paramètres de la requête GET (Query Parameter)
|
| 327 |
+
repo_slug = request.args.get('repo')
|
| 328 |
+
|
| 329 |
+
if not repo_slug:
|
| 330 |
+
return jsonify({
|
| 331 |
+
"success": False,
|
| 332 |
+
"message": "Le paramètre 'repo' (repo_slug) est manquant dans la requête."
|
| 333 |
+
}), 400
|
| 334 |
+
|
| 335 |
+
# 1. Appel de la fonction backend que nous venons de créer
|
| 336 |
+
file_list, message = get_files_in_pr_branch(pr_id, repo_slug, user_id)
|
| 337 |
+
|
| 338 |
+
if not file_list and message:
|
| 339 |
+
# La fonction retourne un message d'erreur si la PR ou la branche n'est pas trouvée
|
| 340 |
+
# ou s'il y a une erreur d'API.
|
| 341 |
+
return jsonify({
|
| 342 |
+
"success": False,
|
| 343 |
+
"message": message
|
| 344 |
+
}), 404 # Ou 500 pour une erreur interne
|
| 345 |
+
|
| 346 |
+
# 2. Retourne la liste des fichiers (chemin relatif)
|
| 347 |
+
return jsonify({
|
| 348 |
+
"success": True,
|
| 349 |
+
"pr_id": pr_id,
|
| 350 |
+
"repo_slug": repo_slug,
|
| 351 |
+
"files": file_list,
|
| 352 |
+
"count": len(file_list)
|
| 353 |
+
}), 200
|
| 354 |
+
|
| 355 |
+
@pr_bp.route("/api/pr/<pr_id>/file", methods=["GET"])
|
| 356 |
+
@api_session_required
|
| 357 |
+
def get_pr_file_content_route(client_user: Dict, pr_id: str):
|
| 358 |
+
"""
|
| 359 |
+
Route (GET) : Obtenir le contenu d'un fichier spécifique dans la branche source de la PR.
|
| 360 |
+
|
| 361 |
+
Nécessite 'repo' (repo_slug) et 'path' (file_path) en paramètres de requête.
|
| 362 |
+
"""
|
| 363 |
+
user_id = str(client_user['user_id'])
|
| 364 |
+
|
| 365 |
+
repo_slug = request.args.get('repo')
|
| 366 |
+
file_path = request.args.get('path')
|
| 367 |
+
|
| 368 |
+
if not all([repo_slug, file_path]):
|
| 369 |
+
return jsonify({
|
| 370 |
+
"success": False,
|
| 371 |
+
"message": "Les paramètres 'repo' (repo_slug) et 'path' (file_path) sont requis."
|
| 372 |
+
}), 400
|
| 373 |
+
|
| 374 |
+
# 1. Appel de la fonction backend
|
| 375 |
+
content, message = get_pr_file_content(
|
| 376 |
+
pr_id=pr_id,
|
| 377 |
+
repo_slug=repo_slug,
|
| 378 |
+
user_id=user_id,
|
| 379 |
+
file_path=file_path
|
| 380 |
+
)
|
| 381 |
+
|
| 382 |
+
if content is not None:
|
| 383 |
+
return jsonify({
|
| 384 |
+
"success": True,
|
| 385 |
+
"file_path": file_path,
|
| 386 |
+
"content": content
|
| 387 |
+
}), 200
|
| 388 |
+
else:
|
| 389 |
+
return jsonify({
|
| 390 |
+
"success": False,
|
| 391 |
+
"message": message
|
| 392 |
+
}), 404
|
| 393 |
+
|
| 394 |
+
@pr_bp.route("/api/repo/<repo_slug>/branches", methods=["GET"])
|
| 395 |
+
@api_session_required
|
| 396 |
+
def get_repo_branches_route(client_user: Dict, repo_slug: str):
|
| 397 |
+
"""
|
| 398 |
+
Route (GET) : Récupère la liste de toutes les branches disponibles
|
| 399 |
+
pour un dépôt utilisateur spécifique (y compris la branche principale et les branches de PR ouvertes).
|
| 400 |
+
"""
|
| 401 |
+
user_id = str(client_user['user_id'])
|
| 402 |
+
|
| 403 |
+
if not repo_slug:
|
| 404 |
+
return jsonify({
|
| 405 |
+
"success": False,
|
| 406 |
+
"message": "Le 'repo_slug' est requis dans le chemin de l'URL."
|
| 407 |
+
}), 400
|
| 408 |
+
|
| 409 |
+
# 1. Appel de la fonction backend
|
| 410 |
+
# Assurez-vous que get_repo_branches est bien importé de pull_request_backend
|
| 411 |
+
try:
|
| 412 |
+
branches, message = get_repo_branches(repo_slug, user_id)
|
| 413 |
+
except Exception as e:
|
| 414 |
+
logger.error(f"Erreur lors de la récupération des branches pour {repo_slug}: {e}")
|
| 415 |
+
return jsonify({
|
| 416 |
+
"success": False,
|
| 417 |
+
"message": f"Erreur interne lors de la récupération des branches : {str(e)}"
|
| 418 |
+
}), 500
|
| 419 |
+
|
| 420 |
+
if message and not branches:
|
| 421 |
+
# Gérer les cas où il y a un message d'erreur et aucune branche n'a pu être récupérée
|
| 422 |
+
return jsonify({
|
| 423 |
+
"success": False,
|
| 424 |
+
"message": message
|
| 425 |
+
}), 404
|
| 426 |
+
|
| 427 |
+
return jsonify({
|
| 428 |
+
"success": True,
|
| 429 |
+
"repo_slug": repo_slug,
|
| 430 |
+
"branches": branches,
|
| 431 |
+
"count": len(branches)
|
| 432 |
+
}), 200
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/project_routes.py
ADDED
|
@@ -0,0 +1,1123 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# project_routes.py (Version SSR - Rendu Côté Serveur)
|
| 2 |
+
|
| 3 |
+
from datetime import datetime # <-- AJOUTER CECI
|
| 4 |
+
import logging # <-- NOUVEL IMPORT
|
| 5 |
+
import os # <--- AJOUTEZ CETTE LIGNE
|
| 6 |
+
from flask import Blueprint, request, jsonify, session, redirect, url_for, flash, render_template
|
| 7 |
+
import uuid
|
| 8 |
+
import json # <-- AJOUTER CECI, nécessaire pour décoder le JSON du formulaire
|
| 9 |
+
from decorators import login_required
|
| 10 |
+
from auth_backend import (
|
| 11 |
+
register_user,
|
| 12 |
+
login_user,
|
| 13 |
+
reset_password_via_security_question,
|
| 14 |
+
get_user_by_id,
|
| 15 |
+
update_user_profile,
|
| 16 |
+
# Assurez-vous d'importer toute autre fonction nécessaire ici (ex: is_email_unique)
|
| 17 |
+
)
|
| 18 |
+
|
| 19 |
+
from decorators import api_session_required
|
| 20 |
+
from huggingface_repo_manager import (
|
| 21 |
+
create_empty_repo_folder_on_hf,
|
| 22 |
+
update_user_repo_metadata,
|
| 23 |
+
get_user_repo_metadata,
|
| 24 |
+
upload_files_to_repo_backend,
|
| 25 |
+
delete_repo_folder_from_hf, # <--- AJOUTEZ CETTE LIGNE
|
| 26 |
+
list_repo_files_from_hf, # <-- DÉJÀ EXISTANT DANS LE FICHIER FOURNI
|
| 27 |
+
get_file_content_from_hf, # <-- NOUVELLE FONCTION AJOUTÉE
|
| 28 |
+
save_file_content_to_hf,
|
| 29 |
+
delete_file_from_hf_repo,
|
| 30 |
+
save_application_json_to_hf, # <--- AJOUTÉ
|
| 31 |
+
upload_application_document_to_hf, # <--- AJOUTÉ
|
| 32 |
+
update_repo_secrets_or_variables, # <--- AJOUTER CETTE LIGNE
|
| 33 |
+
get_repo_secrets_or_variables,
|
| 34 |
+
delete_repo_secret_or_variable, # <--- NOUVELLE FONCTION DE SUPPRESSION
|
| 35 |
+
)
|
| 36 |
+
logger = logging.getLogger(__name__) # <-- AJOUTER CETTE LIGNE
|
| 37 |
+
|
| 38 |
+
|
| 39 |
+
project_bp = Blueprint('project_bp', __name__)
|
| 40 |
+
|
| 41 |
+
@project_bp.route("/mindus/nexus/upload_file", methods=["GET"])
|
| 42 |
+
@login_required
|
| 43 |
+
def upload_file_page():
|
| 44 |
+
"""
|
| 45 |
+
Route dédiée pour la page d'upload de fichiers.
|
| 46 |
+
Charge les données utilisateur et les métadonnées du dépôt pour l'affichage Jinja2.
|
| 47 |
+
"""
|
| 48 |
+
user_id = session.get('user_id')
|
| 49 |
+
repo_slug = request.args.get('repo_slug')
|
| 50 |
+
|
| 51 |
+
# 1. Charger les données utilisateur complètes
|
| 52 |
+
user_data = get_user_by_id(user_id) # get_user_by_id est déjà importé
|
| 53 |
+
if user_data is None:
|
| 54 |
+
session.pop('user_id', None)
|
| 55 |
+
session.pop('logged_in', None)
|
| 56 |
+
return redirect(url_for('web_bp.connexion_page'))
|
| 57 |
+
|
| 58 |
+
# 2. Charger les métadonnées pour trouver le nom du dépôt
|
| 59 |
+
repo_name = None
|
| 60 |
+
if repo_slug:
|
| 61 |
+
# get_user_repo_metadata est déjà importé
|
| 62 |
+
metadata, _ = get_user_repo_metadata(user_id)
|
| 63 |
+
if metadata and metadata.get("repos"):
|
| 64 |
+
# Trouver le nom du dépôt correspondant au slug
|
| 65 |
+
repo = next((r for r in metadata["repos"] if r.get('repo_slug') == repo_slug), None)
|
| 66 |
+
if repo:
|
| 67 |
+
repo_name = repo.get('repo_name')
|
| 68 |
+
|
| 69 |
+
# CORRECTION de l'affichage: Assurer qu'il y a une valeur non-None pour le template
|
| 70 |
+
# Même si le repo_name n'est pas trouvé dans les métadonnées, on passe le repo_slug
|
| 71 |
+
# qui sera affiché par le template si repo_name est None.
|
| 72 |
+
|
| 73 |
+
# 3. Passer l'objet 'user', le nom (repo_name) et le slug du dépôt au template
|
| 74 |
+
return render_template(
|
| 75 |
+
"upload_file.html",
|
| 76 |
+
user=user_data,
|
| 77 |
+
repo_name=repo_name,
|
| 78 |
+
repo_slug=repo_slug # Nécessaire pour les liens et actions JavaScript
|
| 79 |
+
)
|
| 80 |
+
|
| 81 |
+
|
| 82 |
+
|
| 83 |
+
@project_bp.route("/mindus/nexus/nouveau_project", methods=["GET"])
|
| 84 |
+
@login_required
|
| 85 |
+
def nouveau_project_page_with_user_context():
|
| 86 |
+
"""
|
| 87 |
+
Route dédiée pour la page de création de projet (nouveau_project.html).
|
| 88 |
+
Injecte l'objet 'user' dans le contexte du template pour résoudre l'erreur Jinja2.
|
| 89 |
+
"""
|
| 90 |
+
user_id = session.get('user_id')
|
| 91 |
+
|
| 92 |
+
# 1. Charger les données utilisateur complètes depuis le backend
|
| 93 |
+
# get_user_by_id est déjà importé en haut du fichier.
|
| 94 |
+
user_data = get_user_by_id(user_id)
|
| 95 |
+
|
| 96 |
+
if user_data is None:
|
| 97 |
+
# Sécurité : Si les données ne sont pas trouvées, on déconnecte et redirige
|
| 98 |
+
session.pop('user_id', None)
|
| 99 |
+
session.pop('logged_in', None)
|
| 100 |
+
return redirect(url_for('user_bp.login_user_api'))
|
| 101 |
+
|
| 102 |
+
# 2. Passer l'objet 'user' au template (Ceci corrige l'erreur)
|
| 103 |
+
return render_template("nouveau_project.html", user=user_data)
|
| 104 |
+
|
| 105 |
+
|
| 106 |
+
@project_bp.route("/mindus/nexus/repo_files", methods=["GET"])
|
| 107 |
+
@login_required
|
| 108 |
+
def get_repo_files_page():
|
| 109 |
+
user_id = session.get('user_id')
|
| 110 |
+
|
| 111 |
+
# Étape 1: Assurez-vous de récupérer le repo_slug de l'URL (qui devrait être présent)
|
| 112 |
+
repo_slug = request.args.get('repo_slug')
|
| 113 |
+
|
| 114 |
+
if not repo_slug:
|
| 115 |
+
# Gérer le cas où le slug est manquant (ex: redirection vers le dashboard)
|
| 116 |
+
flash("Dépôt non spécifié.", "error")
|
| 117 |
+
return redirect(url_for('user_bp.dashboard'))
|
| 118 |
+
|
| 119 |
+
|
| 120 |
+
# Étape 2: Assurez-vous de passer repo_slug au template
|
| 121 |
+
return render_template(
|
| 122 |
+
'repo_files.html',
|
| 123 |
+
user=get_user_by_id(user_id),
|
| 124 |
+
repo_slug=repo_slug,
|
| 125 |
+
# ... autres variables (file_list, repo_name, etc.)
|
| 126 |
+
)
|
| 127 |
+
|
| 128 |
+
@project_bp.route("/mindus/nexus/pull_requests", methods=["GET"])
|
| 129 |
+
@login_required
|
| 130 |
+
def get_pull_requests_page():
|
| 131 |
+
"""
|
| 132 |
+
Route dédiée pour la page de gestion des Pull Requests (pull_requests.html).
|
| 133 |
+
Récupère repo_slug de l'URL et injecte l'objet 'user' dans le contexte.
|
| 134 |
+
"""
|
| 135 |
+
user_id = session.get('user_id')
|
| 136 |
+
|
| 137 |
+
# 1. Assurez-vous de récupérer le repo_slug de l'URL
|
| 138 |
+
repo_slug = request.args.get('repo_slug')
|
| 139 |
+
|
| 140 |
+
# 2. Gestion si le slug est manquant
|
| 141 |
+
if not repo_slug:
|
| 142 |
+
flash("Dépôt non spécifié pour les Pull Requests.", "error")
|
| 143 |
+
return redirect(url_for('user_bp.dashboard'))
|
| 144 |
+
|
| 145 |
+
# 3. Charger les données utilisateur (nécessaire pour le contexte Jinja2)
|
| 146 |
+
user_data = get_user_by_id(user_id)
|
| 147 |
+
|
| 148 |
+
# 4. Rendu du template avec le contexte
|
| 149 |
+
return render_template(
|
| 150 |
+
'pull_requests.html',
|
| 151 |
+
user=user_data,
|
| 152 |
+
repo_slug=repo_slug # Passage du slug au template
|
| 153 |
+
)
|
| 154 |
+
|
| 155 |
+
@project_bp.route("/mindus/nexus/new_pull_requests", methods=["GET"])
|
| 156 |
+
@login_required
|
| 157 |
+
def get_new_pull_requests_page():
|
| 158 |
+
"""
|
| 159 |
+
Route dédiée pour la page de création d'une nouvelle Pull Request (new_pull_requests.html).
|
| 160 |
+
Récupère repo_slug de l'URL et injecte l'objet 'user' dans le contexte.
|
| 161 |
+
"""
|
| 162 |
+
user_id = session.get('user_id')
|
| 163 |
+
|
| 164 |
+
# 1. Assurez-vous de récupérer le repo_slug de l'URL
|
| 165 |
+
repo_slug = request.args.get('repo_slug')
|
| 166 |
+
|
| 167 |
+
# 2. Gestion si le slug est manquant
|
| 168 |
+
if not repo_slug:
|
| 169 |
+
flash("Dépôt non spécifié pour la création de Pull Request.", "error")
|
| 170 |
+
return redirect(url_for('user_bp.dashboard'))
|
| 171 |
+
|
| 172 |
+
# 3. Charger les données utilisateur (nécessaire pour le contexte Jinja2)
|
| 173 |
+
user_data = get_user_by_id(user_id)
|
| 174 |
+
|
| 175 |
+
# 4. Rendu du template avec le contexte
|
| 176 |
+
return render_template(
|
| 177 |
+
'new_pull_requests.html',
|
| 178 |
+
user=user_data,
|
| 179 |
+
repo_slug=repo_slug # Passage du slug au template
|
| 180 |
+
)
|
| 181 |
+
|
| 182 |
+
|
| 183 |
+
@project_bp.route("/mindus/nexus/issues", methods=["GET"])
|
| 184 |
+
@login_required
|
| 185 |
+
def get_issues_list_page():
|
| 186 |
+
"""
|
| 187 |
+
Route (SSR) pour afficher la liste des Issues d'un dépôt (issues.html).
|
| 188 |
+
Nécessite 'repo_slug' en paramètre de requête.
|
| 189 |
+
"""
|
| 190 |
+
user_id = session.get('user_id')
|
| 191 |
+
repo_slug = request.args.get('repo_slug')
|
| 192 |
+
|
| 193 |
+
if not repo_slug:
|
| 194 |
+
flash("Dépôt non spécifié pour les Issues.", "error")
|
| 195 |
+
return redirect(url_for('user_bp.dashboard'))
|
| 196 |
+
|
| 197 |
+
# Charger les données utilisateur (get_user_by_id est déjà importé)
|
| 198 |
+
user_data = get_user_by_id(user_id)
|
| 199 |
+
|
| 200 |
+
return render_template(
|
| 201 |
+
'issues.html',
|
| 202 |
+
user=user_data,
|
| 203 |
+
repo_slug=repo_slug # Passage du slug au template
|
| 204 |
+
)
|
| 205 |
+
|
| 206 |
+
|
| 207 |
+
@project_bp.route("/mindus/nexus/new_issue", methods=["GET"])
|
| 208 |
+
@login_required
|
| 209 |
+
def get_new_issue_page():
|
| 210 |
+
"""
|
| 211 |
+
Route (SSR) pour afficher le formulaire de création de nouvelle Issue (new_issue.html).
|
| 212 |
+
Nécessite 'repo_slug' en paramètre de requête.
|
| 213 |
+
"""
|
| 214 |
+
user_id = session.get('user_id')
|
| 215 |
+
repo_slug = request.args.get('repo_slug')
|
| 216 |
+
|
| 217 |
+
if not repo_slug:
|
| 218 |
+
flash("Dépôt non spécifié pour la création d'Issue.", "error")
|
| 219 |
+
return redirect(url_for('user_bp.dashboard'))
|
| 220 |
+
|
| 221 |
+
# Charger les données utilisateur (get_user_by_id est déjà importé)
|
| 222 |
+
user_data = get_user_by_id(user_id)
|
| 223 |
+
|
| 224 |
+
return render_template(
|
| 225 |
+
'new_issue.html',
|
| 226 |
+
user=user_data,
|
| 227 |
+
repo_slug=repo_slug # Passage du slug au template
|
| 228 |
+
)
|
| 229 |
+
|
| 230 |
+
@project_bp.route("/mindus/nexus/create_new_issue", methods=["GET"])
|
| 231 |
+
@login_required
|
| 232 |
+
def get_create_new_issue_page():
|
| 233 |
+
"""
|
| 234 |
+
Route dédiée pour la page de création d'une nouvelle Pull Request (new_pull_requests.html).
|
| 235 |
+
Récupère repo_slug de l'URL et injecte l'objet 'user' dans le contexte.
|
| 236 |
+
"""
|
| 237 |
+
user_id = session.get('user_id')
|
| 238 |
+
|
| 239 |
+
# 1. Assurez-vous de récupérer le repo_slug de l'URL
|
| 240 |
+
repo_slug = request.args.get('repo_slug')
|
| 241 |
+
|
| 242 |
+
# 2. Gestion si le slug est manquant
|
| 243 |
+
if not repo_slug:
|
| 244 |
+
flash("Dépôt non spécifié pour la création de Pull Request.", "error")
|
| 245 |
+
return redirect(url_for('user_bp.dashboard'))
|
| 246 |
+
|
| 247 |
+
# 3. Charger les données utilisateur (nécessaire pour le contexte Jinja2)
|
| 248 |
+
user_data = get_user_by_id(user_id)
|
| 249 |
+
|
| 250 |
+
# 4. Rendu du template avec le contexte
|
| 251 |
+
return render_template(
|
| 252 |
+
'create_new_issue.html',
|
| 253 |
+
user=user_data,
|
| 254 |
+
repo_slug=repo_slug # Passage du slug au template
|
| 255 |
+
)
|
| 256 |
+
|
| 257 |
+
|
| 258 |
+
@project_bp.route("/mindus/nexus/media_image")
|
| 259 |
+
@login_required
|
| 260 |
+
def get_media_image():
|
| 261 |
+
user_id = session.get('user_id')
|
| 262 |
+
|
| 263 |
+
# 1. Charger les données utilisateur
|
| 264 |
+
# Assurez-vous que get_user_by_id est bien importé (il l'est déjà dans ce fichier)
|
| 265 |
+
user_data = get_user_by_id(user_id)
|
| 266 |
+
|
| 267 |
+
if user_data is None:
|
| 268 |
+
# Sécurité : Si les données ne sont pas trouvées, on déconnecte et redirige
|
| 269 |
+
session.pop('user_id', None)
|
| 270 |
+
session.pop('logged_in', None)
|
| 271 |
+
# Assurez-vous que la redirection vers la page de connexion est correcte
|
| 272 |
+
return redirect(url_for('web_bp.connexion_page'))
|
| 273 |
+
|
| 274 |
+
# 2. Passer les données utilisateur au template
|
| 275 |
+
# Si le template attend 'current_user', utilisez ce nom.
|
| 276 |
+
# Dans le cas où d'autres routes utilisent 'user', vous pouvez aussi le passer sous ce nom.
|
| 277 |
+
return render_template(
|
| 278 |
+
'media_image.html',
|
| 279 |
+
current_user=user_data, # <-- AJOUT CLÉ
|
| 280 |
+
user=user_data # (Optionnel) Ajout de 'user' par précaution
|
| 281 |
+
)
|
| 282 |
+
|
| 283 |
+
@project_bp.route('/api/create_repo', methods=['POST'])
|
| 284 |
+
@api_session_required
|
| 285 |
+
def create_repo(client_user):
|
| 286 |
+
"""
|
| 287 |
+
Gère la création d'un nouveau dépôt utilisateur:
|
| 288 |
+
1. Crée la structure de dossier (user_id/repo_slug/) sur Hugging Face (via README.md).
|
| 289 |
+
2. Met à jour le fichier de métadonnées utilisateur (user_id/metadata.json) sur HF.
|
| 290 |
+
"""
|
| 291 |
+
# CORRECTION : Utiliser 'user_id' car c'est la clé définie dans baserow_storage.py
|
| 292 |
+
user_id = client_user.get('user_id')
|
| 293 |
+
|
| 294 |
+
# Si 'user_id' est toujours None, c'est que l'utilisateur n'est pas correctement authentifié
|
| 295 |
+
# ou que l'objet client_user est incomplet.
|
| 296 |
+
if not user_id:
|
| 297 |
+
# Ceci est la réponse que vous voyez actuellement au frontend.
|
| 298 |
+
return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
|
| 299 |
+
|
| 300 |
+
data = request.get_json()
|
| 301 |
+
repo_name = data.get('repo_name', '').strip()
|
| 302 |
+
visibility = data.get('visibility', 'public')
|
| 303 |
+
description = data.get('description', '')
|
| 304 |
+
gitignore_template = data.get('gitignore_template')
|
| 305 |
+
license_template = data.get('license_template')
|
| 306 |
+
|
| 307 |
+
if not repo_name:
|
| 308 |
+
return jsonify({"success": False, "message": "Le nom du dépôt est obligatoire."}), 400
|
| 309 |
+
|
| 310 |
+
# 1. Générer un identifiant unique pour le déploiement/dépôt (UUID)
|
| 311 |
+
deploy_id = str(uuid.uuid4())
|
| 312 |
+
# Créer un slug pour le dossier (version simplifiée)
|
| 313 |
+
repo_slug = repo_name.lower().replace(' ', '-')
|
| 314 |
+
|
| 315 |
+
try:
|
| 316 |
+
# 2. Créer la structure de dossier (dossier principal/sous-dossier du dépôt) sur Hugging Face
|
| 317 |
+
success_hf_creation, hf_message = create_empty_repo_folder_on_hf(
|
| 318 |
+
repo_slug=repo_slug,
|
| 319 |
+
user_id=user_id # Utilise l'ID utilisateur réel
|
| 320 |
+
)
|
| 321 |
+
|
| 322 |
+
if not success_hf_creation:
|
| 323 |
+
logger.error(f"Échec de la création du dossier HF pour {user_id}/{repo_slug}: {hf_message}")
|
| 324 |
+
return jsonify({"success": False, "message": f"Échec de la création du dépôt sur Hugging Face: {hf_message}"}), 500
|
| 325 |
+
|
| 326 |
+
# Le chemin complet du dépôt dans le dataset HF
|
| 327 |
+
hf_repo_path = f"{user_id}/{repo_slug}"
|
| 328 |
+
|
| 329 |
+
# 3. Préparer les métadonnées à enregistrer
|
| 330 |
+
new_repo_data = {
|
| 331 |
+
"FIELD_DEPLOY_ID": deploy_id,
|
| 332 |
+
"FIELD_USER_REF": user_id,
|
| 333 |
+
"FIELD_HF_REPO_PATH": hf_repo_path,
|
| 334 |
+
"repo_name": repo_name,
|
| 335 |
+
"repo_slug": repo_slug,
|
| 336 |
+
"description": description,
|
| 337 |
+
"visibility": visibility,
|
| 338 |
+
"gitignore_template": gitignore_template,
|
| 339 |
+
"license_template": license_template,
|
| 340 |
+
"created_at": datetime.now().isoformat(),
|
| 341 |
+
"status": "initialised"
|
| 342 |
+
}
|
| 343 |
+
|
| 344 |
+
# 4. Mettre à jour le fichier metadata.json de l'utilisateur
|
| 345 |
+
success_metadata, metadata_message = update_user_repo_metadata(
|
| 346 |
+
user_id=user_id,
|
| 347 |
+
new_repo_data=new_repo_data
|
| 348 |
+
)
|
| 349 |
+
|
| 350 |
+
if not success_metadata:
|
| 351 |
+
logger.critical(f"Dépôt {deploy_id} créé sur HF, mais ÉCHEC CRITIQUE de mise à jour des métadonnées pour {user_id}: {metadata_message}")
|
| 352 |
+
return jsonify({"success": False, "message": f"Dépôt créé, mais ÉCHEC CRITIQUE de la mise à jour des métadonnées. Contactez le support."}), 500
|
| 353 |
+
|
| 354 |
+
# 5. Succès
|
| 355 |
+
# Le succès enverra cette réponse, déclenchant la redirection du frontend vers repo_files.html
|
| 356 |
+
return jsonify({
|
| 357 |
+
"success": True,
|
| 358 |
+
"message": f"Dépôt '{repo_name}' créé et enregistré avec succès.",
|
| 359 |
+
"deploy_id": deploy_id,
|
| 360 |
+
"repo_slug": repo_slug, # Clé pour la redirection côté frontend
|
| 361 |
+
}), 201
|
| 362 |
+
|
| 363 |
+
except Exception as e:
|
| 364 |
+
logger.exception(f"Erreur inattendue lors de la création du dépôt pour {user_id}: {e}")
|
| 365 |
+
return jsonify({"success": False, "message": f"Erreur interne lors du traitement: {str(e)}"}), 500
|
| 366 |
+
|
| 367 |
+
@project_bp.route('/api/repos', methods=['GET'])
|
| 368 |
+
@api_session_required
|
| 369 |
+
def get_user_repos(client_user):
|
| 370 |
+
"""
|
| 371 |
+
Récupère la liste de tous les dépôts (repos) de l'utilisateur à partir de ses métadonnées HF.
|
| 372 |
+
"""
|
| 373 |
+
user_id = client_user.get('user_id')
|
| 374 |
+
|
| 375 |
+
if not user_id:
|
| 376 |
+
return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
|
| 377 |
+
|
| 378 |
+
try:
|
| 379 |
+
# get_user_repo_metadata est importé de huggingface_storage
|
| 380 |
+
metadata, message = get_user_repo_metadata(user_id)
|
| 381 |
+
|
| 382 |
+
if metadata and metadata.get("repos"):
|
| 383 |
+
# Retourne uniquement la liste des dépôts
|
| 384 |
+
# triée par date de création (du plus récent au plus ancien)
|
| 385 |
+
repos = metadata["repos"]
|
| 386 |
+
# Assurez-vous d'avoir 'created_at' pour le tri, sinon utilisez une autre clé
|
| 387 |
+
repos.sort(key=lambda x: x.get('created_at', ''), reverse=True)
|
| 388 |
+
|
| 389 |
+
# Ne retournez que les champs nécessaires pour le dashboard
|
| 390 |
+
simplified_repos = [
|
| 391 |
+
{
|
| 392 |
+
"repo_name": repo.get("repo_name", "N/A"),
|
| 393 |
+
"repo_slug": repo.get("repo_slug", "N/A"),
|
| 394 |
+
"description": repo.get("description", "Pas de description fournie."),
|
| 395 |
+
"visibility": repo.get("visibility", "public").capitalize(),
|
| 396 |
+
"deploy_id": repo.get("FIELD_DEPLOY_ID", "N/A"),
|
| 397 |
+
# Utilisez un champ d'exemple pour la date de modification/création
|
| 398 |
+
"last_modified": repo.get("created_at", datetime.now().isoformat()),
|
| 399 |
+
} for repo in repos
|
| 400 |
+
]
|
| 401 |
+
|
| 402 |
+
return jsonify({"success": True, "repos": simplified_repos})
|
| 403 |
+
else:
|
| 404 |
+
# Aucun dépôt trouvé ou metadata non initialisé
|
| 405 |
+
return jsonify({"success": True, "repos": []})
|
| 406 |
+
|
| 407 |
+
except Exception as e:
|
| 408 |
+
logger.exception(f"Erreur lors de la récupération des dépôts HF pour {user_id}: {e}")
|
| 409 |
+
return jsonify({"success": False, "message": f"Erreur interne lors de l'accès aux dépôts: {str(e)}"}), 500
|
| 410 |
+
|
| 411 |
+
@project_bp.route('/api/files/<repo_slug>/upload', methods=['POST'])
|
| 412 |
+
@api_session_required
|
| 413 |
+
def upload_files_to_repo(client_user, repo_slug):
|
| 414 |
+
"""
|
| 415 |
+
Gère le téléversement de plusieurs fichiers vers un dépôt utilisateur spécifique.
|
| 416 |
+
"""
|
| 417 |
+
user_id = client_user.get('user_id')
|
| 418 |
+
|
| 419 |
+
if not user_id:
|
| 420 |
+
return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
|
| 421 |
+
|
| 422 |
+
# ... (le code pour la récupération des fichiers et du formulaire)
|
| 423 |
+
if 'files' not in request.files:
|
| 424 |
+
return jsonify({"success": False, "message": "Aucun fichier n'a été sélectionné pour le téléversement."}), 400
|
| 425 |
+
|
| 426 |
+
commit_title = request.form.get('commit_title', "Add files via upload")
|
| 427 |
+
commit_description = request.form.get('commit_description', "")
|
| 428 |
+
branch_name = request.form.get('branch_name', 'main')
|
| 429 |
+
|
| 430 |
+
uploaded_files = request.files.getlist('files')
|
| 431 |
+
|
| 432 |
+
if not uploaded_files:
|
| 433 |
+
return jsonify({"success": False, "message": "Aucun fichier valide n'a été trouvé dans la requête."}), 400
|
| 434 |
+
|
| 435 |
+
# --- ÉTAPE CLÉ : Appel de la fonction du backend (DÉSORMAIS ACTIF) ---
|
| 436 |
+
success, message = upload_files_to_repo_backend(
|
| 437 |
+
user_id=user_id,
|
| 438 |
+
repo_slug=repo_slug,
|
| 439 |
+
files=uploaded_files,
|
| 440 |
+
commit_message=commit_title,
|
| 441 |
+
commit_description=commit_description,
|
| 442 |
+
branch=branch_name
|
| 443 |
+
)
|
| 444 |
+
|
| 445 |
+
if success:
|
| 446 |
+
# --- MODIFICATION CLÉ ICI ---
|
| 447 |
+
# 1. Générer l'URL de redirection vers la page repo_files.html
|
| 448 |
+
redirect_url = url_for('project_bp.get_repo_files_page', repo_slug=repo_slug)
|
| 449 |
+
|
| 450 |
+
# 2. Renvoyer le 'redirect' dans la réponse JSON pour que le frontend le suive
|
| 451 |
+
return jsonify({
|
| 452 |
+
"success": True,
|
| 453 |
+
"message": message,
|
| 454 |
+
"redirect": redirect_url, # <-- AJOUT DE LA REDIRECTION
|
| 455 |
+
}), 200
|
| 456 |
+
else:
|
| 457 |
+
# Échec : Retourne l'erreur reçue du backend HF
|
| 458 |
+
return jsonify({"success": False, "message": message}), 500 # Statut 500 pour Erreur Serveur Interne
|
| 459 |
+
|
| 460 |
+
|
| 461 |
+
@project_bp.route('/api/repo_data/<repo_slug>', methods=['GET'])
|
| 462 |
+
@api_session_required
|
| 463 |
+
def get_repo_data(client_user, repo_slug):
|
| 464 |
+
"""
|
| 465 |
+
Récupère la liste des fichiers, le contenu du README.md et les métadonnées
|
| 466 |
+
du dépôt pour l'affichage de la page repo_files.html.
|
| 467 |
+
"""
|
| 468 |
+
user_id = client_user.get('user_id')
|
| 469 |
+
|
| 470 |
+
if not user_id:
|
| 471 |
+
return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
|
| 472 |
+
|
| 473 |
+
response_data = {}
|
| 474 |
+
|
| 475 |
+
# 1. Récupérer les métadonnées spécifiques du dépôt (Pour la carte 'About')
|
| 476 |
+
try:
|
| 477 |
+
user_metadata, _ = get_user_repo_metadata(user_id)
|
| 478 |
+
repo_metadata = next(
|
| 479 |
+
(repo for repo in user_metadata.get("repos", []) if repo.get("repo_slug") == repo_slug),
|
| 480 |
+
None
|
| 481 |
+
)
|
| 482 |
+
|
| 483 |
+
if not repo_metadata:
|
| 484 |
+
return jsonify({"success": False, "message": f"Dépôt '{repo_slug}' non trouvé dans les métadonnées de l'utilisateur."}), 404
|
| 485 |
+
|
| 486 |
+
# Simplifier les métadonnées pour le frontend
|
| 487 |
+
repo_info = {
|
| 488 |
+
"repo_name": repo_metadata.get("repo_name", repo_slug),
|
| 489 |
+
"description": repo_metadata.get("description", f"{repo_slug} for developers"),
|
| 490 |
+
"visibility": repo_metadata.get("visibility", "Private"),
|
| 491 |
+
# Les données dynamiques (watching, stars, forks) sont à 0 pour l'instant
|
| 492 |
+
"license": repo_metadata.get("license_template", "No license"),
|
| 493 |
+
}
|
| 494 |
+
response_data['repo_info'] = repo_info
|
| 495 |
+
except Exception as e:
|
| 496 |
+
logger.error(f"Erreur lors de la récupération des métadonnées du dépôt {user_id}/{repo_slug}: {e}")
|
| 497 |
+
# Continuer même en cas d'erreur de métadonnées pour charger au moins les fichiers
|
| 498 |
+
response_data['repo_info'] = {}
|
| 499 |
+
|
| 500 |
+
# 2. Récupérer la liste des fichiers du dépôt
|
| 501 |
+
file_list, file_message = list_repo_files_from_hf(repo_slug, user_id)
|
| 502 |
+
|
| 503 |
+
if not file_list and "404" in file_message:
|
| 504 |
+
# Le dépôt existe dans les métadonnées mais est vide sur HF (pas de fichiers)
|
| 505 |
+
response_data['file_list'] = []
|
| 506 |
+
elif not file_list:
|
| 507 |
+
logger.error(f"Échec de la liste des fichiers pour {user_id}/{repo_slug}: {file_message}")
|
| 508 |
+
return jsonify({"success": False, "message": f"Échec de la récupération des fichiers: {file_message}"}), 500
|
| 509 |
+
else:
|
| 510 |
+
# Trier et structurer les données de fichiers pour le frontend
|
| 511 |
+
# (Vous pouvez implémenter un tri par type/nom ici si nécessaire)
|
| 512 |
+
response_data['file_list'] = file_list
|
| 513 |
+
|
| 514 |
+
# 3. Récupérer le contenu du README.md
|
| 515 |
+
readme_path = f"{user_id}/{repo_slug}/README.md"
|
| 516 |
+
readme_content, readme_message = get_file_content_from_hf(readme_path)
|
| 517 |
+
|
| 518 |
+
if readme_content:
|
| 519 |
+
response_data['readme_content'] = readme_content
|
| 520 |
+
else:
|
| 521 |
+
# README.md est optionnel
|
| 522 |
+
logger.info(f"README.md non trouvé ou erreur pour {user_id}/{repo_slug}: {readme_message}")
|
| 523 |
+
response_data['readme_content'] = f"Pas de fichier README.md trouvé pour le dépôt {repo_slug}."
|
| 524 |
+
|
| 525 |
+
# 4. Succès
|
| 526 |
+
return jsonify({"success": True, "data": response_data}), 200
|
| 527 |
+
|
| 528 |
+
@project_bp.route("/api/file_content/<repo_slug>", methods=["GET"])
|
| 529 |
+
@api_session_required
|
| 530 |
+
def get_file_content_api(repo_slug, client_user):
|
| 531 |
+
"""
|
| 532 |
+
Route API pour récupérer le contenu d'un fichier spécifique dans un dépôt.
|
| 533 |
+
URL: /api/file_content/<repo_slug>?path=<file_path>
|
| 534 |
+
"""
|
| 535 |
+
# Récupérer l'ID utilisateur depuis le décorateur de session
|
| 536 |
+
user_id = client_user.get('user_id')
|
| 537 |
+
# Récupérer le chemin du fichier depuis le paramètre de requête 'path'
|
| 538 |
+
file_path = request.args.get('path')
|
| 539 |
+
|
| 540 |
+
if not user_id:
|
| 541 |
+
return jsonify({"success": False, "message": "Unauthorized. Missing user ID in session."}), 401
|
| 542 |
+
|
| 543 |
+
if not file_path:
|
| 544 |
+
return jsonify({"success": False, "message": "Missing 'path' query parameter."}), 400
|
| 545 |
+
|
| 546 |
+
# 1. Définir le préfixe de base du dépôt attendu dans le repo HF
|
| 547 |
+
repo_base_prefix = f"{user_id}/{repo_slug}/"
|
| 548 |
+
|
| 549 |
+
|
| 550 |
+
# Si le chemin reçu commence déjà par le préfixe du repo, on l'utilise tel quel.
|
| 551 |
+
if file_path.startswith(repo_base_prefix):
|
| 552 |
+
file_path_in_repo = file_path
|
| 553 |
+
# Si le chemin ne contient QUE le nom du fichier (Ex: Entreprises.html)
|
| 554 |
+
# ou un chemin relatif à la racine du dépôt (Ex: css/style.css), on le construit.
|
| 555 |
+
else:
|
| 556 |
+
file_path_in_repo = f"{user_id}/{repo_slug}/{file_path}"
|
| 557 |
+
|
| 558 |
+
|
| 559 |
+
# 1. Vérifie si le chemin contient l'ID du dataset principal dans sa structure
|
| 560 |
+
if "datasets/" in file_path:
|
| 561 |
+
# Tenter d'extraire la partie 'user_id/repo_slug/fichier'
|
| 562 |
+
try:
|
| 563 |
+
|
| 564 |
+
# Solution la plus simple et la plus fiable si le front-end envoie un chemin partiel (ex: 'Entreprises.html'):
|
| 565 |
+
file_path_in_repo = f"{user_id}/{repo_slug}/{file_path.split('/')[-1]}"
|
| 566 |
+
|
| 567 |
+
except:
|
| 568 |
+
# Si l'extraction échoue, on revient à la construction simple
|
| 569 |
+
file_path_in_repo = f"{user_id}/{repo_slug}/{file_path}"
|
| 570 |
+
|
| 571 |
+
# 2. Si le front-end a envoyé le chemin complet (user_id/repo_slug/fichier.ext), on l'utilise
|
| 572 |
+
elif file_path.startswith(user_id):
|
| 573 |
+
file_path_in_repo = file_path
|
| 574 |
+
|
| 575 |
+
# 3. Si le front-end a envoyé le chemin relatif (fichier.ext), on le construit
|
| 576 |
+
else:
|
| 577 |
+
file_path_in_repo = f"{user_id}/{repo_slug}/{file_path}"
|
| 578 |
+
|
| 579 |
+
|
| 580 |
+
# Appel de la fonction manager avec le chemin complet
|
| 581 |
+
# Note : La fonction n'attend qu'un seul argument de chemin
|
| 582 |
+
file_content, error_message = get_file_content_from_hf(
|
| 583 |
+
file_path_in_repo=file_path_in_repo,
|
| 584 |
+
repo_id=None # Utiliser la valeur par défaut HF_DATASET_REPO_ID dans la fonction
|
| 585 |
+
)
|
| 586 |
+
|
| 587 |
+
|
| 588 |
+
if file_content is not None:
|
| 589 |
+
# Succès
|
| 590 |
+
return jsonify({
|
| 591 |
+
"success": True,
|
| 592 |
+
"file_content": file_content
|
| 593 |
+
}), 200
|
| 594 |
+
else:
|
| 595 |
+
# Échec
|
| 596 |
+
# Utiliser un code 404 si le fichier n'existe pas, 500 pour les autres erreurs
|
| 597 |
+
status_code = 404 if "non trouvé" in error_message.lower() or "not found" in error_message.lower() else 500
|
| 598 |
+
return jsonify({"success": False, "message": f"Failed to retrieve file content: {error_message}"}), status_code
|
| 599 |
+
|
| 600 |
+
# PAR CES TROIS LIGNES:
|
| 601 |
+
# 1. Gère /live/<repo_slug> (sans slash final) -> Doit rediriger.
|
| 602 |
+
@project_bp.route("/live/<repo_slug>", methods=["GET"], defaults={'file_path': ''})
|
| 603 |
+
# 2. Gère /live/<repo_slug>/ (avec slash final, la racine du site) -> Sert index.html.
|
| 604 |
+
@project_bp.route("/live/<repo_slug>/", methods=["GET"], defaults={'file_path': 'index.html'})
|
| 605 |
+
# 3. Gère /live/<repo_slug>/file.html (tous les autres fichiers).
|
| 606 |
+
@project_bp.route("/live/<repo_slug>/<path:file_path>", methods=["GET"])
|
| 607 |
+
def get_live_deployment(repo_slug, file_path):
|
| 608 |
+
"""
|
| 609 |
+
Route simulant le déploiement en direct d'un site statique.
|
| 610 |
+
"""
|
| 611 |
+
|
| 612 |
+
# NOUVEAU: 1. VÉRIFIER ET FORCER LA BARRE OBLIQUE (TRAILING SLASH)
|
| 613 |
+
# Cette vérification ne se déclenchera que si la première route est utilisée.
|
| 614 |
+
if not file_path and not request.path.endswith('/'):
|
| 615 |
+
# Rediriger vers l'URL avec un slash final. Ex: /live/slug -> /live/slug/
|
| 616 |
+
# url_for génère correctement la nouvelle URL qui correspondra à la route #2.
|
| 617 |
+
return redirect(url_for('.get_live_deployment', repo_slug=repo_slug), code=302)
|
| 618 |
+
|
| 619 |
+
# Tenter de récupérer l'ID de l'utilisateur connecté (propriétaire)
|
| 620 |
+
user_id = session.get('user_id')
|
| 621 |
+
|
| 622 |
+
if not user_id:
|
| 623 |
+
# Pour une démo de site statique public, cette vérification est problématique si l'utilisateur est déconnecté.
|
| 624 |
+
# Pour l'instant, nous la gardons pour la sécurité mais cela peut causer le 404 si l'utilisateur n'est pas loggé.
|
| 625 |
+
return "Erreur 401: Non autorisé. ID utilisateur manquant dans la session. (Connexion requise).", 401
|
| 626 |
+
|
| 627 |
+
|
| 628 |
+
# 2. Déterminer le nom du fichier à charger
|
| 629 |
+
# Si la route par défaut 2 a été utilisée, file_path est 'index.html'. Sinon, il contient le chemin complet.
|
| 630 |
+
file_to_load = file_path.lstrip('/')
|
| 631 |
+
|
| 632 |
+
# 3. Définir le chemin complet du fichier dans le repo HF
|
| 633 |
+
# Structure: user_id/repo_slug/file_to_load
|
| 634 |
+
hf_file_path = f"{user_id}/{repo_slug}/{file_to_load}"
|
| 635 |
+
|
| 636 |
+
# 4. Récupérer le contenu
|
| 637 |
+
content, message = get_file_content_from_hf(hf_file_path)
|
| 638 |
+
|
| 639 |
+
if content:
|
| 640 |
+
# 5. Retourner le contenu HTML brut
|
| 641 |
+
return content, 200, {'Content-Type': 'text/html'}
|
| 642 |
+
else:
|
| 643 |
+
# Gérer l'erreur de fichier non trouvé
|
| 644 |
+
logger.error(f"Échec du déploiement en direct pour {repo_slug} ({file_to_load}): {message}")
|
| 645 |
+
|
| 646 |
+
return render_template(
|
| 647 |
+
"deployment_error.html",
|
| 648 |
+
message=f"Impossible de trouver le fichier {file_to_load} dans le dépôt '{repo_slug}'.",
|
| 649 |
+
repo_slug=repo_slug
|
| 650 |
+
), 404
|
| 651 |
+
|
| 652 |
+
|
| 653 |
+
@project_bp.route("/mindus/nexus/commit_file", methods=["POST"])
|
| 654 |
+
@api_session_required
|
| 655 |
+
def commit_file(client_user): # <-- AJOUTER 'client_user' ici
|
| 656 |
+
"""
|
| 657 |
+
Crée ou met à jour un fichier dans un dépôt d'utilisateur sur HF.
|
| 658 |
+
"""
|
| 659 |
+
# Utiliser l'ID fourni par le décorateur, ou session si besoin
|
| 660 |
+
user_id = client_user.get('user_id')
|
| 661 |
+
data = request.json
|
| 662 |
+
|
| 663 |
+
# Validation des données (user_id est maintenant mieux géré)
|
| 664 |
+
repo_slug = data.get('repo_slug')
|
| 665 |
+
file_path = data.get('file_path') # Chemin relatif (ex: 'index.html')
|
| 666 |
+
file_content = data.get('file_content')
|
| 667 |
+
commit_title = data.get('commit_title', f"Update {file_path}") # Message de commit
|
| 668 |
+
|
| 669 |
+
# Note: On laisse la validation sur user_id même si le décorateur l'a vérifié, par sécurité
|
| 670 |
+
if not all([user_id, repo_slug, file_path, file_content]):
|
| 671 |
+
return jsonify({"success": False, "message": "Missing required fields (repo_slug, file_path, file_content). A valid user session is also required."}), 400
|
| 672 |
+
|
| 673 |
+
# Note: Dans un environnement réel, on vérifierait si le commit_title est vide, etc.
|
| 674 |
+
|
| 675 |
+
success, message = commit_file_to_hf(
|
| 676 |
+
repo_slug=repo_slug,
|
| 677 |
+
user_id=user_id,
|
| 678 |
+
file_path=file_path,
|
| 679 |
+
file_content=file_content,
|
| 680 |
+
commit_message=commit_title
|
| 681 |
+
)
|
| 682 |
+
|
| 683 |
+
if success:
|
| 684 |
+
# Répondre avec un message de succès
|
| 685 |
+
return jsonify({"success": True, "message": "File committed successfully."}), 200
|
| 686 |
+
else:
|
| 687 |
+
# En cas d'échec du commit (400 si c'est un conflit/erreur utilisateur, 500 pour une erreur serveur)
|
| 688 |
+
# Simplification: on renvoie 500 pour toute erreur d'API pour l'instant.
|
| 689 |
+
return jsonify({"success": False, "message": f"Commit failed: {message}"}), 500
|
| 690 |
+
|
| 691 |
+
|
| 692 |
+
@project_bp.route("/mindus/nexus/list_repo_files/<repo_slug>", methods=["GET"])
|
| 693 |
+
@api_session_required
|
| 694 |
+
def list_repo_files_api(repo_slug, client_user): # <-- AJOUTER 'client_user' ici
|
| 695 |
+
"""
|
| 696 |
+
Liste les fichiers dans un dépôt d'utilisateur spécifique.
|
| 697 |
+
"""
|
| 698 |
+
# Utiliser l'ID fourni par le décorateur
|
| 699 |
+
user_id = client_user.get('user_id')
|
| 700 |
+
|
| 701 |
+
if not user_id:
|
| 702 |
+
return jsonify({"success": False, "message": "Unauthorized. Missing user ID in session."}), 401
|
| 703 |
+
|
| 704 |
+
# Le chemin dans le HF Dataset est user_id/repo_slug
|
| 705 |
+
repo_path_on_hf = f"{user_id}/{repo_slug}"
|
| 706 |
+
|
| 707 |
+
# Utilise la fonction list_repo_files_from_hf existante
|
| 708 |
+
# CORRECTION : La fonction list_repo_files_from_hf prend user_id et repo_slug séparemment
|
| 709 |
+
file_list, message = list_repo_files_from_hf(repo_slug, user_id)
|
| 710 |
+
|
| 711 |
+
if file_list is not None:
|
| 712 |
+
# Le contenu de file_list est déjà une liste de strings
|
| 713 |
+
return jsonify({"success": True, "files": file_list}), 200
|
| 714 |
+
else:
|
| 715 |
+
# Gérer l'erreur de fichier non trouvé (souvent un 404 pour un repo inexistant ou vide)
|
| 716 |
+
# Simplification: 404 si la liste est None
|
| 717 |
+
return jsonify({"success": False, "message": f"Failed to list files: {message}"}), 404
|
| 718 |
+
|
| 719 |
+
|
| 720 |
+
@project_bp.route('/mindus/nexus/save_file_content', methods=['POST'])
|
| 721 |
+
@login_required
|
| 722 |
+
@api_session_required
|
| 723 |
+
def save_file_content(client_user=None): # <-- CORRECTION APPLIQUÉE ICI
|
| 724 |
+
"""Route API pour créer manuellement un nouveau fichier ou sauvegarder un fichier existant
|
| 725 |
+
dans un dépôt spécifique via le repo_slug."""
|
| 726 |
+
|
| 727 |
+
# 1. Récupération de l'ID utilisateur
|
| 728 |
+
# Note: On peut garder la récupération depuis session pour être cohérent avec l'ancienne logique
|
| 729 |
+
# (ou utiliser client_user si vos décorateurs fournissent l'ID directement).
|
| 730 |
+
user_id = session.get('user_id')
|
| 731 |
+
if not user_id:
|
| 732 |
+
# Ceci ne devrait normalement pas arriver si @login_required fonctionne correctement
|
| 733 |
+
return jsonify({"success": False, "error": "Session invalide ou authentification requise."}), 401
|
| 734 |
+
|
| 735 |
+
data = request.get_json()
|
| 736 |
+
|
| 737 |
+
# 2. Récupération des données du corps de la requête (JSON)
|
| 738 |
+
repo_slug = data.get('repo_slug') # Le slug du dépôt (ex: 'mailix')
|
| 739 |
+
file_path = data.get('file_path') # Le chemin du fichier (ex: 'nouveau.md' ou 'src/config.json')
|
| 740 |
+
file_content = data.get('file_content') # Le contenu complet à sauvegarder
|
| 741 |
+
|
| 742 |
+
# Message de commit par défaut, si non fourni par le frontend
|
| 743 |
+
commit_message = data.get('commit_message', f"Commit via editor: Sauvegarde de {file_path}")
|
| 744 |
+
|
| 745 |
+
if not all([repo_slug, file_path, file_content]):
|
| 746 |
+
return jsonify({"success": False, "error": "Paramètres manquants: 'repo_slug', 'file_path', et 'file_content' sont requis."}), 400
|
| 747 |
+
|
| 748 |
+
# 3. Appel de la fonction de sauvegarde
|
| 749 |
+
success, message = save_file_content_to_hf(
|
| 750 |
+
user_id=user_id,
|
| 751 |
+
repo_slug=repo_slug,
|
| 752 |
+
file_path=file_path,
|
| 753 |
+
file_content=file_content,
|
| 754 |
+
commit_message=commit_message
|
| 755 |
+
# repo_id, repo_type et branch utiliseront les valeurs par défaut ou de configuration
|
| 756 |
+
)
|
| 757 |
+
|
| 758 |
+
# 4. Réponse au frontend
|
| 759 |
+
if success:
|
| 760 |
+
return jsonify({"success": True, "message": message}), 200
|
| 761 |
+
else:
|
| 762 |
+
# Si save_file_content_to_hf retourne False, on renvoie l'erreur détaillée
|
| 763 |
+
return jsonify({"success": False, "error": message}), 500
|
| 764 |
+
|
| 765 |
+
@project_bp.route('/api/files/<repo_slug>/delete', methods=['POST'])
|
| 766 |
+
@api_session_required
|
| 767 |
+
def delete_file_from_repo(client_user, repo_slug):
|
| 768 |
+
"""
|
| 769 |
+
Gère la suppression d'un fichier spécifique du dépôt utilisateur sur Hugging Face.
|
| 770 |
+
Nécessite 'file_path' dans le corps JSON de la requête.
|
| 771 |
+
"""
|
| 772 |
+
user_id = client_user.get('user_id')
|
| 773 |
+
|
| 774 |
+
if not user_id:
|
| 775 |
+
return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
|
| 776 |
+
|
| 777 |
+
data = request.get_json()
|
| 778 |
+
file_path = data.get('file_path')
|
| 779 |
+
|
| 780 |
+
if not file_path:
|
| 781 |
+
return jsonify({"success": False, "message": "Le chemin du fichier ('file_path') est obligatoire pour la suppression."}), 400
|
| 782 |
+
|
| 783 |
+
# Message de commit par défaut
|
| 784 |
+
commit_message = data.get('commit_message', f"Delete file: {file_path}")
|
| 785 |
+
|
| 786 |
+
# --- ÉTAPE CLÉ : Appel de la nouvelle fonction du backend ---
|
| 787 |
+
success, message = delete_file_from_hf_repo(
|
| 788 |
+
repo_slug=repo_slug,
|
| 789 |
+
user_id=user_id,
|
| 790 |
+
file_path=file_path,
|
| 791 |
+
commit_message=commit_message
|
| 792 |
+
)
|
| 793 |
+
|
| 794 |
+
if success:
|
| 795 |
+
logger.info(f"Fichier {file_path} supprimé du dépôt {repo_slug} par {user_id}.")
|
| 796 |
+
return jsonify({
|
| 797 |
+
"success": True,
|
| 798 |
+
"message": message,
|
| 799 |
+
}), 200
|
| 800 |
+
else:
|
| 801 |
+
logger.error(f"Échec de la suppression du fichier {file_path} pour {user_id}/{repo_slug}: {message}")
|
| 802 |
+
# Statut 500 pour Erreur Serveur Interne si la suppression backend échoue
|
| 803 |
+
return jsonify({"success": False, "message": message}), 500
|
| 804 |
+
|
| 805 |
+
# project_routes.py (après les routes existantes)
|
| 806 |
+
|
| 807 |
+
@project_bp.route("/apply", methods=["POST"])
|
| 808 |
+
def submit_application():
|
| 809 |
+
"""
|
| 810 |
+
Route publique pour soumettre une candidature.
|
| 811 |
+
|
| 812 |
+
Attend une requête multipart/form-data contenant :
|
| 813 |
+
- 'application_json': une chaîne JSON des données du formulaire.
|
| 814 |
+
- 'document_file': le fichier PDF ou DOCX.
|
| 815 |
+
"""
|
| 816 |
+
|
| 817 |
+
# 1. Générer un ID unique pour cette candidature
|
| 818 |
+
application_id = str(uuid.uuid4())
|
| 819 |
+
|
| 820 |
+
# 2. Extraction et validation des données de la requête
|
| 821 |
+
|
| 822 |
+
# Récupérer le fichier
|
| 823 |
+
document_file = request.files.get('document_file')
|
| 824 |
+
if not document_file or document_file.filename == '':
|
| 825 |
+
return jsonify({"success": False, "message": "Le fichier de candidature ('document_file') est manquant."}), 400
|
| 826 |
+
|
| 827 |
+
# Récupérer les données JSON
|
| 828 |
+
application_json_str = request.form.get('application_json')
|
| 829 |
+
if not application_json_str:
|
| 830 |
+
return jsonify({"success": False, "message": "Les données du formulaire ('application_json') sont manquantes."}), 400
|
| 831 |
+
|
| 832 |
+
try:
|
| 833 |
+
application_data = json.loads(application_json_str)
|
| 834 |
+
except json.JSONDecodeError:
|
| 835 |
+
return jsonify({"success": False, "message": "Format JSON des données de candidature invalide."}), 400
|
| 836 |
+
|
| 837 |
+
# Validation du type de fichier (PDF ou DOCX)
|
| 838 |
+
allowed_extensions = ['.pdf', '.docx']
|
| 839 |
+
file_ext = os.path.splitext(document_file.filename)[1].lower()
|
| 840 |
+
if file_ext not in allowed_extensions:
|
| 841 |
+
return jsonify({"success": False, "message": f"Type de fichier non supporté. Seuls {', '.join(allowed_extensions)} sont autorisés."}), 400
|
| 842 |
+
|
| 843 |
+
# 3. Préparer les données pour la sauvegarde
|
| 844 |
+
application_data['application_id'] = application_id
|
| 845 |
+
application_data['submission_date'] = datetime.now().isoformat()
|
| 846 |
+
application_data['document_filename'] = document_file.filename
|
| 847 |
+
application_data['document_hf_path'] = f"document_applications/{application_id}{file_ext}" # Chemin pour référence dans le JSON
|
| 848 |
+
|
| 849 |
+
# --- 4. Sauvegarde du document (PDF/DOCX) sur IMAGE_STORAGE_HF_REPO_ID ---
|
| 850 |
+
doc_success, doc_message = upload_application_document_to_hf(
|
| 851 |
+
file_storage_obj=document_file,
|
| 852 |
+
application_id=application_id,
|
| 853 |
+
file_extension=file_ext,
|
| 854 |
+
)
|
| 855 |
+
|
| 856 |
+
if not doc_success:
|
| 857 |
+
logger.error(f"Échec du téléversement du document {application_id}: {doc_message}")
|
| 858 |
+
return jsonify({"success": False, "message": f"Échec du téléversement du document. Détail: {doc_message}"}), 500
|
| 859 |
+
|
| 860 |
+
# --- 5. Sauvegarde des données JSON du formulaire sur HF_DATASET_REPO_ID ---
|
| 861 |
+
json_success, json_message = save_application_json_to_hf(
|
| 862 |
+
application_data=application_data,
|
| 863 |
+
application_id=application_id,
|
| 864 |
+
)
|
| 865 |
+
|
| 866 |
+
if not json_success:
|
| 867 |
+
logger.error(f"Échec de la sauvegarde du JSON pour {application_id}: {json_message}")
|
| 868 |
+
# NOTE: Dans un cas réel, on essaierait de supprimer le document qui a réussi le téléversement (étape 4)
|
| 869 |
+
# pour éviter d'avoir un document sans données de formulaire, mais on se contente ici de notifier l'échec.
|
| 870 |
+
return jsonify({"success": False, "message": f"Échec de la sauvegarde des données du formulaire. Détail: {json_message}"}), 500
|
| 871 |
+
|
| 872 |
+
logger.info(f"Candidature complète soumise avec ID: {application_id}")
|
| 873 |
+
return jsonify({
|
| 874 |
+
"success": True,
|
| 875 |
+
"message": "Votre candidature a été soumise avec succès.",
|
| 876 |
+
"application_id": application_id
|
| 877 |
+
}), 200
|
| 878 |
+
|
| 879 |
+
# Dans project_routes.py
|
| 880 |
+
|
| 881 |
+
@project_bp.route("/submit_application_data", methods=["POST"])
|
| 882 |
+
def submit_application_data_only():
|
| 883 |
+
"""
|
| 884 |
+
Route publique pour soumettre uniquement les données textuelles/JSON d'une candidature
|
| 885 |
+
(par exemple, si aucun CV/document n'est requis pour cette étape).
|
| 886 |
+
|
| 887 |
+
Attend une requête POST avec un corps de requête JSON.
|
| 888 |
+
"""
|
| 889 |
+
|
| 890 |
+
# 1. Générer un ID unique pour cette candidature
|
| 891 |
+
application_id = str(uuid.uuid4())
|
| 892 |
+
|
| 893 |
+
# 2. Extraction des données JSON du corps de la requête
|
| 894 |
+
# 'request.get_json()' permet de lire directement le corps JSON
|
| 895 |
+
application_data = request.get_json(silent=True)
|
| 896 |
+
|
| 897 |
+
if not application_data or not isinstance(application_data, dict):
|
| 898 |
+
# Utiliser 'request.get_json(silent=True)' pour éviter une erreur si le Content-Type n'est pas bon
|
| 899 |
+
return jsonify({"success": False, "message": "Les données JSON du formulaire sont manquantes, invalides ou le 'Content-Type' n'est pas 'application/json'."}), 400
|
| 900 |
+
|
| 901 |
+
# 3. Préparer les données pour la sauvegarde
|
| 902 |
+
application_data['application_id'] = application_id
|
| 903 |
+
application_data['submission_date'] = datetime.now().isoformat()
|
| 904 |
+
# Ajout d'un champ pour indiquer qu'il n'y a pas de document
|
| 905 |
+
application_data['document_filename'] = "No document attached"
|
| 906 |
+
application_data['document_hf_path'] = None
|
| 907 |
+
|
| 908 |
+
# --- 4. Sauvegarde des données JSON du formulaire sur HF_DATASET_REPO_ID ---
|
| 909 |
+
json_success, json_message = save_application_json_to_hf(
|
| 910 |
+
application_data=application_data,
|
| 911 |
+
application_id=application_id,
|
| 912 |
+
commit_message=f"Ajout des données de candidature (JSON seulement): {application_id}"
|
| 913 |
+
)
|
| 914 |
+
|
| 915 |
+
if not json_success:
|
| 916 |
+
logger.error(f"Échec de la sauvegarde du JSON pour {application_id}: {json_message}")
|
| 917 |
+
return jsonify({"success": False, "message": f"Échec de la sauvegarde des données du formulaire. Détail: {json_message}"}), 500
|
| 918 |
+
|
| 919 |
+
logger.info(f"Candidature (données seulement) soumise avec ID: {application_id}")
|
| 920 |
+
return jsonify({
|
| 921 |
+
"success": True,
|
| 922 |
+
"message": "Vos données de formulaire ont été soumises avec succès.",
|
| 923 |
+
"application_id": application_id
|
| 924 |
+
}), 200
|
| 925 |
+
|
| 926 |
+
@project_bp.route('/api/repos/<repo_slug>', methods=['DELETE'])
|
| 927 |
+
@api_session_required
|
| 928 |
+
def delete_repo(client_user, repo_slug):
|
| 929 |
+
"""
|
| 930 |
+
Gère la suppression complète d'un dépôt (dossier récursif) sur Hugging Face
|
| 931 |
+
et la mise à jour des métadonnées de l'utilisateur.
|
| 932 |
+
"""
|
| 933 |
+
user_id = client_user.get('user_id')
|
| 934 |
+
|
| 935 |
+
if not user_id:
|
| 936 |
+
return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
|
| 937 |
+
|
| 938 |
+
if not repo_slug:
|
| 939 |
+
return jsonify({"success": False, "message": "Le slug du dépôt est manquant."}), 400
|
| 940 |
+
|
| 941 |
+
# 1. Récupérer le 'deploy_id' du dépôt à partir des métadonnées
|
| 942 |
+
# Nous avons besoin de cet ID pour identifier la bonne entrée dans le fichier metadata.json.
|
| 943 |
+
try:
|
| 944 |
+
metadata, _ = get_user_repo_metadata(user_id)
|
| 945 |
+
repo_to_delete = next(
|
| 946 |
+
(repo for repo in metadata.get("repos", []) if repo.get("repo_slug") == repo_slug),
|
| 947 |
+
None
|
| 948 |
+
)
|
| 949 |
+
|
| 950 |
+
if not repo_to_delete:
|
| 951 |
+
return jsonify({"success": False, "message": f"Dépôt '{repo_slug}' non trouvé dans les métadonnées de l'utilisateur."}), 404
|
| 952 |
+
|
| 953 |
+
deploy_id = repo_to_delete.get("FIELD_DEPLOY_ID")
|
| 954 |
+
|
| 955 |
+
except Exception as e:
|
| 956 |
+
logger.error(f"Erreur lors de la récupération des métadonnées pour supprimer {repo_slug}: {e}")
|
| 957 |
+
return jsonify({"success": False, "message": "Erreur interne lors de la lecture des métadonnées."}), 500
|
| 958 |
+
|
| 959 |
+
# 2. Appel de la fonction du backend pour la suppression
|
| 960 |
+
try:
|
| 961 |
+
success, message = delete_repo_folder_from_hf(
|
| 962 |
+
repo_slug=repo_slug,
|
| 963 |
+
user_id=user_id,
|
| 964 |
+
deploy_id=deploy_id,
|
| 965 |
+
commit_message=f"Suppression complète du dépôt {repo_slug} par l'utilisateur."
|
| 966 |
+
# repo_id sera utilisé par défaut (HF_DATASET_REPO_ID)
|
| 967 |
+
)
|
| 968 |
+
|
| 969 |
+
if success:
|
| 970 |
+
logger.info(f"Dépôt {repo_slug} supprimé avec succès par {user_id}.")
|
| 971 |
+
return jsonify({"success": True, "message": message}), 200
|
| 972 |
+
else:
|
| 973 |
+
logger.error(f"Échec de la suppression du dépôt {repo_slug}: {message}")
|
| 974 |
+
return jsonify({"success": False, "message": message}), 500 # 500 pour Erreur Serveur Interne
|
| 975 |
+
|
| 976 |
+
except Exception as e:
|
| 977 |
+
logger.exception(f"Erreur inattendue lors de la suppression du dépôt pour {user_id}/{repo_slug}: {e}")
|
| 978 |
+
return jsonify({"success": False, "message": f"Erreur interne: {str(e)}"}), 500
|
| 979 |
+
|
| 980 |
+
@project_bp.route("/mindus/nexus/repo_settings/<repo_slug>", methods=["GET"])
|
| 981 |
+
@login_required
|
| 982 |
+
def get_repo_settings_page(repo_slug):
|
| 983 |
+
"""
|
| 984 |
+
Route (SSR) pour afficher la page des paramètres du dépôt (secrets/variables).
|
| 985 |
+
Nécessite 'repo_slug' en paramètre.
|
| 986 |
+
"""
|
| 987 |
+
user_id = session.get('user_id')
|
| 988 |
+
|
| 989 |
+
if not repo_slug:
|
| 990 |
+
flash("Dépôt non spécifié pour les paramètres.", "error")
|
| 991 |
+
return redirect(url_for('user_bp.dashboard'))
|
| 992 |
+
|
| 993 |
+
# Charger les données utilisateur (pour le contexte Jinja2)
|
| 994 |
+
user_data = get_user_by_id(user_id)
|
| 995 |
+
|
| 996 |
+
return render_template(
|
| 997 |
+
'repo_settings.html', # Assumer l'existence de ce template
|
| 998 |
+
user=user_data,
|
| 999 |
+
repo_slug=repo_slug
|
| 1000 |
+
)
|
| 1001 |
+
|
| 1002 |
+
@project_bp.route('/api/repo_data/<repo_slug>/items', methods=['GET'])
|
| 1003 |
+
@api_session_required
|
| 1004 |
+
def get_repo_items_api(client_user, repo_slug):
|
| 1005 |
+
"""
|
| 1006 |
+
Récupère la liste des secrets ou des variables pour un dépôt spécifié.
|
| 1007 |
+
Utilise le paramètre de requête 'item_type' ('secret' ou 'variable').
|
| 1008 |
+
"""
|
| 1009 |
+
user_id = client_user.get('user_id')
|
| 1010 |
+
# Récupérer le type d'élément depuis les paramètres de requête
|
| 1011 |
+
item_type = request.args.get('item_type')
|
| 1012 |
+
|
| 1013 |
+
if not user_id:
|
| 1014 |
+
return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
|
| 1015 |
+
|
| 1016 |
+
if item_type not in ['secret', 'variable']:
|
| 1017 |
+
return jsonify({"success": False, "message": "Type d'élément non valide. Utilisez 'secret' ou 'variable'."}), 400
|
| 1018 |
+
|
| 1019 |
+
try:
|
| 1020 |
+
# Appel de la fonction manager
|
| 1021 |
+
items_list, message = get_repo_secrets_or_variables(
|
| 1022 |
+
user_id=user_id,
|
| 1023 |
+
repo_slug=repo_slug,
|
| 1024 |
+
item_type=item_type
|
| 1025 |
+
)
|
| 1026 |
+
|
| 1027 |
+
# Note: Si c'est un secret, la valeur est masquée par le backend.
|
| 1028 |
+
return jsonify({"success": True, "items": items_list, "message": message}), 200
|
| 1029 |
+
|
| 1030 |
+
except Exception as e:
|
| 1031 |
+
logger.exception(f"Erreur lors de la récupération des {item_type}s pour {user_id}/{repo_slug}: {e}")
|
| 1032 |
+
return jsonify({"success": False, "message": f"Erreur interne lors de l'accès aux {item_type}s: {str(e)}"}), 500
|
| 1033 |
+
|
| 1034 |
+
@project_bp.route('/api/repo_data/<repo_slug>/update_item', methods=['POST'])
|
| 1035 |
+
@api_session_required
|
| 1036 |
+
def update_repo_item_api(client_user, repo_slug):
|
| 1037 |
+
"""
|
| 1038 |
+
Crée ou met à jour un secret ou une variable (basé sur le nom) pour un dépôt spécifié.
|
| 1039 |
+
Les données requises sont envoyées en JSON.
|
| 1040 |
+
"""
|
| 1041 |
+
user_id = client_user.get('user_id')
|
| 1042 |
+
data = request.get_json()
|
| 1043 |
+
|
| 1044 |
+
if not user_id:
|
| 1045 |
+
return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
|
| 1046 |
+
|
| 1047 |
+
# Récupération des données du corps JSON
|
| 1048 |
+
item_type = data.get('item_type') # 'secret' ou 'variable'
|
| 1049 |
+
name = data.get('name')
|
| 1050 |
+
value = data.get('value')
|
| 1051 |
+
description = data.get('description') # Optionnel
|
| 1052 |
+
|
| 1053 |
+
if item_type not in ['secret', 'variable']:
|
| 1054 |
+
return jsonify({"success": False, "message": "Type d'élément non valide. Utilisez 'secret' ou 'variable'."}), 400
|
| 1055 |
+
|
| 1056 |
+
if not all([name, value]):
|
| 1057 |
+
return jsonify({"success": False, "message": "Les champs 'name' et 'value' sont obligatoires."}), 400
|
| 1058 |
+
|
| 1059 |
+
try:
|
| 1060 |
+
# Appel de la fonction manager pour la mise à jour atomique
|
| 1061 |
+
success, message = update_repo_secrets_or_variables(
|
| 1062 |
+
user_id=user_id,
|
| 1063 |
+
repo_slug=repo_slug,
|
| 1064 |
+
item_type=item_type,
|
| 1065 |
+
name=name,
|
| 1066 |
+
value=value,
|
| 1067 |
+
description=description
|
| 1068 |
+
)
|
| 1069 |
+
|
| 1070 |
+
if success:
|
| 1071 |
+
return jsonify({"success": True, "message": message}), 201
|
| 1072 |
+
else:
|
| 1073 |
+
return jsonify({"success": False, "message": message}), 500
|
| 1074 |
+
|
| 1075 |
+
except Exception as e:
|
| 1076 |
+
logger.exception(f"Erreur inattendue lors de la mise à jour du {item_type} pour {user_id}/{repo_slug}: {e}")
|
| 1077 |
+
return jsonify({"success": False, "message": f"Erreur interne lors de la mise à jour: {str(e)}"}), 500
|
| 1078 |
+
|
| 1079 |
+
# Route pour SUPPRIMER un secret/variable (DELETE)
|
| 1080 |
+
@project_bp.route('/api/repo_data/<repo_slug>/items', methods=['DELETE'])
|
| 1081 |
+
@api_session_required
|
| 1082 |
+
def delete_repo_item_api(client_user, repo_slug):
|
| 1083 |
+
"""
|
| 1084 |
+
Supprime un secret ou une variable pour un dépôt donné.
|
| 1085 |
+
Paramètres de requête requis : item_type ('secret' ou 'variable') et name.
|
| 1086 |
+
URL appelée par le front-end : /api/repo_data/<repo_slug>/items?item_type=secret&name=MON_SECRET
|
| 1087 |
+
"""
|
| 1088 |
+
user_id = client_user.get('user_id')
|
| 1089 |
+
|
| 1090 |
+
# Récupération des paramètres de requête (query parameters)
|
| 1091 |
+
item_type = request.args.get('item_type') # 'secret' ou 'variable'
|
| 1092 |
+
name = request.args.get('name') # Nom de l'élément à supprimer
|
| 1093 |
+
|
| 1094 |
+
if not user_id:
|
| 1095 |
+
return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
|
| 1096 |
+
|
| 1097 |
+
if item_type not in ['secret', 'variable']:
|
| 1098 |
+
return jsonify({"success": False, "message": "Le paramètre 'item_type' est invalide. Utilisez 'secret' ou 'variable'."}), 400
|
| 1099 |
+
|
| 1100 |
+
if not name:
|
| 1101 |
+
return jsonify({"success": False, "message": "Le paramètre 'name' de l'élément à supprimer est manquant."}), 400
|
| 1102 |
+
|
| 1103 |
+
try:
|
| 1104 |
+
# Appel de la fonction de suppression
|
| 1105 |
+
# (Nécessite que delete_repo_secret_or_variable soit bien importée en haut du fichier)
|
| 1106 |
+
success, message = delete_repo_secret_or_variable(
|
| 1107 |
+
user_id=user_id,
|
| 1108 |
+
repo_slug=repo_slug,
|
| 1109 |
+
item_type=item_type,
|
| 1110 |
+
name=name
|
| 1111 |
+
)
|
| 1112 |
+
|
| 1113 |
+
if success:
|
| 1114 |
+
logger.info(f"Suppression réussie du {item_type} '{name}' pour {repo_slug}.")
|
| 1115 |
+
return jsonify({"success": True, "message": message}), 200 # 200 OK pour une suppression réussie
|
| 1116 |
+
else:
|
| 1117 |
+
logger.error(f"Échec de la suppression du {item_type} '{name}' pour {repo_slug}: {message}")
|
| 1118 |
+
# Si l'élément n'est pas trouvé, on peut renvoyer 404 (mais 500 pour les autres erreurs backend)
|
| 1119 |
+
return jsonify({"success": False, "message": message}), 500
|
| 1120 |
+
|
| 1121 |
+
except Exception as e:
|
| 1122 |
+
logger.exception(f"Erreur interne lors de la suppression du {item_type} pour {repo_slug}: {e}")
|
| 1123 |
+
return jsonify({"success": False, "message": f"Erreur interne du serveur: {str(e)}"}), 500
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/pull_request_backend.py
ADDED
|
@@ -0,0 +1,607 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# pull_request_backend.py (Mise à jour pour autonomie)
|
| 2 |
+
|
| 3 |
+
import uuid
|
| 4 |
+
from datetime import datetime
|
| 5 |
+
import logging
|
| 6 |
+
from typing import Optional, Dict, List
|
| 7 |
+
from io import BytesIO # NOUVEL IMPORT pour la manipulation des fichiers
|
| 8 |
+
|
| 9 |
+
# Importations spécifiques à Hugging Face pour l'autonomie
|
| 10 |
+
from huggingface_hub import HfApi, HfFileSystem, CommitOperationAdd
|
| 11 |
+
from huggingface_hub.utils import HfHubHTTPError # CORRECTION: Import de l'exception depuis 'huggingface_hub.utils'
|
| 12 |
+
|
| 13 |
+
# Importations des variables de configuration
|
| 14 |
+
from config import (
|
| 15 |
+
PULL_REQUESTS_HF_REPO_ID,
|
| 16 |
+
HF_DATASET_REPO_ID,
|
| 17 |
+
# IMAGE_STORAGE_HF_REPO_ID, # Non utilisé directement ici
|
| 18 |
+
HF_TOKEN # Utile pour l'API
|
| 19 |
+
)
|
| 20 |
+
|
| 21 |
+
# --- Initialisation de l'API et du FileSystem ---
|
| 22 |
+
api = HfApi(token=HF_TOKEN) # NOUVEAU : Initialisation de l'API HF
|
| 23 |
+
fs = HfFileSystem(token=HF_TOKEN) # NOUVEAU : Initialisation du FileSystem HF
|
| 24 |
+
|
| 25 |
+
# Nouvelle structure d'importation pour l'autonomie des fonctions de branche :
|
| 26 |
+
from huggingface_repo_manager import (
|
| 27 |
+
load_json_file_from_hf,
|
| 28 |
+
save_json_file_to_hf,
|
| 29 |
+
get_diff_between_branches,
|
| 30 |
+
check_for_conflicts,
|
| 31 |
+
execute_merge_commit,
|
| 32 |
+
get_user_repo_metadata,
|
| 33 |
+
)
|
| 34 |
+
|
| 35 |
+
PR_DATA_FOLDER_NAME = "pr_data"
|
| 36 |
+
|
| 37 |
+
logger = logging.getLogger(__name__)
|
| 38 |
+
|
| 39 |
+
# --- Constantes ---
|
| 40 |
+
PR_FILE_PATH_TEMPLATE = "pr_data/{user_id}/{repo_slug}/prs.json"
|
| 41 |
+
|
| 42 |
+
# --- Fonctions de Métadonnées (Interaction avec prs.json) ---
|
| 43 |
+
|
| 44 |
+
def _get_pr_file_path(repo_slug: str, user_id: str) -> str:
|
| 45 |
+
"""Construit le chemin d'accès au fichier prs.json."""
|
| 46 |
+
return PR_FILE_PATH_TEMPLATE.format(user_id=user_id, repo_slug=repo_slug)
|
| 47 |
+
|
| 48 |
+
def load_all_prs_from_hf(repo_slug: str, user_id: str) -> List[Dict]:
|
| 49 |
+
"""Charge l'intégralité du fichier prs.json du dépôt spécifié."""
|
| 50 |
+
if not PULL_REQUESTS_HF_REPO_ID:
|
| 51 |
+
# Erreur de configuration
|
| 52 |
+
return []
|
| 53 |
+
|
| 54 |
+
file_path = _get_pr_file_path(repo_slug, user_id)
|
| 55 |
+
|
| 56 |
+
pr_data, msg = load_json_file_from_hf(
|
| 57 |
+
file_path=file_path,
|
| 58 |
+
repo_id=PULL_REQUESTS_HF_REPO_ID
|
| 59 |
+
)
|
| 60 |
+
|
| 61 |
+
# Si le fichier n'existe pas ou erreur, on retourne une liste vide.
|
| 62 |
+
if pr_data is None or "prs" not in pr_data:
|
| 63 |
+
return []
|
| 64 |
+
|
| 65 |
+
return pr_data.get("prs", [])
|
| 66 |
+
|
| 67 |
+
# NOUVEAU CODE (RÉSOUD LE PROBLÈME) :
|
| 68 |
+
def _get_user_repository_slugs_placeholder(user_id: str) -> List[str]:
|
| 69 |
+
"""
|
| 70 |
+
RÉSOLUTION DU PROBLÈME : Récupère la liste réelle des slugs de dépôts de l'utilisateur
|
| 71 |
+
à partir des métadonnées stockées sur Hugging Face (via get_user_repo_metadata).
|
| 72 |
+
|
| 73 |
+
Ceci rend la fonction 'load_all_user_prs' beaucoup plus robuste.
|
| 74 |
+
"""
|
| 75 |
+
try:
|
| 76 |
+
# NOTE: get_user_repo_metadata est la fonction qui lit le fichier
|
| 77 |
+
# des métadonnées utilisateur pour trouver les dépôts.
|
| 78 |
+
metadata, _ = get_user_repo_metadata(user_id)
|
| 79 |
+
except Exception as e:
|
| 80 |
+
# En cas d'échec de la lecture ou d'erreur API, on logge et retourne []
|
| 81 |
+
# logger.error(f"Échec de la récupération des métadonnées pour charger les PRs: {e}")
|
| 82 |
+
return []
|
| 83 |
+
|
| 84 |
+
# Les données utilisateur contiennent une liste de dépôts sous la clé 'repos'.
|
| 85 |
+
if metadata and isinstance(metadata.get("repos"), list):
|
| 86 |
+
# Extrait et retourne uniquement les slugs (repo_slug) de tous les dépôts trouvés.
|
| 87 |
+
return [repo.get('repo_slug') for repo in metadata["repos"] if repo.get('repo_slug')]
|
| 88 |
+
|
| 89 |
+
return [] # Retourne une liste vide si aucun dépôt n'est trouvé.
|
| 90 |
+
|
| 91 |
+
def load_all_user_prs(user_id: str) -> List[Dict]:
|
| 92 |
+
"""
|
| 93 |
+
Charge toutes les Pull Requests pour TOUS les dépôts appartenant à un utilisateur.
|
| 94 |
+
Utilisé pour le tableau de bord (dashboard).
|
| 95 |
+
"""
|
| 96 |
+
all_prs: List[Dict] = []
|
| 97 |
+
|
| 98 |
+
# 1. Récupérer la liste des slugs de dépôts de l'utilisateur
|
| 99 |
+
repo_slugs = _get_user_repository_slugs_placeholder(user_id)
|
| 100 |
+
|
| 101 |
+
for repo_slug in repo_slugs:
|
| 102 |
+
# 2. Réutiliser la fonction existante pour charger les PRs d'un seul dépôt
|
| 103 |
+
try:
|
| 104 |
+
prs_for_repo = load_all_prs_from_hf(repo_slug, user_id)
|
| 105 |
+
except Exception as e:
|
| 106 |
+
# Gérer les cas où le fichier prs.json n'existe pas pour un repo
|
| 107 |
+
logger.warning(f"Impossible de charger les PRs pour le dépôt {repo_slug}: {e}")
|
| 108 |
+
continue
|
| 109 |
+
|
| 110 |
+
# 3. Ajouter le repo_slug à chaque PR (essentiel pour l'affichage dashboard)
|
| 111 |
+
for pr in prs_for_repo:
|
| 112 |
+
pr['repo_slug'] = repo_slug
|
| 113 |
+
all_prs.append(pr)
|
| 114 |
+
|
| 115 |
+
return all_prs
|
| 116 |
+
|
| 117 |
+
def save_all_prs_to_hf(repo_slug: str, user_id: str, pr_list: List[Dict]) -> tuple[bool, str]:
|
| 118 |
+
"""Sérialise et enregistre la liste complète des PR dans le fichier prs.json."""
|
| 119 |
+
if not PULL_REQUESTS_HF_REPO_ID:
|
| 120 |
+
return False, "Erreur de configuration: PULL_REQUESTS_HF_REPO_ID manquant."
|
| 121 |
+
|
| 122 |
+
file_path = _get_pr_file_path(repo_slug, user_id)
|
| 123 |
+
data_to_save = {"prs": pr_list}
|
| 124 |
+
commit_msg = f"Mise à jour des métadonnées des PR pour {repo_slug}."
|
| 125 |
+
|
| 126 |
+
return save_json_file_to_hf(
|
| 127 |
+
file_path=file_path,
|
| 128 |
+
data=data_to_save,
|
| 129 |
+
commit_message=commit_msg,
|
| 130 |
+
repo_id=PULL_REQUESTS_HF_REPO_ID
|
| 131 |
+
)
|
| 132 |
+
|
| 133 |
+
def create_pull_request(
|
| 134 |
+
repo_slug: str,
|
| 135 |
+
source_branch: str,
|
| 136 |
+
target_branch: str,
|
| 137 |
+
title: str,
|
| 138 |
+
description: str,
|
| 139 |
+
user_id: str
|
| 140 |
+
) -> tuple[Optional[str], str]:
|
| 141 |
+
"""
|
| 142 |
+
Crée et enregistre une nouvelle PR.
|
| 143 |
+
Le processus inclut l'initialisation de la branche source de PR
|
| 144 |
+
(copie du contenu du dépôt principal).
|
| 145 |
+
"""
|
| 146 |
+
|
| 147 |
+
pr_id = str(uuid.uuid4())[:8] # ID court
|
| 148 |
+
|
| 149 |
+
# --- NOUVELLE VÉRIFICATION DE LA CONVENTION DE BRANCHE CIBLE ---
|
| 150 |
+
# Selon la nouvelle convention, la branche cible (principale) est le repo_slug lui-même.
|
| 151 |
+
if target_branch != repo_slug:
|
| 152 |
+
# On force la valeur à la convention structurelle.
|
| 153 |
+
logger.warning(f"Target branch ajustée de '{target_branch}' au repo_slug '{repo_slug}'.")
|
| 154 |
+
target_branch = repo_slug
|
| 155 |
+
|
| 156 |
+
# 1. CRÉATION ET INITIALISATION DE LA BRANCHE DE PR (source_branch)
|
| 157 |
+
# L'étape cruciale : copier les fichiers du dépôt de base vers le chemin isolé de la PR.
|
| 158 |
+
# Cette fonction est maintenant définie dans ce fichier.
|
| 159 |
+
branch_success, branch_msg = create_new_pr_branch(
|
| 160 |
+
user_id=user_id,
|
| 161 |
+
repo_slug=repo_slug,
|
| 162 |
+
new_branch_name=source_branch
|
| 163 |
+
)
|
| 164 |
+
|
| 165 |
+
if not branch_success:
|
| 166 |
+
# Si la copie des fichiers échoue, on arrête la création de la PR.
|
| 167 |
+
return None, f"Échec de l'initialisation de la branche de PR '{source_branch}': {branch_msg}"
|
| 168 |
+
|
| 169 |
+
# 2. Charger la liste existante des métadonnées de PR
|
| 170 |
+
pr_list = load_all_prs_from_hf(repo_slug, user_id)
|
| 171 |
+
|
| 172 |
+
new_pr = {
|
| 173 |
+
"pr_id": pr_id,
|
| 174 |
+
"repo_slug": repo_slug,
|
| 175 |
+
"source_branch": source_branch, # Ex: 'feature-x'
|
| 176 |
+
"target_branch": target_branch, # Ex: 'mon-depot-slug'
|
| 177 |
+
"title": title,
|
| 178 |
+
"description": description,
|
| 179 |
+
"status": "Open",
|
| 180 |
+
"created_by": user_id,
|
| 181 |
+
"created_at": datetime.utcnow().isoformat(),
|
| 182 |
+
"merged_at": None,
|
| 183 |
+
"closed_at": None,
|
| 184 |
+
}
|
| 185 |
+
|
| 186 |
+
# 3. Ajouter la nouvelle PR à la liste des métadonnées
|
| 187 |
+
pr_list.append(new_pr)
|
| 188 |
+
|
| 189 |
+
# 4. Enregistrer la liste mise à jour des métadonnées de PR
|
| 190 |
+
success, msg = save_all_prs_to_hf(repo_slug, user_id, pr_list)
|
| 191 |
+
|
| 192 |
+
if success:
|
| 193 |
+
return pr_id, f"Pull Request créée avec succès. La branche '{source_branch}' est prête pour les modifications."
|
| 194 |
+
else:
|
| 195 |
+
# La branche a été créée, mais l'enregistrement de la PR a échoué.
|
| 196 |
+
return None, f"Échec de l'enregistrement des métadonnées de la PR: {msg}. La branche a été créée, mais la PR n'est pas tracée."
|
| 197 |
+
|
| 198 |
+
def get_pull_request_by_id(pr_id: str, repo_slug: str, user_id: str) -> Optional[Dict]:
|
| 199 |
+
"""Récupère une PR spécifique par son ID."""
|
| 200 |
+
pr_list = load_all_prs_from_hf(repo_slug, user_id)
|
| 201 |
+
return next((pr for pr in pr_list if pr['pr_id'] == pr_id), None)
|
| 202 |
+
|
| 203 |
+
def update_pull_request_status(pr_id: str, repo_slug: str, user_id: str, new_status: str) -> tuple[bool, str]:
|
| 204 |
+
"""Met à jour l'état (Open, Closed, Merged) d'une PR existante."""
|
| 205 |
+
pr_list = load_all_prs_from_hf(repo_slug, user_id)
|
| 206 |
+
|
| 207 |
+
pr_to_update = next((pr for pr in pr_list if pr['pr_id'] == pr_id), None)
|
| 208 |
+
|
| 209 |
+
if pr_to_update is None:
|
| 210 |
+
return False, f"Pull Request ID {pr_id} non trouvée."
|
| 211 |
+
|
| 212 |
+
pr_to_update['status'] = new_status
|
| 213 |
+
|
| 214 |
+
if new_status == "Closed":
|
| 215 |
+
pr_to_update['closed_at'] = datetime.utcnow().isoformat()
|
| 216 |
+
elif new_status == "Merged":
|
| 217 |
+
pr_to_update['merged_at'] = datetime.utcnow().isoformat()
|
| 218 |
+
|
| 219 |
+
return save_all_prs_to_hf(repo_slug, user_id, pr_list)
|
| 220 |
+
|
| 221 |
+
# --- Fonctions Cœur de Git/Hugging Face (Appels au Storage) ---
|
| 222 |
+
|
| 223 |
+
def get_pr_diff(repo_slug: str, user_id: str, pr_id: str) -> tuple[Optional[Dict], str]:
|
| 224 |
+
"""Calcule et retourne la liste des fichiers modifiés et les différences pour une PR."""
|
| 225 |
+
pr = get_pull_request_by_id(pr_id, repo_slug, user_id)
|
| 226 |
+
if not pr:
|
| 227 |
+
return None, f"Pull Request ID {pr_id} introuvable."
|
| 228 |
+
|
| 229 |
+
# Appel à la fonction de stockage
|
| 230 |
+
return get_diff_between_branches(
|
| 231 |
+
repo_slug,
|
| 232 |
+
user_id,
|
| 233 |
+
pr['source_branch'],
|
| 234 |
+
pr['target_branch']
|
| 235 |
+
)
|
| 236 |
+
|
| 237 |
+
def check_pr_merge_status(repo_slug: str, user_id: str, pr_id: str) -> tuple[bool, List[str], str]:
|
| 238 |
+
"""Vérifie les conflits pour une PR."""
|
| 239 |
+
pr = get_pull_request_by_id(pr_id, repo_slug, user_id)
|
| 240 |
+
if not pr:
|
| 241 |
+
return False, [], f"Pull Request ID {pr_id} introuvable."
|
| 242 |
+
|
| 243 |
+
# Appel à la fonction de stockage
|
| 244 |
+
return check_for_conflicts(
|
| 245 |
+
repo_slug,
|
| 246 |
+
user_id,
|
| 247 |
+
pr['source_branch'],
|
| 248 |
+
pr['target_branch']
|
| 249 |
+
)
|
| 250 |
+
|
| 251 |
+
def merge_pull_request(pr_id: str, repo_slug: str, user_id: str, committer_id: str) -> tuple[bool, str]:
|
| 252 |
+
"""Exécute la fusion et met à jour le statut."""
|
| 253 |
+
pr = get_pull_request_by_id(pr_id, repo_slug, user_id)
|
| 254 |
+
if not pr:
|
| 255 |
+
return False, f"Pull Request ID {pr_id} introuvable."
|
| 256 |
+
|
| 257 |
+
if pr['status'] != 'Open':
|
| 258 |
+
return False, f"La PR n'est pas ouverte (Statut actuel: {pr['status']})."
|
| 259 |
+
|
| 260 |
+
# 1. Vérification finale des conflits
|
| 261 |
+
can_merge, conflicts, msg = check_pr_merge_status(repo_slug, user_id, pr_id)
|
| 262 |
+
|
| 263 |
+
if not can_merge:
|
| 264 |
+
return False, f"Impossible de fusionner en raison de conflits: {', '.join(conflicts)}"
|
| 265 |
+
|
| 266 |
+
# 2. Exécuter la fusion (Appel à la fonction de stockage - placeholder)
|
| 267 |
+
merge_message = f"Merge branch '{pr['source_branch']}' into '{pr['target_branch']}' (PR #{pr_id})"
|
| 268 |
+
success_merge, merge_msg = execute_merge_commit(
|
| 269 |
+
repo_slug,
|
| 270 |
+
user_id,
|
| 271 |
+
pr['source_branch'],
|
| 272 |
+
pr['target_branch'],
|
| 273 |
+
merge_message,
|
| 274 |
+
committer_id # L'utilisateur qui exécute la fusion
|
| 275 |
+
)
|
| 276 |
+
|
| 277 |
+
if not success_merge:
|
| 278 |
+
return False, f"Échec de la fusion Git: {merge_msg}"
|
| 279 |
+
|
| 280 |
+
# 3. Mettre à jour le statut de la PR
|
| 281 |
+
return update_pull_request_status(pr_id, repo_slug, user_id, "Merged")
|
| 282 |
+
|
| 283 |
+
|
| 284 |
+
def create_new_pr_branch(
|
| 285 |
+
user_id: str,
|
| 286 |
+
repo_slug: str,
|
| 287 |
+
new_branch_name: str
|
| 288 |
+
) -> tuple[bool, str]:
|
| 289 |
+
"""
|
| 290 |
+
Crée une nouvelle branche de PR en copiant le contenu du dépôt principal
|
| 291 |
+
vers le dépôt PRs sous un chemin isolé ({user_id}/{repo_slug}/{new_branch_name}).
|
| 292 |
+
"""
|
| 293 |
+
if not new_branch_name:
|
| 294 |
+
return False, "Le nom de la nouvelle branche ne peut pas être vide."
|
| 295 |
+
|
| 296 |
+
# La branche est toujours créée à partir de 'main' dans ce contexte (target_branch)
|
| 297 |
+
# L'étape 1 est la copie des fichiers
|
| 298 |
+
# Appel à l'implémentation locale de 'copy_repo_to_new_branch_in_pr_repo'
|
| 299 |
+
success, message = copy_repo_to_new_branch_in_pr_repo(
|
| 300 |
+
user_id=user_id,
|
| 301 |
+
repo_slug=repo_slug,
|
| 302 |
+
new_branch_name=new_branch_name,
|
| 303 |
+
pr_repo_id=PULL_REQUESTS_HF_REPO_ID # Utilise la variable importée
|
| 304 |
+
)
|
| 305 |
+
|
| 306 |
+
if success:
|
| 307 |
+
return True, f"Branche de PR '{new_branch_name}' créée et initialisée avec les fichiers du dépôt principal."
|
| 308 |
+
else:
|
| 309 |
+
logger.error(f"Échec de la création de la branche de PR pour {repo_slug}/{new_branch_name}: {message}")
|
| 310 |
+
return False, f"Échec de la création de la branche : {message}"
|
| 311 |
+
|
| 312 |
+
|
| 313 |
+
def get_files_in_pr_branch(pr_id: str, repo_slug: str, user_id: str) -> tuple[List[str], str]:
|
| 314 |
+
"""
|
| 315 |
+
Récupère la liste de tous les fichiers dans la branche source (source_branch)
|
| 316 |
+
d'une Pull Request spécifique.
|
| 317 |
+
Fonction métier pour le Front-end.
|
| 318 |
+
"""
|
| 319 |
+
pr = get_pull_request_by_id(pr_id, repo_slug, user_id)
|
| 320 |
+
if not pr:
|
| 321 |
+
return [], f"Pull Request ID {pr_id} introuvable."
|
| 322 |
+
|
| 323 |
+
branch_name = pr['source_branch']
|
| 324 |
+
|
| 325 |
+
# 1. Utilise la fonction locale de gestion de Hugging Face
|
| 326 |
+
file_list, error_msg = list_files_in_pr_branch(
|
| 327 |
+
user_id=user_id,
|
| 328 |
+
repo_slug=repo_slug,
|
| 329 |
+
branch_name=branch_name,
|
| 330 |
+
pr_repo_id=PULL_REQUESTS_HF_REPO_ID # La constante importée de config
|
| 331 |
+
)
|
| 332 |
+
|
| 333 |
+
# 2. Ajoute une couche de gestion des erreurs si le manager retourne un message
|
| 334 |
+
if error_msg:
|
| 335 |
+
# On logge une erreur (c'est déjà fait dans le manager, mais on peut ici retourner un message
|
| 336 |
+
# plus général au Front-end si nécessaire. On retourne ici le message d'erreur du manager)
|
| 337 |
+
return [], error_msg
|
| 338 |
+
|
| 339 |
+
# 3. Retourne la liste des fichiers et un message vide
|
| 340 |
+
return file_list, ""
|
| 341 |
+
|
| 342 |
+
|
| 343 |
+
# --- CORRECTION D'INDENTATION : Cette fonction n'est plus imbriquée ---
|
| 344 |
+
def get_pr_file_content(pr_id: str, repo_slug: str, user_id: str, file_path: str) -> tuple[Optional[str], str]:
|
| 345 |
+
"""
|
| 346 |
+
Récupère le contenu d'un fichier spécifique à partir de la branche source de la PR.
|
| 347 |
+
"""
|
| 348 |
+
pr = get_pull_request_by_id(pr_id, repo_slug, user_id)
|
| 349 |
+
if not pr:
|
| 350 |
+
return None, f"Pull Request ID {pr_id} introuvable."
|
| 351 |
+
|
| 352 |
+
branch_name = pr['source_branch']
|
| 353 |
+
|
| 354 |
+
# Appel à la fonction locale
|
| 355 |
+
return get_file_content_from_pr_branch(
|
| 356 |
+
user_id=user_id,
|
| 357 |
+
repo_slug=repo_slug,
|
| 358 |
+
branch_name=branch_name,
|
| 359 |
+
file_path=file_path,
|
| 360 |
+
pr_repo_id=PULL_REQUESTS_HF_REPO_ID
|
| 361 |
+
)
|
| 362 |
+
|
| 363 |
+
# =========================================================================
|
| 364 |
+
# === NOUVELLES FONCTIONS DE GESTION DE BRANCHE (Autonomisation du Fichier)
|
| 365 |
+
# =========================================================================
|
| 366 |
+
|
| 367 |
+
# Le routeur backend devra appeler cette fonction lorsque
|
| 368 |
+
def copy_repo_to_new_branch_in_pr_repo(
|
| 369 |
+
user_id: str,
|
| 370 |
+
repo_slug: str,
|
| 371 |
+
new_branch_name: str,
|
| 372 |
+
pr_repo_id: Optional[str] = None # PULL_REQUESTS_HF_REPO_ID
|
| 373 |
+
) -> tuple[bool, str]:
|
| 374 |
+
"""
|
| 375 |
+
Copie récursivement tous les fichiers et dossiers d'un dépôt utilisateur/slug
|
| 376 |
+
vers un nouveau chemin dans le dépôt des Pull Requests.
|
| 377 |
+
|
| 378 |
+
Le chemin source est : HF_DATASET_REPO_ID / {user_id}/{repo_slug}
|
| 379 |
+
Le chemin cible est : PR_REPO_ID / {user_id}/{repo_slug}/{new_branch_name}
|
| 380 |
+
"""
|
| 381 |
+
source_repo_id = HF_DATASET_REPO_ID
|
| 382 |
+
target_repo_id = pr_repo_id if pr_repo_id else PULL_REQUESTS_HF_REPO_ID
|
| 383 |
+
|
| 384 |
+
if not source_repo_id or not target_repo_id:
|
| 385 |
+
return False, "Erreur de configuration: Repository source ou cible Hugging Face non défini."
|
| 386 |
+
|
| 387 |
+
source_path_in_repo = f"{user_id}/{repo_slug}"
|
| 388 |
+
target_base_path = f"{source_path_in_repo}/{new_branch_name}"
|
| 389 |
+
|
| 390 |
+
# 1. Lister les fichiers dans le dépôt source
|
| 391 |
+
source_hf_path = f"datasets/{source_repo_id}/{source_path_in_repo}"
|
| 392 |
+
|
| 393 |
+
try:
|
| 394 |
+
# Utiliser HfFileSystem pour lister récursivement le contenu
|
| 395 |
+
# NOTE: Le chemin d'accès HfFileSystem nécessite le format 'hf://datasets/{repo_id}/...'
|
| 396 |
+
full_source_hf_path = f"hf://datasets/{source_repo_id}/{source_path_in_repo}"
|
| 397 |
+
|
| 398 |
+
all_items = fs.ls(full_source_hf_path, detail=True, recursive=True)
|
| 399 |
+
|
| 400 |
+
files_to_copy = [
|
| 401 |
+
item for item in all_items
|
| 402 |
+
if item.get('type') == 'file'
|
| 403 |
+
]
|
| 404 |
+
|
| 405 |
+
if not files_to_copy:
|
| 406 |
+
return True, f"Aucun fichier trouvé à copier pour le dépôt '{repo_slug}'. La branche '{new_branch_name}' a été créée vide."
|
| 407 |
+
|
| 408 |
+
# Préparer les données pour le commit (liste d'opérations)
|
| 409 |
+
operations = []
|
| 410 |
+
|
| 411 |
+
for file_item in files_to_copy:
|
| 412 |
+
# item['name'] est le chemin complet HF. On a besoin du chemin RELATIF
|
| 413 |
+
# On retire le préfixe 'datasets/{repo_id}/' pour obtenir le chemin dans le dépôt
|
| 414 |
+
# Ex: 'datasets/repo_id/user_id/repo_slug/index.html' -> 'user_id/repo_slug/index.html'
|
| 415 |
+
|
| 416 |
+
# Pour un item listé par fs.ls(full_source_hf_path), 'name' est le chemin complet
|
| 417 |
+
# depuis la racine du repo hf://datasets/{source_repo_id}/
|
| 418 |
+
# Le chemin à enlever est 'hf://datasets/{source_repo_id}/'
|
| 419 |
+
prefix_to_remove = f"hf://datasets/{source_repo_id}/"
|
| 420 |
+
path_in_source_repo = file_item['name'].replace(prefix_to_remove, "", 1)
|
| 421 |
+
|
| 422 |
+
# Le chemin RELATIF à la base de la source est :
|
| 423 |
+
# path_in_source_repo est 'user_id/repo_slug/index.html'. On veut 'index.html'
|
| 424 |
+
relative_path_from_base = path_in_source_repo.split(source_path_in_repo)[-1].lstrip('/')
|
| 425 |
+
|
| 426 |
+
# Nouveau chemin cible dans le repo de PRs : {user_id}/{repo_slug}/{new_branch_name}/{index.html}
|
| 427 |
+
target_file_path = f"{target_base_path}/{relative_path_from_base}"
|
| 428 |
+
|
| 429 |
+
# Récupérer le contenu brut du fichier
|
| 430 |
+
try:
|
| 431 |
+
# Utiliser fs.open avec le chemin 'name' retourné par fs.ls
|
| 432 |
+
with fs.open(file_item['name'], "rb") as f:
|
| 433 |
+
file_content_bytes = f.read()
|
| 434 |
+
|
| 435 |
+
# Créer une opération d'ajout de fichier
|
| 436 |
+
operations.append(
|
| 437 |
+
CommitOperationAdd(
|
| 438 |
+
path_in_repo=target_file_path,
|
| 439 |
+
path_or_fileobj=BytesIO(file_content_bytes) # Le contenu doit être un objet File-like (BytesIO)
|
| 440 |
+
)
|
| 441 |
+
)
|
| 442 |
+
|
| 443 |
+
except Exception as e:
|
| 444 |
+
logger.error(f"Erreur lors de la lecture du fichier source {file_item['name']}: {e}")
|
| 445 |
+
# Continuer avec les autres fichiers
|
| 446 |
+
continue
|
| 447 |
+
|
| 448 |
+
# 2. Téléversement de tous les fichiers copiés en un seul commit atomique
|
| 449 |
+
commit_message = f"feat: Création de la branche '{new_branch_name}' à partir de main pour PR."
|
| 450 |
+
|
| 451 |
+
# Utiliser create_commit pour une opération atomique avec plusieurs ajouts
|
| 452 |
+
api.create_commit(
|
| 453 |
+
repo_id=target_repo_id,
|
| 454 |
+
operations=operations, # Utilisation de la liste des opérations
|
| 455 |
+
repo_type="dataset",
|
| 456 |
+
commit_message=commit_message,
|
| 457 |
+
)
|
| 458 |
+
|
| 459 |
+
message = f"Copie réussie de {len(files_to_copy)} fichiers vers la nouvelle branche '{new_branch_name}' dans le dépôt de PRs."
|
| 460 |
+
logger.info(message)
|
| 461 |
+
return True, message
|
| 462 |
+
|
| 463 |
+
except HfHubHTTPError as e:
|
| 464 |
+
logger.error(f"Erreur API Hugging Face lors de la copie pour {repo_slug}: {e}")
|
| 465 |
+
# Extrait la première ligne de la réponse d'erreur HTTP pour un message plus concis
|
| 466 |
+
error_detail = e.response.text.splitlines()[0] if e.response and e.response.text else str(e)
|
| 467 |
+
return False, f"Échec de la copie Hugging Face : {error_detail}"
|
| 468 |
+
except Exception as e:
|
| 469 |
+
logger.error(f"Erreur inconnue lors de la copie pour {repo_slug}: {e}")
|
| 470 |
+
return False, f"Erreur interne lors de la copie : {str(e)}"
|
| 471 |
+
|
| 472 |
+
def list_files_in_pr_branch(
|
| 473 |
+
user_id: str,
|
| 474 |
+
repo_slug: str,
|
| 475 |
+
branch_name: str,
|
| 476 |
+
pr_repo_id: str # Le ID du dépôt de PRs (PULL_REQUESTS_HF_REPO_ID)
|
| 477 |
+
) -> tuple[List[str], str]:
|
| 478 |
+
"""
|
| 479 |
+
Liste tous les chemins de fichiers (relatifs à la racine de la branche)
|
| 480 |
+
dans le dossier isolé qui représente une branche de Pull Request.
|
| 481 |
+
|
| 482 |
+
Retourne (liste_des_fichiers, message_d_erreur).
|
| 483 |
+
"""
|
| 484 |
+
if not pr_repo_id:
|
| 485 |
+
return [], "Erreur de configuration: PULL_REQUESTS_HF_REPO_ID est manquant."
|
| 486 |
+
|
| 487 |
+
# Le chemin dans le repo de PRs est toujours "{user_id}/{repo_slug}/{branch_name}"
|
| 488 |
+
# Le préfixe "pr_data/" est ajouté par convention dans le fichier prs.json, mais
|
| 489 |
+
# le chemin dans le dépôt des PRs semble être "pr_data/{user_id}/{repo_slug}/{branch_name}"
|
| 490 |
+
# selon la fonction list_files_in_pr_branch (dans l'ancien manager)
|
| 491 |
+
branch_folder_path_in_repo = f"pr_data/{user_id}/{repo_slug}/{branch_name}"
|
| 492 |
+
|
| 493 |
+
try:
|
| 494 |
+
# Construit le chemin complet de l'API HfFileSystem
|
| 495 |
+
repo_fs_path = f"hf://datasets/{pr_repo_id}/{branch_folder_path_in_repo}"
|
| 496 |
+
|
| 497 |
+
# Liste récursivement tous les éléments dans le dossier de la branche
|
| 498 |
+
files_info = fs.ls(repo_fs_path, detail=True, recursive=True)
|
| 499 |
+
|
| 500 |
+
file_paths = []
|
| 501 |
+
for file_item in files_info:
|
| 502 |
+
if file_item.get('type') == 'file':
|
| 503 |
+
# Le 'name' de l'item est le chemin complet
|
| 504 |
+
prefix = f"hf://datasets/{pr_repo_id}/{branch_folder_path_in_repo}/"
|
| 505 |
+
|
| 506 |
+
# On veut le chemin relatif à la racine de la branche.
|
| 507 |
+
relative_path = file_item['name'].replace(prefix, "", 1)
|
| 508 |
+
|
| 509 |
+
# S'assurer qu'il ne s'agit pas d'un fichier de métadonnées interne si vous en utilisez
|
| 510 |
+
if relative_path and relative_path != "metadata.json":
|
| 511 |
+
file_paths.append(relative_path)
|
| 512 |
+
|
| 513 |
+
return file_paths, ""
|
| 514 |
+
|
| 515 |
+
except FileNotFoundError:
|
| 516 |
+
message = f"Dossier de branche PR '{branch_name}' non trouvé dans le dépôt de PRs."
|
| 517 |
+
logger.warning(message)
|
| 518 |
+
return [], message
|
| 519 |
+
except HfHubHTTPError as e:
|
| 520 |
+
message = f"Erreur API Hugging Face lors de la liste des fichiers pour la branche {branch_name}: {e}"
|
| 521 |
+
logger.error(message)
|
| 522 |
+
return [], message
|
| 523 |
+
except Exception as e:
|
| 524 |
+
message = f"Erreur inconnue lors de la liste des fichiers pour la branche {branch_name}: {e}"
|
| 525 |
+
logger.error(message)
|
| 526 |
+
return [], message
|
| 527 |
+
|
| 528 |
+
def get_file_content_from_pr_branch(
|
| 529 |
+
user_id: str,
|
| 530 |
+
repo_slug: str,
|
| 531 |
+
branch_name: str,
|
| 532 |
+
file_path: str, # Le chemin relatif du fichier (ex: index.html)
|
| 533 |
+
pr_repo_id: str
|
| 534 |
+
) -> tuple[Optional[str], str]:
|
| 535 |
+
"""
|
| 536 |
+
Récupère le contenu brut d'un fichier spécifique dans la branche isolée de la PR.
|
| 537 |
+
Retourne (contenu_du_fichier, message_d_erreur).
|
| 538 |
+
"""
|
| 539 |
+
if not pr_repo_id:
|
| 540 |
+
return None, "Erreur de configuration: PULL_REQUESTS_HF_REPO_ID manquant."
|
| 541 |
+
|
| 542 |
+
# Construit le chemin complet du fichier dans le dépôt de PRs
|
| 543 |
+
# pr_data/{user_id}/{repo_slug}/{branch_name}/{file_path}
|
| 544 |
+
full_path_in_repo = f"pr_data/{user_id}/{repo_slug}/{branch_name}/{file_path}"
|
| 545 |
+
|
| 546 |
+
try:
|
| 547 |
+
# Chemin HfFileSystem
|
| 548 |
+
repo_fs_path = f"hf://datasets/{pr_repo_id}/{full_path_in_repo}"
|
| 549 |
+
|
| 550 |
+
# Lecture du contenu du fichier en bytes
|
| 551 |
+
file_bytes = fs.read_bytes(repo_fs_path)
|
| 552 |
+
|
| 553 |
+
# Tentative de décodage en UTF-8 pour le contenu texte
|
| 554 |
+
try:
|
| 555 |
+
content = file_bytes.decode('utf-8')
|
| 556 |
+
return content, ""
|
| 557 |
+
except UnicodeDecodeError:
|
| 558 |
+
return None, f"Le fichier '{file_path}' n'est pas un fichier texte standard (UTF-8). Contenu binaire non supporté pour l'édition."
|
| 559 |
+
|
| 560 |
+
except FileNotFoundError:
|
| 561 |
+
message = f"Fichier '{file_path}' non trouvé dans la branche PR '{branch_name}'."
|
| 562 |
+
logger.warning(message)
|
| 563 |
+
return None, message
|
| 564 |
+
except HfHubHTTPError as e:
|
| 565 |
+
message = f"Erreur API Hugging Face lors de la lecture du fichier pour la branche {branch_name}: {e}"
|
| 566 |
+
logger.error(message)
|
| 567 |
+
return None, message
|
| 568 |
+
except Exception as e:
|
| 569 |
+
message = f"Erreur inconnue lors de la lecture du fichier: {e}"
|
| 570 |
+
logger.error(message)
|
| 571 |
+
return None, message
|
| 572 |
+
|
| 573 |
+
def get_repo_branches(repo_slug: str, user_id: str) -> tuple[List[str], str]:
|
| 574 |
+
"""
|
| 575 |
+
Récupère la liste de toutes les branches (Pull Requests ouvertes)
|
| 576 |
+
pour un dépôt utilisateur spécifique (user_id/repo_slug).
|
| 577 |
+
|
| 578 |
+
Dans le contexte Hugging Face, cela liste les branches créées par la
|
| 579 |
+
fonction `create_pull_request` dans le dépôt de PRs.
|
| 580 |
+
|
| 581 |
+
Retourne (liste_des_noms_de_branches, message_d_erreur).
|
| 582 |
+
"""
|
| 583 |
+
# Dans votre architecture, la branche principale du dépôt est le 'repo_slug' lui-même.
|
| 584 |
+
# Les branches de PRs sont des sous-dossiers dans le dépôt de PRs.
|
| 585 |
+
|
| 586 |
+
# 1. Obtenir la liste des Pull Requests ouvertes (qui sont les branches de travail)
|
| 587 |
+
try:
|
| 588 |
+
# La branche par défaut (le dépôt "main") est le repo_slug
|
| 589 |
+
branches = [repo_slug]
|
| 590 |
+
|
| 591 |
+
# Charger la liste des PRs ouvertes (chaque PR correspond à une 'source_branch')
|
| 592 |
+
pr_list = load_all_prs_from_hf(repo_slug, user_id)
|
| 593 |
+
|
| 594 |
+
for pr in pr_list:
|
| 595 |
+
# Nous ajoutons toutes les 'source_branch' qui sont actuellement ouvertes
|
| 596 |
+
if pr['status'] == 'Open' and pr['source_branch'] not in branches:
|
| 597 |
+
branches.append(pr['source_branch'])
|
| 598 |
+
|
| 599 |
+
# Dans un système Git standard, on utiliserait api.list_repo_branches(repo_id).
|
| 600 |
+
# Ici, l'approche doit être hybride (Target Branch + Source Branches ouvertes).
|
| 601 |
+
|
| 602 |
+
return branches, ""
|
| 603 |
+
|
| 604 |
+
except Exception as e:
|
| 605 |
+
message = f"Erreur lors de la récupération des branches pour {repo_slug}: {e}"
|
| 606 |
+
logger.error(message)
|
| 607 |
+
return [repo_slug], message # Retourne au moins la branche par défaut en cas d'erreur
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/repo_settings_manager.py
ADDED
|
@@ -0,0 +1,191 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# repo_settings_manager.py
|
| 2 |
+
import logging
|
| 3 |
+
from typing import Optional, Dict, List, Tuple
|
| 4 |
+
|
| 5 |
+
# Importation des fonctions nécessaires de huggingface_repo_manager
|
| 6 |
+
# Assurez-vous que huggingface_repo_manager.py est dans le même dossier ou accessible dans le PYTHONPATH
|
| 7 |
+
from huggingface_repo_manager import (
|
| 8 |
+
get_user_repo_metadata,
|
| 9 |
+
update_user_repo_metadata,
|
| 10 |
+
load_json_file_from_hf,
|
| 11 |
+
save_json_file_to_hf,
|
| 12 |
+
)
|
| 13 |
+
|
| 14 |
+
# Assurez-vous d'importer la variable de configuration si nécessaire
|
| 15 |
+
try:
|
| 16 |
+
from config import HF_DATASET_REPO_ID
|
| 17 |
+
except ImportError:
|
| 18 |
+
# Solution de repli, à adapter si config.py est essentiel
|
| 19 |
+
import os
|
| 20 |
+
HF_DATASET_REPO_ID = os.environ.get("HF_DATASET_REPO_ID")
|
| 21 |
+
|
| 22 |
+
logger = logging.getLogger(__name__)
|
| 23 |
+
|
| 24 |
+
# --- Constantes de configuration ---
|
| 25 |
+
SECRETS_FILE_NAME = "secrets.json"
|
| 26 |
+
VARIABLES_FILE_NAME = "variables.json"
|
| 27 |
+
|
| 28 |
+
def _get_config_file_path(repo_slug: str, config_type: str) -> str:
|
| 29 |
+
"""Détermine le chemin du fichier JSON de configuration (secrets ou variables)
|
| 30 |
+
dans le chemin de l'utilisateur."""
|
| 31 |
+
if config_type == 'secrets':
|
| 32 |
+
file_name = SECRETS_FILE_NAME
|
| 33 |
+
elif config_type == 'variables':
|
| 34 |
+
file_name = VARIABLES_FILE_NAME
|
| 35 |
+
else:
|
| 36 |
+
raise ValueError(f"Type de configuration non supporté: {config_type}")
|
| 37 |
+
|
| 38 |
+
# Le chemin dans le repo de l'utilisateur est : repo_slug/secrets.json ou repo_slug/variables.json
|
| 39 |
+
return f"{repo_slug}/{file_name}"
|
| 40 |
+
|
| 41 |
+
# NOUVELLE FONCTION : Lecture des paramètres du dépôt (Nom, Description, Visibilité)
|
| 42 |
+
def get_repo_settings(user_id: str, repo_slug: str) -> Tuple[Optional[Dict], str]:
|
| 43 |
+
"""
|
| 44 |
+
Charge le nom, la description, et la visibilité d'un dépôt spécifique
|
| 45 |
+
à partir du fichier metadata.json de l'utilisateur.
|
| 46 |
+
"""
|
| 47 |
+
|
| 48 |
+
metadata, message = get_user_repo_metadata(user_id)
|
| 49 |
+
if metadata is None:
|
| 50 |
+
return None, f"Échec de la lecture des métadonnées utilisateur: {message}"
|
| 51 |
+
|
| 52 |
+
for repo in metadata.get("repos", []):
|
| 53 |
+
if repo.get('FIELD_DEPLOY_ID') == repo_slug:
|
| 54 |
+
return repo, "Paramètres du dépôt chargés avec succès."
|
| 55 |
+
|
| 56 |
+
return None, f"Dépôt '{repo_slug}' non trouvé dans les métadonnées de l'utilisateur."
|
| 57 |
+
|
| 58 |
+
# NOUVELLE FONCTION : Mise à jour des paramètres du dépôt (Nom, Description, Visibilité)
|
| 59 |
+
def update_repo_settings(user_id: str, repo_slug: str, new_data: Dict) -> Tuple[bool, str]:
|
| 60 |
+
"""
|
| 61 |
+
Met à jour le nom, la description, et la visibilité du dépôt dans metadata.json
|
| 62 |
+
en utilisant la fonction update_user_repo_metadata.
|
| 63 |
+
"""
|
| 64 |
+
|
| 65 |
+
# 1. Charger les métadonnées actuelles
|
| 66 |
+
current_metadata, message = get_user_repo_metadata(user_id)
|
| 67 |
+
if current_metadata is None:
|
| 68 |
+
logger.error(f"Impossible de charger les métadonnées pour {user_id}: {message}")
|
| 69 |
+
return False, f"Impossible de charger les métadonnées pour la mise à jour: {message}"
|
| 70 |
+
|
| 71 |
+
# 2. Trouver et mettre à jour l'entrée du dépôt
|
| 72 |
+
repos = current_metadata.get("repos", [])
|
| 73 |
+
repo_to_update = None
|
| 74 |
+
|
| 75 |
+
for repo in repos:
|
| 76 |
+
if repo.get('FIELD_DEPLOY_ID') == repo_slug:
|
| 77 |
+
repo_to_update = repo
|
| 78 |
+
break
|
| 79 |
+
|
| 80 |
+
if repo_to_update is None:
|
| 81 |
+
return False, f"Dépôt '{repo_slug}' non trouvé dans les métadonnées de l'utilisateur."
|
| 82 |
+
|
| 83 |
+
# Mettre à jour les données du dépôt
|
| 84 |
+
# On met à jour uniquement les clés fournies dans new_data
|
| 85 |
+
repo_to_update.update(new_data)
|
| 86 |
+
|
| 87 |
+
# 3. Sauvegarder le fichier de métadonnées mis à jour
|
| 88 |
+
# update_user_repo_metadata gère la logique de remplacement/mise à jour
|
| 89 |
+
success, message = update_user_repo_metadata(
|
| 90 |
+
user_id=user_id,
|
| 91 |
+
new_repo_data=repo_to_update,
|
| 92 |
+
repo_id=HF_DATASET_REPO_ID
|
| 93 |
+
)
|
| 94 |
+
|
| 95 |
+
if success:
|
| 96 |
+
logger.info(f"Paramètres du dépôt '{repo_slug}' mis à jour par l'utilisateur {user_id}.")
|
| 97 |
+
return True, "Paramètres du dépôt mis à jour avec succès."
|
| 98 |
+
else:
|
| 99 |
+
logger.error(f"Échec de la sauvegarde des métadonnées pour {user_id}/{repo_slug}: {message}")
|
| 100 |
+
return False, f"Échec de la mise à jour des paramètres du dépôt: {message}"
|
| 101 |
+
|
| 102 |
+
# NOUVELLE FONCTION : Lire la configuration complète (Secrets ou Variables)
|
| 103 |
+
def get_repo_config(user_id: str, repo_slug: str, config_type: str) -> Tuple[Optional[Dict], str]:
|
| 104 |
+
"""
|
| 105 |
+
Charge la configuration complète (secrets ou variables) d'un dépôt
|
| 106 |
+
à partir du fichier JSON correspondant (secrets.json ou variables.json).
|
| 107 |
+
"""
|
| 108 |
+
|
| 109 |
+
try:
|
| 110 |
+
# Construit le chemin du fichier JSON relatif au HF_DATASET_REPO_ID
|
| 111 |
+
file_path_in_repo = _get_config_file_path(repo_slug, config_type)
|
| 112 |
+
except ValueError as e:
|
| 113 |
+
return None, str(e)
|
| 114 |
+
|
| 115 |
+
# Le chemin complet pour les fonctions HF est user_id/repo_slug/config_file.json
|
| 116 |
+
full_path = f"{user_id}/{file_path_in_repo}"
|
| 117 |
+
|
| 118 |
+
current_config, message = load_json_file_from_hf(full_path, repo_id=HF_DATASET_REPO_ID)
|
| 119 |
+
|
| 120 |
+
if current_config is None:
|
| 121 |
+
# Si le fichier n'existe pas, on retourne une liste vide, ce qui est normal
|
| 122 |
+
if "non trouvé" in message.lower():
|
| 123 |
+
# Initialise avec une structure standard
|
| 124 |
+
return {"entries": []}, "Configuration chargée (fichier non existant, retourné vide)."
|
| 125 |
+
else:
|
| 126 |
+
return None, f"Échec du chargement de la configuration: {message}"
|
| 127 |
+
|
| 128 |
+
return current_config, "Configuration chargée avec succès."
|
| 129 |
+
|
| 130 |
+
|
| 131 |
+
# NOUVELLE FONCTION : Gérer l'ajout/modification/suppression d'une entrée (Secret ou Variable)
|
| 132 |
+
def manage_repo_config_entry(
|
| 133 |
+
user_id: str,
|
| 134 |
+
repo_slug: str,
|
| 135 |
+
config_type: str, # 'secrets' ou 'variables'
|
| 136 |
+
operation: str, # 'add', 'update', 'delete'
|
| 137 |
+
entry_name: str,
|
| 138 |
+
entry_data: Optional[Dict] = None # Contient 'name', 'description', 'value'
|
| 139 |
+
) -> Tuple[bool, str]:
|
| 140 |
+
"""
|
| 141 |
+
Ajoute, met à jour ou supprime une entrée de configuration (secret ou variable)
|
| 142 |
+
dans le fichier JSON correspondant et le sauvegarde sur Hugging Face.
|
| 143 |
+
"""
|
| 144 |
+
|
| 145 |
+
if operation not in ['add', 'update', 'delete']:
|
| 146 |
+
return False, "Opération non reconnue."
|
| 147 |
+
|
| 148 |
+
# Validation des données pour add/update
|
| 149 |
+
if operation != 'delete' and (not entry_data or 'name' not in entry_data):
|
| 150 |
+
return False, "Les données d'entrée ou le nom de l'entrée sont manquants pour l'opération."
|
| 151 |
+
|
| 152 |
+
try:
|
| 153 |
+
file_path_in_repo = _get_config_file_path(repo_slug, config_type)
|
| 154 |
+
except ValueError as e:
|
| 155 |
+
return False, str(e)
|
| 156 |
+
|
| 157 |
+
full_path = f"{user_id}/{file_path_in_repo}"
|
| 158 |
+
|
| 159 |
+
# 1. Charger la configuration actuelle (ou initialiser si manquante)
|
| 160 |
+
current_config, _ = load_json_file_from_hf(full_path, repo_id=HF_DATASET_REPO_ID)
|
| 161 |
+
if current_config is None or "non trouvé" in _:
|
| 162 |
+
current_config = {"entries": []}
|
| 163 |
+
|
| 164 |
+
entries = current_config.get("entries", [])
|
| 165 |
+
|
| 166 |
+
# 2. Mettre à jour la liste
|
| 167 |
+
# Retirer l'ancienne entrée si elle existe (par le nom)
|
| 168 |
+
# Ceci gère la suppression et prépare l'ajout/mise à jour
|
| 169 |
+
entries = [e for e in entries if e.get('name') != entry_name]
|
| 170 |
+
|
| 171 |
+
if operation == 'add' or operation == 'update':
|
| 172 |
+
entries.append(entry_data)
|
| 173 |
+
|
| 174 |
+
current_config["entries"] = entries
|
| 175 |
+
|
| 176 |
+
# 3. Sauvegarder le fichier JSON mis à jour
|
| 177 |
+
commit_msg = f"{operation.capitalize()} {config_type} '{entry_name}' pour le dépôt {repo_slug}."
|
| 178 |
+
|
| 179 |
+
success, message = save_json_file_to_hf(
|
| 180 |
+
file_path=full_path,
|
| 181 |
+
data=current_config,
|
| 182 |
+
commit_message=commit_msg,
|
| 183 |
+
repo_id=HF_DATASET_REPO_ID
|
| 184 |
+
)
|
| 185 |
+
|
| 186 |
+
if success:
|
| 187 |
+
logger.info(f"Opération '{operation}' sur {config_type} '{entry_name}' réussie pour {repo_slug}.")
|
| 188 |
+
return True, message
|
| 189 |
+
else:
|
| 190 |
+
logger.error(f"Échec de l'opération '{operation}' sur {config_type} pour {repo_slug}: {message}")
|
| 191 |
+
return False, message
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/repo_settings_routes.py
ADDED
|
@@ -0,0 +1,116 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# repo_settings_routes.py
|
| 2 |
+
from flask import Blueprint, request, jsonify, abort
|
| 3 |
+
from typing import Dict
|
| 4 |
+
|
| 5 |
+
settings_bp = Blueprint('settings', __name__, url_prefix='/api/settings')
|
| 6 |
+
# Assurez-vous que repo_settings_manager.py est accessible
|
| 7 |
+
from repo_settings_manager import (
|
| 8 |
+
get_repo_settings,
|
| 9 |
+
update_repo_settings,
|
| 10 |
+
get_repo_config,
|
| 11 |
+
manage_repo_config_entry
|
| 12 |
+
)
|
| 13 |
+
|
| 14 |
+
|
| 15 |
+
|
| 16 |
+
# --- Routes pour les Paramètres Généraux du Dépôt (Nom, Description, Visibilité) ---
|
| 17 |
+
|
| 18 |
+
# Route 1: Lire les paramètres du dépôt
|
| 19 |
+
@settings_bp.route('/<user_id>/repo/<repo_slug>', methods=['GET'])
|
| 20 |
+
def get_repo_settings_route(user_id, repo_slug):
|
| 21 |
+
"""
|
| 22 |
+
Récupère le nom, la description, et la visibilité d'un dépôt.
|
| 23 |
+
GET /api/settings/<user_id>/repo/<repo_slug>
|
| 24 |
+
"""
|
| 25 |
+
settings, message = get_repo_settings(user_id, repo_slug)
|
| 26 |
+
|
| 27 |
+
if settings is None:
|
| 28 |
+
# Retourne 404 si le dépôt n'est pas trouvé
|
| 29 |
+
return jsonify({"success": False, "message": message}), 404
|
| 30 |
+
|
| 31 |
+
return jsonify({"success": True, "data": settings}), 200
|
| 32 |
+
|
| 33 |
+
# Route 2: Mettre à jour les paramètres du dépôt (Nom, Description, Visibilité)
|
| 34 |
+
@settings_bp.route('/<user_id>/repo/<repo_slug>', methods=['PUT'])
|
| 35 |
+
def update_repo_settings_route(user_id, repo_slug):
|
| 36 |
+
"""
|
| 37 |
+
Met à jour les paramètres d'un dépôt (name, description, visibility).
|
| 38 |
+
PUT /api/settings/<user_id>/repo/<repo_slug>
|
| 39 |
+
Corps: {'name': 'nouveau_nom', 'description': 'nouvelle_desc', 'visibility': 'public'}
|
| 40 |
+
"""
|
| 41 |
+
data: Dict = request.json
|
| 42 |
+
|
| 43 |
+
if not data:
|
| 44 |
+
return jsonify({"success": False, "message": "Aucune donnée fournie."}), 400
|
| 45 |
+
|
| 46 |
+
success, message = update_repo_settings(user_id, repo_slug, data)
|
| 47 |
+
|
| 48 |
+
if not success:
|
| 49 |
+
return jsonify({"success": False, "message": message}), 500
|
| 50 |
+
|
| 51 |
+
return jsonify({"success": True, "message": message}), 200
|
| 52 |
+
|
| 53 |
+
|
| 54 |
+
# --- Routes pour la Configuration (Secrets et Variables) ---
|
| 55 |
+
|
| 56 |
+
# Route 3: Lire la configuration complète (Secrets ou Variables)
|
| 57 |
+
@settings_bp.route('/<user_id>/repo/<repo_slug>/config/<config_type>', methods=['GET'])
|
| 58 |
+
def get_repo_config_route(user_id, repo_slug, config_type):
|
| 59 |
+
"""
|
| 60 |
+
Récupère la liste complète des secrets ou des variables.
|
| 61 |
+
GET /api/settings/<user_id>/repo/<repo_slug>/config/secrets
|
| 62 |
+
"""
|
| 63 |
+
if config_type not in ['secrets', 'variables']:
|
| 64 |
+
return jsonify({"success": False, "message": "Type de configuration invalide. Utilisez 'secrets' ou 'variables'."}), 400
|
| 65 |
+
|
| 66 |
+
config_data, message = get_repo_config(user_id, repo_slug, config_type)
|
| 67 |
+
|
| 68 |
+
if config_data is None:
|
| 69 |
+
return jsonify({"success": False, "message": message}), 500
|
| 70 |
+
|
| 71 |
+
# config_data contiendra {"entries": []} si le fichier n'existe pas, ce qui est correct.
|
| 72 |
+
return jsonify({"success": True, "data": config_data}), 200
|
| 73 |
+
|
| 74 |
+
|
| 75 |
+
# Route 4: Gérer les Secrets/Variables (Ajout/Modification/Suppression d'une entrée)
|
| 76 |
+
@settings_bp.route('/<user_id>/repo/<repo_slug>/config/<config_type>', methods=['POST'])
|
| 77 |
+
def manage_repo_config_route(user_id, repo_slug, config_type):
|
| 78 |
+
"""
|
| 79 |
+
Ajoute, met à jour ou supprime un secret/variable spécifique.
|
| 80 |
+
POST /api/settings/<user_id>/repo/<repo_slug>/config/secrets
|
| 81 |
+
Corps: {'operation': 'add'/'update'/'delete', 'name': 'NOM_CLE', 'entry_data': {...}}
|
| 82 |
+
"""
|
| 83 |
+
data: Dict = request.json
|
| 84 |
+
|
| 85 |
+
if config_type not in ['secrets', 'variables']:
|
| 86 |
+
return jsonify({"success": False, "message": "Type de configuration invalide. Utilisez 'secrets' ou 'variables'."}), 400
|
| 87 |
+
|
| 88 |
+
entry_name = data.get('name')
|
| 89 |
+
operation = data.get('operation') # 'add', 'update', 'delete'
|
| 90 |
+
entry_data = data.get('entry_data') # Contient 'name', 'description', 'value'
|
| 91 |
+
|
| 92 |
+
# Validation minimale
|
| 93 |
+
if not entry_name or not operation:
|
| 94 |
+
return jsonify({"success": False, "message": "Données manquantes ('name' ou 'operation')."}), 400
|
| 95 |
+
|
| 96 |
+
if operation != 'delete' and not entry_data:
|
| 97 |
+
return jsonify({"success": False, "message": f"Données d'entrée ('entry_data') manquantes pour l'opération '{operation}'."}), 400
|
| 98 |
+
|
| 99 |
+
# L'entrée 'name' dans entry_data doit correspondre à entry_name pour la cohérence
|
| 100 |
+
if entry_data and entry_data.get('name') != entry_name:
|
| 101 |
+
return jsonify({"success": False, "message": "Incohérence: 'name' dans entry_data doit correspondre à 'name' au niveau supérieur."}), 400
|
| 102 |
+
|
| 103 |
+
|
| 104 |
+
success, message = manage_repo_config_entry(
|
| 105 |
+
user_id=user_id,
|
| 106 |
+
repo_slug=repo_slug,
|
| 107 |
+
config_type=config_type,
|
| 108 |
+
operation=operation,
|
| 109 |
+
entry_name=entry_name,
|
| 110 |
+
entry_data=entry_data # Sera None pour 'delete'
|
| 111 |
+
)
|
| 112 |
+
|
| 113 |
+
if not success:
|
| 114 |
+
return jsonify({"success": False, "message": message}), 500
|
| 115 |
+
|
| 116 |
+
return jsonify({"success": True, "message": message}), 200
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/requirements.txt
ADDED
|
@@ -0,0 +1,13 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
flask
|
| 2 |
+
bcrypt
|
| 3 |
+
requests
|
| 4 |
+
gunicorn
|
| 5 |
+
Flask-CORS
|
| 6 |
+
python-dotenv
|
| 7 |
+
stripe
|
| 8 |
+
dnspython
|
| 9 |
+
werkzeug
|
| 10 |
+
flask-socketio
|
| 11 |
+
eventlet
|
| 12 |
+
huggingface_hub
|
| 13 |
+
google-genai
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/user_routes.py
ADDED
|
@@ -0,0 +1,453 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# user_routes.py (Version SSR - Rendu Côté Serveur)
|
| 2 |
+
|
| 3 |
+
from datetime import datetime # <-- AJOUTER CECI
|
| 4 |
+
import logging # <-- NOUVEL IMPORT
|
| 5 |
+
from flask import Blueprint, request, jsonify, session, redirect, url_for, flash, render_template
|
| 6 |
+
import uuid
|
| 7 |
+
from decorators import login_required
|
| 8 |
+
from auth_backend import (
|
| 9 |
+
register_user,
|
| 10 |
+
login_user,
|
| 11 |
+
reset_password_via_security_question,
|
| 12 |
+
get_user_by_id,
|
| 13 |
+
update_user_profile,
|
| 14 |
+
# Assurez-vous d'importer toute autre fonction nécessaire ici (ex: is_email_unique)
|
| 15 |
+
)
|
| 16 |
+
|
| 17 |
+
from decorators import api_session_required
|
| 18 |
+
from huggingface_repo_manager import (
|
| 19 |
+
create_empty_repo_folder_on_hf,
|
| 20 |
+
update_user_repo_metadata,
|
| 21 |
+
get_user_repo_metadata,
|
| 22 |
+
upload_files_to_repo_backend,
|
| 23 |
+
# NOUVEAUX IMPORTS
|
| 24 |
+
list_repo_files_from_hf, # <-- DÉJÀ EXISTANT DANS LE FICHIER FOURNI
|
| 25 |
+
get_file_content_from_hf, # <-- NOUVELLE FONCTION AJOUTÉE
|
| 26 |
+
)
|
| 27 |
+
logger = logging.getLogger(__name__) # <-- AJOUTER CETTE LIGNE
|
| 28 |
+
# Création du Blueprint 'user_bp'
|
| 29 |
+
user_bp = Blueprint('user_bp', __name__)
|
| 30 |
+
|
| 31 |
+
# ----------------------------------------------------------------------
|
| 32 |
+
# ENDPOINTS PAGES SÉCURISÉES (Rendu Côté Serveur)
|
| 33 |
+
# Les pages sensibles sont protégées par @login_required.
|
| 34 |
+
# ----------------------------------------------------------------------
|
| 35 |
+
|
| 36 |
+
# Liste des pages sensibles à protéger.
|
| 37 |
+
SECURE_PAGES = [
|
| 38 |
+
# "dashboard.html", # <--- RETIRÉ car géré par la route spécifique dashboard()
|
| 39 |
+
# "profile.html", # <--- RETIRÉ car géré par la route spécifique profile()
|
| 40 |
+
# "nouveau_project.html", # <--- RETIRÉ car géré par la route spécifique profile()
|
| 41 |
+
"html_launcher.html",
|
| 42 |
+
"create_new_file.html",
|
| 43 |
+
"checkout.html",
|
| 44 |
+
# Ajoutez toutes les autres pages sensibles ici
|
| 45 |
+
]
|
| 46 |
+
|
| 47 |
+
def create_secure_page_route(page_name):
|
| 48 |
+
"""
|
| 49 |
+
Fonction d'usine pour créer dynamiquement une fonction de vue unique
|
| 50 |
+
et garantir un nom d'endpoint unique pour chaque page sécurisée.
|
| 51 |
+
"""
|
| 52 |
+
|
| 53 |
+
# Création d'un nom d'endpoint unique (ex: secure_page_nouveau_project_html)
|
| 54 |
+
endpoint_name = f"secure_page_{page_name.replace('.', '_')}"
|
| 55 |
+
|
| 56 |
+
@login_required
|
| 57 |
+
def secure_page_view():
|
| 58 |
+
# La variable 'page_name' est correctement capturée dans la closure
|
| 59 |
+
# Rendu simple de tous les templates sécurisés
|
| 60 |
+
return render_template(page_name)
|
| 61 |
+
|
| 62 |
+
# --- MODIFICATION ICI : On retire l'extension .html du chemin de la route ---
|
| 63 |
+
route_path_without_ext = page_name.replace('.html', '')
|
| 64 |
+
|
| 65 |
+
# Enregistrement de la règle d'URL avec le nom d'endpoint unique
|
| 66 |
+
user_bp.add_url_rule(
|
| 67 |
+
f"/mindus/nexus/{route_path_without_ext}", # <-- NOUVEAU CHEMIN SANS EXTENSION
|
| 68 |
+
endpoint=endpoint_name,
|
| 69 |
+
view_func=secure_page_view,
|
| 70 |
+
methods=['GET'] # Par défaut, ces routes sont généralement GET
|
| 71 |
+
)
|
| 72 |
+
|
| 73 |
+
# Création dynamique des routes sécurisées
|
| 74 |
+
for page in SECURE_PAGES:
|
| 75 |
+
create_secure_page_route(page)
|
| 76 |
+
|
| 77 |
+
|
| 78 |
+
# Route spécifique pour le Profil car elle gère aussi un formulaire POST
|
| 79 |
+
@user_bp.route("/mindus/nexus/profile", methods=['GET', 'POST'])
|
| 80 |
+
@login_required
|
| 81 |
+
def profile():
|
| 82 |
+
"""
|
| 83 |
+
Page de profil. Gère la mise à jour via POST et sert la page via GET (SSR).
|
| 84 |
+
"""
|
| 85 |
+
user_id = session.get('user_id')
|
| 86 |
+
|
| 87 |
+
if request.method == 'POST':
|
| 88 |
+
# 1. Récupération des données du formulaire POST
|
| 89 |
+
username = request.form.get('username')
|
| 90 |
+
email = request.form.get('email')
|
| 91 |
+
new_password = request.form.get('new_password')
|
| 92 |
+
confirm_password = request.form.get('confirm_password')
|
| 93 |
+
|
| 94 |
+
# 2. Validation et mise à jour
|
| 95 |
+
if not username or not email:
|
| 96 |
+
flash("Le nom d'utilisateur et l'e-mail sont obligatoires.", "error")
|
| 97 |
+
elif new_password and new_password != confirm_password:
|
| 98 |
+
flash("Le nouveau mot de passe et la confirmation ne correspondent pas.", "error")
|
| 99 |
+
else:
|
| 100 |
+
password_to_update = new_password if new_password and new_password == confirm_password else None
|
| 101 |
+
|
| 102 |
+
success, message = update_user_profile(user_id, username, email, password_to_update)
|
| 103 |
+
|
| 104 |
+
if success:
|
| 105 |
+
flash(message, "success")
|
| 106 |
+
return redirect(url_for('user_bp.profile')) # Redirection POST/Redirect/GET
|
| 107 |
+
else:
|
| 108 |
+
flash(message, "error")
|
| 109 |
+
|
| 110 |
+
# Logique pour la méthode GET ou après un échec POST
|
| 111 |
+
# On passe l'objet utilisateur si nécessaire pour pré-remplir le formulaire
|
| 112 |
+
# NOTE: Une alternative est d'utiliser l'API GET /api/profile côté JS dans le template
|
| 113 |
+
user_data = get_user_by_id(user_id) # Récupérer les données utilisateur pour le template
|
| 114 |
+
|
| 115 |
+
return render_template('profile.html', user=user_data)
|
| 116 |
+
|
| 117 |
+
|
| 118 |
+
@user_bp.route("/mindus/nexus/dashboard")
|
| 119 |
+
@login_required
|
| 120 |
+
def dashboard():
|
| 121 |
+
"""
|
| 122 |
+
Page du tableau de bord. Gère le message de succès de paiement (Phase 4).
|
| 123 |
+
"""
|
| 124 |
+
payment_status = request.args.get('payment')
|
| 125 |
+
|
| 126 |
+
# Si succès de paiement, flasher et rediriger pour nettoyer l'URL
|
| 127 |
+
if payment_status == 'success':
|
| 128 |
+
flash("Félicitations ! Votre abonnement a été activé avec succès.", "success")
|
| 129 |
+
# Utiliser la route sans argument pour nettoyer l'URL
|
| 130 |
+
# NOTE: url_for('user_bp.dashboard') pointe vers la fonction actuelle
|
| 131 |
+
return redirect(url_for('user_bp.dashboard'))
|
| 132 |
+
|
| 133 |
+
return render_template('dashboard.html')
|
| 134 |
+
|
| 135 |
+
|
| 136 |
+
# ----------------------------------------------------------------------
|
| 137 |
+
# ENDPOINTS D'AUTHENTIFICATION (API JSON) - CONSERVÉS
|
| 138 |
+
# ----------------------------------------------------------------------
|
| 139 |
+
# Ces routes restent des APIs JSON
|
| 140 |
+
# ATTENTION: Il faut ajouter 'api_session_required' au profil API POST/GET comme dans l'original.
|
| 141 |
+
|
| 142 |
+
@user_bp.route("/api/register", methods=['POST'])
|
| 143 |
+
def register_user_api():
|
| 144 |
+
"""Endpoint API pour l'inscription. Attend JSON, retourne JSON."""
|
| 145 |
+
data = request.get_json()
|
| 146 |
+
|
| 147 |
+
if not data:
|
| 148 |
+
return jsonify({"success": False, "message": "Données JSON manquantes."}), 400
|
| 149 |
+
|
| 150 |
+
username = data.get("username")
|
| 151 |
+
email = data.get("email")
|
| 152 |
+
password = data.get("password")
|
| 153 |
+
confirm_password = data.get("confirm_password")
|
| 154 |
+
security_question = data.get("security_question")
|
| 155 |
+
security_answer = data.get("security_answer")
|
| 156 |
+
|
| 157 |
+
# Logique d'inscription
|
| 158 |
+
user_id, message, _ = register_user(username, email, password, confirm_password, security_question, security_answer)
|
| 159 |
+
|
| 160 |
+
if user_id:
|
| 161 |
+
# Rediriger vers la page de connexion (web_bp.connexion_page)
|
| 162 |
+
return jsonify({"success": True, "message": message, "redirect": url_for('web_bp.connexion_page')})
|
| 163 |
+
else:
|
| 164 |
+
return jsonify({"success": False, "message": message}), 400
|
| 165 |
+
|
| 166 |
+
|
| 167 |
+
@user_bp.route("/api/login", methods=['POST'])
|
| 168 |
+
def login_user_api():
|
| 169 |
+
"""Endpoint API pour la connexion. Attend JSON, retourne JSON."""
|
| 170 |
+
data = request.get_json()
|
| 171 |
+
|
| 172 |
+
if not data:
|
| 173 |
+
return jsonify({"success": False, "message": "Données JSON manquantes."}), 400
|
| 174 |
+
|
| 175 |
+
email = data.get("email")
|
| 176 |
+
password = data.get("password")
|
| 177 |
+
|
| 178 |
+
# Logique de connexion
|
| 179 |
+
user_id, message, user_data = login_user(email, password)
|
| 180 |
+
|
| 181 |
+
if user_id:
|
| 182 |
+
session['user_id'] = user_id
|
| 183 |
+
# Redirige vers la nouvelle route du dashboard sécurisé
|
| 184 |
+
# NOTE: Utilisation du nom de la fonction 'dashboard' qui est l'endpoint de cette route.
|
| 185 |
+
return jsonify({"success": True, "message": message, "redirect": url_for('user_bp.dashboard')})
|
| 186 |
+
else:
|
| 187 |
+
return jsonify({"success": False, "message": message}), 401
|
| 188 |
+
|
| 189 |
+
|
| 190 |
+
@user_bp.route("/api/logout", methods=['POST'])
|
| 191 |
+
def logout_user_api():
|
| 192 |
+
"""Endpoint API pour la déconnexion. Détruit la session."""
|
| 193 |
+
session.pop('user_id', None)
|
| 194 |
+
# Redirige vers la page de connexion
|
| 195 |
+
return jsonify({"success": True, "message": "Déconnexion réussie.", "redirect": url_for('web_bp.connexion_page')})
|
| 196 |
+
|
| 197 |
+
|
| 198 |
+
@user_bp.route("/api/profile", methods=['GET'])
|
| 199 |
+
@api_session_required # <--- AJOUT DU DÉCORATEUR
|
| 200 |
+
def get_profile_api(client_user): # <--- Accepte l'objet injecté
|
| 201 |
+
"""Endpoint API pour récupérer les informations du profil de l'utilisateur connecté."""
|
| 202 |
+
# Les données de l'utilisateur sont déjà récupérées par api_session_required
|
| 203 |
+
user = client_user
|
| 204 |
+
|
| 205 |
+
# On ne retourne pas le hash du mot de passe ou la réponse de sécurité
|
| 206 |
+
user_info = {
|
| 207 |
+
'username': user.get('username'),
|
| 208 |
+
'email': user.get('email'),
|
| 209 |
+
'plan': user.get('current_plan'),
|
| 210 |
+
'joined_at': user.get('join_date'),
|
| 211 |
+
}
|
| 212 |
+
return jsonify({"success": True, "user": user_info})
|
| 213 |
+
|
| 214 |
+
|
| 215 |
+
@user_bp.route("/api/profile", methods=['POST'])
|
| 216 |
+
@api_session_required # <--- AJOUT DU DÉCORATEUR
|
| 217 |
+
def update_profile_api(client_user): # <--- Accepte l'objet injecté
|
| 218 |
+
"""Endpoint API pour la mise à jour du profil (username, email, password)."""
|
| 219 |
+
user_id = client_user['uuid'] # Utilise l'ID de l'objet utilisateur
|
| 220 |
+
data = request.get_json()
|
| 221 |
+
|
| 222 |
+
if not data:
|
| 223 |
+
return jsonify({"success": False, "message": "Données JSON manquantes."}), 400
|
| 224 |
+
|
| 225 |
+
username = data.get("username")
|
| 226 |
+
email = data.get("email")
|
| 227 |
+
new_password = data.get("new_password")
|
| 228 |
+
confirm_password = data.get("confirm_password")
|
| 229 |
+
|
| 230 |
+
password_to_update = None
|
| 231 |
+
message_password_error = ""
|
| 232 |
+
|
| 233 |
+
# 1. Validation du mot de passe s'il est fourni
|
| 234 |
+
if new_password or confirm_password:
|
| 235 |
+
if new_password != confirm_password:
|
| 236 |
+
message_password_error = "Le nouveau mot de passe et la confirmation ne correspondent pas."
|
| 237 |
+
elif len(new_password) < 8:
|
| 238 |
+
message_password_error = "Le nouveau mot de passe est trop court (min 8 caractères)."
|
| 239 |
+
else:
|
| 240 |
+
password_to_update = new_password
|
| 241 |
+
|
| 242 |
+
if message_password_error:
|
| 243 |
+
return jsonify({"success": False, "message": message_password_error}), 400
|
| 244 |
+
|
| 245 |
+
# 2. Appel de la fonction de mise à jour du backend
|
| 246 |
+
success, message = update_user_profile(user_id, username, email, password_to_update)
|
| 247 |
+
|
| 248 |
+
if success:
|
| 249 |
+
return jsonify({"success": True, "message": message})
|
| 250 |
+
else:
|
| 251 |
+
# Échec de la mise à jour (ex: email déjà pris)
|
| 252 |
+
return jsonify({"success": False, "message": message}), 400
|
| 253 |
+
|
| 254 |
+
|
| 255 |
+
@user_bp.route("/mindus/nexus/editor", methods=['GET'])
|
| 256 |
+
@login_required
|
| 257 |
+
# MODIFICATION: Retire repo_slug de la signature de la fonction.
|
| 258 |
+
def editor_page():
|
| 259 |
+
"""
|
| 260 |
+
Page de l'éditeur de code.
|
| 261 |
+
Nécessite le repo_slug pour définir le contexte du dépôt Hugging Face.
|
| 262 |
+
"""
|
| 263 |
+
user_id = session.get('user_id')
|
| 264 |
+
|
| 265 |
+
# NOUVEAU: Récupère le repo_slug à partir des paramètres de requête (?repo_slug=...)
|
| 266 |
+
repo_slug = request.args.get('repo_slug')
|
| 267 |
+
|
| 268 |
+
user_data = get_user_by_id(user_id) # On récupère les données utilisateur (nécessaire pour le template)
|
| 269 |
+
|
| 270 |
+
# AJOUT DE VÉRIFICATION
|
| 271 |
+
if not repo_slug:
|
| 272 |
+
flash("Le slug du dépôt est manquant dans l'URL.", "error")
|
| 273 |
+
return redirect(url_for('user_bp.dashboard'))
|
| 274 |
+
|
| 275 |
+
if not user_data:
|
| 276 |
+
flash("Utilisateur non trouvé.", "error")
|
| 277 |
+
return redirect(url_for('web_bp.connexion_page'))
|
| 278 |
+
|
| 279 |
+
# Vous pouvez ajouter ici une logique pour vérifier si le repo_slug
|
| 280 |
+
# appartient bien à l'utilisateur, ou pour récupérer les métadonnées du dépôt.
|
| 281 |
+
|
| 282 |
+
# Par exemple, pour l'afficher dans le template (même si vous ne l'utilisez pas directement maintenant)
|
| 283 |
+
context = {
|
| 284 |
+
'user': user_data,
|
| 285 |
+
'repo_slug': repo_slug, # Passage du slug au template
|
| 286 |
+
# Vous pourriez ajouter ici les données du dépôt récupérées via get_user_repo_metadata
|
| 287 |
+
}
|
| 288 |
+
|
| 289 |
+
return render_template('editor.html', **context)
|
| 290 |
+
|
| 291 |
+
# MODIFICATION: Ajout du paramètre conversation_id (optionnel) dans l'URL
|
| 292 |
+
@user_bp.route("/mindus/nexus/gitforge_copilot", methods=['GET'])
|
| 293 |
+
@user_bp.route("/mindus/nexus/gitforge_copilot/<conversation_id>", methods=['GET']) # Nouvelle route dynamique
|
| 294 |
+
@login_required
|
| 295 |
+
def gemini_chat_page(conversation_id=None): # Le paramètre est maintenant accepté
|
| 296 |
+
"""
|
| 297 |
+
Affiche la page de chat Gemini et passe l'ID de conversation (s'il existe) au template.
|
| 298 |
+
"""
|
| 299 |
+
|
| 300 |
+
context = {
|
| 301 |
+
# Passe None ou l'ID au template pour que le front-end sache quelle discussion charger
|
| 302 |
+
'conversation_id': conversation_id
|
| 303 |
+
}
|
| 304 |
+
|
| 305 |
+
# Assurez-vous que votre template peut utiliser 'conversation_id'
|
| 306 |
+
return render_template('gitforge_copilot.html', **context)
|
| 307 |
+
|
| 308 |
+
|
| 309 |
+
# Route spécifique pour les paramètres de dépôt
|
| 310 |
+
@user_bp.route("/mindus/nexus/settings", methods=['GET'])
|
| 311 |
+
@login_required
|
| 312 |
+
def settings_page():
|
| 313 |
+
"""
|
| 314 |
+
Affiche la page des paramètres du dépôt.
|
| 315 |
+
Nécessite le repo_slug passé en paramètre de requête (?repo_slug=...).
|
| 316 |
+
"""
|
| 317 |
+
user_id = session.get('user_id')
|
| 318 |
+
|
| 319 |
+
# Récupère le repo_slug à partir des paramètres de requête (?repo_slug=...)
|
| 320 |
+
repo_slug = request.args.get('repo_slug')
|
| 321 |
+
|
| 322 |
+
user_data = get_user_by_id(user_id) # On récupère les données utilisateur
|
| 323 |
+
|
| 324 |
+
# AJOUT DE VÉRIFICATION
|
| 325 |
+
if not repo_slug:
|
| 326 |
+
flash("Le slug du dépôt est manquant dans l'URL. Impossible d'afficher les paramètres.", "error")
|
| 327 |
+
return redirect(url_for('user_bp.dashboard'))
|
| 328 |
+
|
| 329 |
+
if not user_data:
|
| 330 |
+
flash("Utilisateur non trouvé.", "error")
|
| 331 |
+
return redirect(url_for('web_bp.connexion_page'))
|
| 332 |
+
|
| 333 |
+
# Le template settings.html doit utiliser 'repo_slug' pour construire ses appels API JS
|
| 334 |
+
context = {
|
| 335 |
+
'user': user_data,
|
| 336 |
+
'repo_slug': repo_slug, # Passage du slug au template
|
| 337 |
+
}
|
| 338 |
+
|
| 339 |
+
return render_template('settings.html', **context)
|
| 340 |
+
|
| 341 |
+
# Route pour afficher la page de l'instance de déploiement (Logs/Events)
|
| 342 |
+
@user_bp.route("/mindus/nexus/dynamic_and_static", methods=['GET'])
|
| 343 |
+
@login_required
|
| 344 |
+
def deployment_instance_page():
|
| 345 |
+
"""
|
| 346 |
+
Affiche la page de l'instance de déploiement (logs, events, etc.).
|
| 347 |
+
Nécessite le repo_slug passé en paramètre de requête (?repo_slug=...).
|
| 348 |
+
Le template est 'dynamic_and_static.html'.
|
| 349 |
+
"""
|
| 350 |
+
user_id = session.get('user_id')
|
| 351 |
+
|
| 352 |
+
# 1. Récupère le repo_slug à partir des paramètres de requête (?repo_slug=...)
|
| 353 |
+
repo_slug = request.args.get('repo_slug')
|
| 354 |
+
|
| 355 |
+
user_data = get_user_by_id(user_id) # Récupère les données utilisateur pour le template
|
| 356 |
+
|
| 357 |
+
# 2. Vérification obligatoire du repo_slug
|
| 358 |
+
if not repo_slug:
|
| 359 |
+
flash("Le slug du dépôt est manquant dans l'URL. Impossible d'afficher l'instance.", "error")
|
| 360 |
+
return redirect(url_for('user_bp.dashboard'))
|
| 361 |
+
|
| 362 |
+
if not user_data:
|
| 363 |
+
flash("Utilisateur non trouvé.", "error")
|
| 364 |
+
return redirect(url_for('web_bp.connexion_page'))
|
| 365 |
+
|
| 366 |
+
# 3. Préparation du contexte
|
| 367 |
+
context = {
|
| 368 |
+
'user': user_data,
|
| 369 |
+
'repo_slug': repo_slug, # Passage du slug au template (utilisé par le JS)
|
| 370 |
+
# Vous pouvez ajouter d'autres données ici si nécessaire pour le rendu SSR
|
| 371 |
+
}
|
| 372 |
+
|
| 373 |
+
# 4. Rendu du template
|
| 374 |
+
return render_template('dynamic_and_static.html', **context)
|
| 375 |
+
|
| 376 |
+
|
| 377 |
+
@user_bp.route("/mindus/nexus/new_branch", methods=['GET'])
|
| 378 |
+
@login_required
|
| 379 |
+
def new_branch_page():
|
| 380 |
+
"""
|
| 381 |
+
Affiche la page de création d'une nouvelle branche.
|
| 382 |
+
Nécessite le repo_slug passé en paramètre de requête (?repo_slug=...).
|
| 383 |
+
Le template est 'new_branch.html'.
|
| 384 |
+
"""
|
| 385 |
+
user_id = session.get('user_id')
|
| 386 |
+
|
| 387 |
+
# 1. Récupère le repo_slug à partir des paramètres de requête (?repo_slug=...)
|
| 388 |
+
repo_slug = request.args.get('repo_slug')
|
| 389 |
+
|
| 390 |
+
user_data = get_user_by_id(user_id) # Récupère les données utilisateur
|
| 391 |
+
|
| 392 |
+
# 2. Vérification obligatoire du repo_slug
|
| 393 |
+
if not repo_slug:
|
| 394 |
+
flash("Le slug du dépôt est manquant dans l'URL. Impossible de créer une nouvelle branche.", "error")
|
| 395 |
+
return redirect(url_for('user_bp.dashboard'))
|
| 396 |
+
|
| 397 |
+
if not user_data:
|
| 398 |
+
flash("Utilisateur non trouvé.", "error")
|
| 399 |
+
return redirect(url_for('web_bp.connexion_page'))
|
| 400 |
+
|
| 401 |
+
# 3. Extraction du nom du dépôt (repo_name) à partir du repo_slug
|
| 402 |
+
# Ceci est utilisé par le templating Jinja2 dans le header: user / repo
|
| 403 |
+
repo_name = repo_slug.split('/')[-1]
|
| 404 |
+
|
| 405 |
+
# 4. Préparation du contexte
|
| 406 |
+
context = {
|
| 407 |
+
'user': user_data, # Contient user.username pour le Jinja2
|
| 408 |
+
'repo_slug': repo_slug, # Le slug complet (e.g., user/repo)
|
| 409 |
+
'repo_name': repo_name, # Juste le nom du dépôt (e.g., repo)
|
| 410 |
+
}
|
| 411 |
+
|
| 412 |
+
# 5. Rendu du template
|
| 413 |
+
# Assurez-vous que le nom de votre fichier est bien 'new_branch.html'
|
| 414 |
+
return render_template('new_branch.html', **context)
|
| 415 |
+
|
| 416 |
+
|
| 417 |
+
@user_bp.route("/mindus/nexus/repo_files_branch", methods=['GET'])
|
| 418 |
+
@login_required
|
| 419 |
+
def repo_files_page():
|
| 420 |
+
user_id = session.get('user_id')
|
| 421 |
+
|
| 422 |
+
# 1. Récupère le repo_slug
|
| 423 |
+
repo_slug = request.args.get('repo_slug')
|
| 424 |
+
|
| 425 |
+
# 2. Récupère le nom de la branche sélectionnée
|
| 426 |
+
current_branch = request.args.get('branch', 'main')
|
| 427 |
+
|
| 428 |
+
# *** AJOUT POUR LE DIAGNOSTIC (Cible) ***
|
| 429 |
+
logger.info(f"Navigation vers le dépôt: repo_slug='{repo_slug}', branch='{current_branch}' pour user_id={user_id}")
|
| 430 |
+
|
| 431 |
+
# 3. Vérifications (repo_slug est obligatoire)
|
| 432 |
+
if not repo_slug:
|
| 433 |
+
flash("Le slug du dépôt est manquant.", "error")
|
| 434 |
+
return redirect(url_for('user_bp.dashboard'))
|
| 435 |
+
|
| 436 |
+
if not user_data:
|
| 437 |
+
flash("Utilisateur non trouvé.", "error")
|
| 438 |
+
return redirect(url_for('web_bp.connexion_page'))
|
| 439 |
+
|
| 440 |
+
# 4. Extraction du nom du dépôt
|
| 441 |
+
repo_name = repo_slug.split('/')[-1]
|
| 442 |
+
|
| 443 |
+
# 5. Préparation du contexte
|
| 444 |
+
context = {
|
| 445 |
+
'user': user_data,
|
| 446 |
+
'repo_slug': repo_slug,
|
| 447 |
+
'repo_name': repo_name,
|
| 448 |
+
# *** PARAMÈTRE CLÉ AJOUTÉ AU CONTEXTE ***
|
| 449 |
+
'current_branch': current_branch
|
| 450 |
+
}
|
| 451 |
+
|
| 452 |
+
# 6. Rendu du template (le frontend utilisera 'current_branch' pour ses appels API)
|
| 453 |
+
return render_template('repo_files_branch.html', **context)
|
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/web_routes.py
ADDED
|
@@ -0,0 +1,210 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
# web_routes.py (Version SSR - Ajout des routes publiques et conservation des APIs)
|
| 2 |
+
from decorators import api_session_required, login_required
|
| 3 |
+
import shutil
|
| 4 |
+
# AJOUT DE RENDER_TEMPLATE ET URL_FOR
|
| 5 |
+
from flask import Blueprint, request, jsonify, send_from_directory, current_app, session, render_template, redirect, url_for
|
| 6 |
+
from werkzeug.utils import secure_filename
|
| 7 |
+
import os
|
| 8 |
+
import uuid
|
| 9 |
+
import json
|
| 10 |
+
from auth_backend import get_plan_details
|
| 11 |
+
from baserow_storage import get_health_status, update_user_deployment_data, get_deployment_by_id, save_new_repository, delete_deployment_by_id, save_new_repository, get_all_user_repositories
|
| 12 |
+
import huggingface_storage
|
| 13 |
+
from huggingface_repo_manager import (
|
| 14 |
+
create_empty_repo_folder_on_hf,
|
| 15 |
+
list_repo_files_from_hf
|
| 16 |
+
)
|
| 17 |
+
from datetime import datetime
|
| 18 |
+
|
| 19 |
+
# NOUVEAU : Fonction pour vérifier les extensions autorisées pour le déploiement statique
|
| 20 |
+
def allowed_static_file(filename):
|
| 21 |
+
"""Vérifie si le fichier a une extension autorisée (HTML, CSS, JS, Images)."""
|
| 22 |
+
STATIC_ALLOWED_EXTENSIONS = {'html', 'htm', 'css', 'js', 'jpg', 'jpeg', 'png', 'gif', 'svg'}
|
| 23 |
+
return '.' in filename and \
|
| 24 |
+
filename.rsplit('.', 1)[1].lower() in STATIC_ALLOWED_EXTENSIONS
|
| 25 |
+
|
| 26 |
+
# Création du Blueprint 'web_bp'
|
| 27 |
+
web_bp = Blueprint('web_bp', __name__)
|
| 28 |
+
|
| 29 |
+
# ----------------------------------------------------------------------
|
| 30 |
+
# ROUTES D'AFFICHAGE STATIQUE/DE PAGES (SSR - Rendu Côté Serveur)
|
| 31 |
+
# ----------------------------------------------------------------------
|
| 32 |
+
|
| 33 |
+
# Mapping pour les noms de route standards pour les redirections
|
| 34 |
+
PAGE_ROUTE_MAPPING = {
|
| 35 |
+
"index": "index.html",
|
| 36 |
+
"connexion_page": "connexion.html",
|
| 37 |
+
"inscription_page": "inscription.html",
|
| 38 |
+
"mot_de_passe_oublie_page": "mot_de_passe_oublie.html",
|
| 39 |
+
"tarifs_page": "tarifs.html",
|
| 40 |
+
"documentation_page": "documentation.html",
|
| 41 |
+
"support_page": "support.html",
|
| 42 |
+
"a_propos_page": "a_propos.html",
|
| 43 |
+
"mentions_legales_page": "mentions_legales.html",
|
| 44 |
+
"politique_confidentialite_page": "politique_confidentialite.html",
|
| 45 |
+
"conditions_utilisation_page": "conditions_utilisation.html",
|
| 46 |
+
# Ajoutez d'autres pages non sécurisées ici
|
| 47 |
+
}
|
| 48 |
+
|
| 49 |
+
# Liste des fichiers HTML non sécurisés
|
| 50 |
+
PUBLIC_PAGES = [
|
| 51 |
+
"index.html",
|
| 52 |
+
"connexion.html",
|
| 53 |
+
"inscription.html",
|
| 54 |
+
"mot_de_passe_oublie.html",
|
| 55 |
+
"tarifs.html",
|
| 56 |
+
"documentation.html",
|
| 57 |
+
"support.html",
|
| 58 |
+
"a_propos.html",
|
| 59 |
+
"mentions_legales.html",
|
| 60 |
+
"politique_confidentialite.html",
|
| 61 |
+
"conditions_utilisation.html",
|
| 62 |
+
"blog.html",
|
| 63 |
+
"careers.html",
|
| 64 |
+
"resources.html",
|
| 65 |
+
"devsecops.html",
|
| 66 |
+
"devops.html",
|
| 67 |
+
"customers_stories.html",
|
| 68 |
+
"all_stories.html",
|
| 69 |
+
"form_gitforge.html",
|
| 70 |
+
]
|
| 71 |
+
|
| 72 |
+
for page in PUBLIC_PAGES:
|
| 73 |
+
# Nom de la fonction basé sur le nom du fichier pour les url_for
|
| 74 |
+
route_name = page.replace('.html', '_page').replace('-', '_')
|
| 75 |
+
|
| 76 |
+
# --- MODIFICATION ICI : On retire l'extension .html du chemin de la route ---
|
| 77 |
+
route_path = f"/mindus/nexus/{page.replace('.html', '')}" # Exemple: /mindus/nexus/connexion
|
| 78 |
+
|
| 79 |
+
@web_bp.route(route_path, endpoint=route_name)
|
| 80 |
+
def public_page_renderer(page=page):
|
| 81 |
+
# Toutes les pages publiques sont servies avec render_template
|
| 82 |
+
# Le nom du template reste 'connexion.html' (page), mais l'URL est 'connexion' (route_path)
|
| 83 |
+
return render_template(page)
|
| 84 |
+
|
| 85 |
+
|
| 86 |
+
# Route racine de l'application
|
| 87 |
+
@web_bp.route("/")
|
| 88 |
+
def home():
|
| 89 |
+
# Redirige vers la page d'accueil principale /mindus/nexus/index (sans .html)
|
| 90 |
+
# url_for utilise le nom d'endpoint, qui pointe désormais vers l'URL sans extension.
|
| 91 |
+
return redirect(url_for('web_bp.index_page'))
|
| 92 |
+
|
| 93 |
+
|
| 94 |
+
@web_bp.route('/api/create_repository', methods=['POST'])
|
| 95 |
+
@api_session_required # ⬅️ CHANGEMENT CLÉ : Utiliser le décorateur API basé sur la session
|
| 96 |
+
def create_repository(client_user): # ⬅️ CHANGEMENT CLÉ : Accepter l'objet utilisateur injecté
|
| 97 |
+
"""
|
| 98 |
+
Point API pour créer un nouveau dépôt utilisateur.
|
| 99 |
+
L'utilisateur est authentifié et fourni par le décorateur @api_session_required via la session.
|
| 100 |
+
"""
|
| 101 |
+
|
| 102 |
+
# 1. Récupération de l'ID utilisateur à partir de l'objet injecté
|
| 103 |
+
# L'authentification (vérification de la session) est gérée par le décorateur.
|
| 104 |
+
user_id = client_user['uuid']
|
| 105 |
+
|
| 106 |
+
data = request.get_json()
|
| 107 |
+
|
| 108 |
+
# L'ancienne vérification 'if not user_id' est désormais gérée par le décorateur.
|
| 109 |
+
|
| 110 |
+
if not data or 'repo-name' not in data or 'visibility' not in data:
|
| 111 |
+
return jsonify({"success": False, "message": "Nom et visibilité du dépôt requis."}), 400
|
| 112 |
+
|
| 113 |
+
repo_name = data.get('repo-name').strip()
|
| 114 |
+
# Créer un slug simple pour le chemin HF et l'URL
|
| 115 |
+
# secure_filename doit être importé de werkzeug.utils
|
| 116 |
+
repo_slug = secure_filename(repo_name).lower().replace('-', '_')
|
| 117 |
+
|
| 118 |
+
if not repo_slug:
|
| 119 |
+
return jsonify({"success": False, "message": "Nom de dépôt invalide."}), 400
|
| 120 |
+
|
| 121 |
+
# Validation basique des données
|
| 122 |
+
visibility = data.get('visibility')
|
| 123 |
+
if visibility not in ['public', 'private']:
|
| 124 |
+
return jsonify({"success": False, "message": "Visibilité invalide."}), 400
|
| 125 |
+
|
| 126 |
+
# 1. Vérification des limites de plan (À implémenter plus tard si besoin)
|
| 127 |
+
# limit = get_plan_limit(client_user.get('user_plan'))
|
| 128 |
+
|
| 129 |
+
# 2. Vérification de l'existence du slug (pour s'assurer que l'utilisateur ne crée pas de doublon)
|
| 130 |
+
existing_repos = get_all_user_repositories(user_id)
|
| 131 |
+
if any(repo['repo_slug'] == repo_slug for repo in existing_repos):
|
| 132 |
+
return jsonify({"success": False, "message": f"Un dépôt avec le nom '{repo_name}' existe déjà."}), 409
|
| 133 |
+
|
| 134 |
+
# 3. Préparation des données du nouveau dépôt
|
| 135 |
+
repo_id = str(uuid.uuid4()) # ID unique pour le dépôt
|
| 136 |
+
new_repo_data = {
|
| 137 |
+
"repo_id": repo_id,
|
| 138 |
+
"repo_name": repo_name,
|
| 139 |
+
"repo_slug": repo_slug,
|
| 140 |
+
"user_id": user_id, # ⬅️ ID utilisateur récupéré et correctement utilisé
|
| 141 |
+
"visibility": visibility,
|
| 142 |
+
"license": data.get('license', 'None'),
|
| 143 |
+
"description": data.get('description', ''),
|
| 144 |
+
"created_at": datetime.now().isoformat()
|
| 145 |
+
}
|
| 146 |
+
|
| 147 |
+
try:
|
| 148 |
+
# 4. Enregistrement dans Baserow (Base de Données)
|
| 149 |
+
success_db, message_db = save_new_repository(user_id, new_repo_data)
|
| 150 |
+
|
| 151 |
+
if not success_db:
|
| 152 |
+
return jsonify({"success": False, "message": f"Échec de l'enregistrement du dépôt: {message_db}"}), 500
|
| 153 |
+
|
| 154 |
+
# 5. Création du dossier initial sur Hugging Face (Stockage de fichiers)
|
| 155 |
+
success_hf, message_hf = create_empty_repo_folder_on_hf(repo_slug, str(user_id))
|
| 156 |
+
|
| 157 |
+
if not success_hf:
|
| 158 |
+
# On log l'erreur et on retourne quand même un succès BDD, mais un avertissement
|
| 159 |
+
current_app.logger.error(f"Échec de l'initialisation HF pour {repo_slug}: {message_hf}")
|
| 160 |
+
return jsonify({
|
| 161 |
+
"success": True,
|
| 162 |
+
"message": f"Dépôt créé dans la BDD. Avertissement: Échec de l'initialisation du dossier sur Hugging Face ({message_hf}).",
|
| 163 |
+
"repo_slug": repo_slug
|
| 164 |
+
}), 201
|
| 165 |
+
|
| 166 |
+
# 6. Succès
|
| 167 |
+
return jsonify({
|
| 168 |
+
"success": True,
|
| 169 |
+
"message": "Dépôt créé avec succès.",
|
| 170 |
+
"repo_slug": repo_slug
|
| 171 |
+
}), 201
|
| 172 |
+
|
| 173 |
+
except Exception as e:
|
| 174 |
+
# current_app doit être importé de flask
|
| 175 |
+
current_app.logger.error(f"Erreur inattendue lors de la création du dépôt: {e}")
|
| 176 |
+
return jsonify({"success": False, "message": "Erreur serveur inattendue."}), 500
|
| 177 |
+
|
| 178 |
+
@web_bp.route('/api/repository_files/<repo_slug>', methods=['GET'])
|
| 179 |
+
@login_required
|
| 180 |
+
def get_repository_files(repo_slug):
|
| 181 |
+
"""
|
| 182 |
+
Point API pour retourner tous les fichiers du dépôt spécifié par son slug,
|
| 183 |
+
en listant le contenu du Dataset Hugging Face.
|
| 184 |
+
"""
|
| 185 |
+
user_id = session.get('user_id')
|
| 186 |
+
|
| 187 |
+
if not user_id:
|
| 188 |
+
return jsonify({"success": False, "message": "Session utilisateur requise."}), 401
|
| 189 |
+
|
| 190 |
+
# 1. Vérification rapide de l'existence du dépôt dans la BDD
|
| 191 |
+
existing_repos = get_all_user_repositories(user_id)
|
| 192 |
+
repo_info = next((repo for repo in existing_repos if repo['repo_slug'] == repo_slug), None)
|
| 193 |
+
|
| 194 |
+
if not repo_info:
|
| 195 |
+
return jsonify({"success": False, "message": "Dépôt non trouvé ou accès non autorisé."}), 404
|
| 196 |
+
|
| 197 |
+
# 2. Récupération des fichiers depuis Hugging Face
|
| 198 |
+
file_list, message = list_repo_files_from_hf(repo_slug, str(user_id))
|
| 199 |
+
|
| 200 |
+
if file_list is not None:
|
| 201 |
+
# Succès (même si la liste est vide)
|
| 202 |
+
return jsonify({
|
| 203 |
+
"success": True,
|
| 204 |
+
"message": message,
|
| 205 |
+
"repo_info": repo_info,
|
| 206 |
+
"files": file_list
|
| 207 |
+
}), 200
|
| 208 |
+
else:
|
| 209 |
+
# Échec de la récupération (ex: erreur de connexion HF)
|
| 210 |
+
return jsonify({"success": False, "message": message}), 500
|