ernestmindres commited on
Commit
bbd1aac
·
verified ·
1 Parent(s): 620467c

feat: Initialisation du nouveau dépôt 'mayproject' à partir de 'ernestmind'.

Browse files
Files changed (25) hide show
  1. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/Dockerfile +67 -0
  2. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/README.md +5 -0
  3. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/app.py +377 -0
  4. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/auth_backend.py +371 -0
  5. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/baserow_storage.py +791 -0
  6. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/billing_routes.py +137 -0
  7. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/config.py +122 -0
  8. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/decorators.py +87 -0
  9. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/deployment_routes.py +149 -0
  10. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/entrypoint.sh +24 -0
  11. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/gemini_functions.py +462 -0
  12. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/gemini_routes.py +265 -0
  13. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/hf_deploy_manager.py +318 -0
  14. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/huggingface_repo_manager.py +1174 -0
  15. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/huggingface_storage.py +140 -0
  16. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/issue_routes.py +214 -0
  17. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/issues_backend.py +196 -0
  18. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/pr_routes.py +432 -0
  19. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/project_routes.py +1123 -0
  20. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/pull_request_backend.py +607 -0
  21. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/repo_settings_manager.py +191 -0
  22. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/repo_settings_routes.py +116 -0
  23. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/requirements.txt +13 -0
  24. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/user_routes.py +453 -0
  25. a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/web_routes.py +210 -0
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/Dockerfile ADDED
@@ -0,0 +1,67 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # ÉTAPE 1: Image de base
2
+ FROM python:3.11-slim
3
+
4
+ # ÉTAPE 2: Configuration et Dossier de travail
5
+ # Nous laissons Render injecter le port via $PORT
6
+ ENV FLASK_APP app.py
7
+ # Suppression des variables GUNICORN_WORKERS et GUNICORN_THREADS car elles sont gérées
8
+ # de manière plus efficace et simple dans entrypoint.sh avec Eventlet.
9
+
10
+ # Création et utilisation du répertoire /app
11
+ WORKDIR /app
12
+
13
+ # ÉTAPE 3: Installation des dépendances (OPTIMISATION CACHING)
14
+ # Copie uniquement de requirements.txt pour mettre en cache l'installation
15
+ COPY requirements.txt .
16
+ RUN pip install --no-cache-dir -r requirements.txt \
17
+ && rm requirements.txt
18
+
19
+ # ÉTAPE 4: Copie de l'Application et des Fichiers
20
+ # CORRECTION MAJEURE : Ajout du dossier templates
21
+ COPY templates /app/templates
22
+
23
+ # Copie des autres fichiers (y compris app.py, votre point d'entrée)
24
+ COPY app.py .
25
+ COPY config.py .
26
+ COPY user_routes.py .
27
+ COPY web_routes.py .
28
+ COPY decorators.py .
29
+ COPY billing_routes.py .
30
+ COPY auth_backend.py .
31
+ COPY baserow_storage.py .
32
+ COPY huggingface_storage.py .
33
+ COPY pr_routes.py .
34
+ COPY pull_request_backend.py .
35
+ COPY issues_backend.py .
36
+ COPY issue_routes.py .
37
+ COPY project_routes.py .
38
+ COPY huggingface_repo_manager.py .
39
+ COPY hf_deploy_manager.py .
40
+ COPY deployment_routes.py .
41
+ COPY gemini_functions.py .
42
+ COPY gemini_routes.py .
43
+ COPY repo_settings_routes.py .
44
+ COPY repo_settings_manager.py .
45
+
46
+
47
+ # Copie du script d'entrée
48
+ COPY entrypoint.sh .
49
+
50
+ # NOUVEAU: CORRECTION DES FINS DE LIGNE (Résout 'exec ./entrypoint.sh: no such file or directory')
51
+ # Supprime le caractère de retour chariot (\r)
52
+ RUN sed -i 's/\r$//' entrypoint.sh
53
+
54
+ # Le rendre exécutable
55
+ RUN chmod +x entrypoint.sh
56
+
57
+ # ÉTAPE 5: Sécurité et Exécution
58
+ # Création et bascule vers l'utilisateur non-root ('user') pour la sécurité
59
+ RUN useradd -ms /bin/bash user
60
+ RUN chown -R user:user /app
61
+ USER user
62
+
63
+ # Indique à Docker que le conteneur écoute sur ce port
64
+ EXPOSE $PORT
65
+
66
+ # Lance l'application via le script d'entrée
67
+ CMD ["./entrypoint.sh"]
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/README.md ADDED
@@ -0,0 +1,5 @@
 
 
 
 
 
 
1
+ # Dépôt ernestmind
2
+
3
+ Bienvenue sur votre dépôt GitForge, hébergé sur Mailix.
4
+
5
+ Commencez par ajouter ou créer des fichiers.
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/app.py ADDED
@@ -0,0 +1,377 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # app.py
2
+ import requests
3
+ import json
4
+ import os
5
+ import sys
6
+ import io
7
+ import uuid
8
+ from functools import wraps
9
+ from datetime import datetime
10
+ from flask import Flask, request, jsonify, Response, session
11
+ from flask_cors import CORS
12
+ import baserow_storage # Assurez-vous que ceci est présent
13
+ import shutil
14
+ from flask_socketio import SocketIO
15
+ import huggingface_storage # <-- NOUVEL IMPORT
16
+ import huggingface_storage # <-- NOUVEL IMPORT
17
+ # NOUVEL IMPORT POUR LA GESTION DU TERMINAL
18
+
19
+ # Importation des modules backend
20
+ from auth_backend import (
21
+ get_user_by_id,
22
+ login_user,
23
+ register_user,
24
+ generate_api_key,
25
+ get_plan_limit,
26
+ reset_password_via_security_question,
27
+ generate_password_hash,
28
+ )
29
+ from decorators import api_key_required # <-- NOUVEL IMPORT
30
+ from flask_cors import CORS # <--- S'assurer que l'importation est là
31
+ from project_routes import project_bp # Si vous nommez le nouveau Blueprint 'project_bp'
32
+ from web_routes import web_bp
33
+ from user_routes import user_bp
34
+ from billing_routes import billing_bp
35
+ from pr_routes import pr_bp # <-- NOUVEL IMPORT
36
+ from issue_routes import issue_bp # <-- NOUVEL IMPORT
37
+ from baserow_storage import check_critical_fields_existence
38
+ from deployment_routes import hf_deploy_bp # <-- IMPORT CRITIQUE
39
+ from gemini_routes import gemini_bp
40
+ from repo_settings_routes import settings_bp # Assurez-vous du chemin correct
41
+ DEFAULT_MAX_CONTENT_LENGTH = 16 * 1024 * 1024
42
+
43
+ # Dossier pour le stockage temporaire des fichiers HTML uploadés
44
+ # Nous utilisons un dossier 'temp_uploads' à la racine de l'application
45
+ UPLOAD_FOLDER = os.path.join(os.path.dirname(os.path.abspath(__file__)), 'temp_uploads')
46
+ if not os.path.exists(UPLOAD_FOLDER):
47
+ os.makedirs(UPLOAD_FOLDER) # Créer le dossier s'il n'existe pas
48
+
49
+ # Extensions de fichiers autorisées (très important pour la sécurité)
50
+ ALLOWED_EXTENSIONS = {'html', 'htm'}
51
+
52
+ # --- Initialisation de l'Application Flask (DÉPLACÉ ICI pour corriger le NameError) ---
53
+ app = Flask(__name__)
54
+
55
+ app.config['HF_DATASET_REPO_ID'] = os.environ.get('HF_DATASET_REPO_ID')
56
+
57
+ # Maintenant, 'app' est défini et on peut lui appliquer des configurations
58
+ app.config['UPLOAD_FOLDER'] = UPLOAD_FOLDER
59
+ app.config['ALLOWED_EXTENSIONS'] = ALLOWED_EXTENSIONS
60
+
61
+ from werkzeug.middleware.proxy_fix import ProxyFix
62
+ app.wsgi_app = ProxyFix(app.wsgi_app, x_for=1, x_proto=1, x_host=1, x_port=1, x_prefix=1)
63
+ # ------------------------------------------------------------------
64
+
65
+ # car Hugging Face utilise souvent Gunicorn avec ces workers.
66
+ socketio = SocketIO(app, cors_allowed_origins="*")
67
+
68
+
69
+ # Configuration
70
+ app.secret_key = os.environ.get("FLASK_SECRET_KEY", "super_secret_dev_key")
71
+ app.config['MAX_CONTENT_LENGTH'] = DEFAULT_MAX_CONTENT_LENGTH
72
+
73
+ # Permettre les requêtes cross-origin (CORS)
74
+ CORS(app, supports_credentials=True, origins="*", allow_headers=["Content-Type", "X-User-API-Key"])
75
+
76
+
77
+ # Permettre les requêtes cross-origin pour l'API
78
+ CORS(app)
79
+
80
+ app.register_blueprint(hf_deploy_bp) # <-- ENREGISTREZ LE NOUVEAU BLUEPRINT
81
+ app.register_blueprint(web_bp)
82
+ app.register_blueprint(user_bp)
83
+ app.register_blueprint(billing_bp)
84
+ app.register_blueprint(pr_bp) # <-- NOUVEL ENREGISTREMENT
85
+ app.register_blueprint(issue_bp) # <-- NOUVEL ENREGISTREMENT
86
+ app.register_blueprint(project_bp)
87
+ app.register_blueprint(settings_bp)
88
+ app.register_blueprint(gemini_bp)
89
+
90
+ # --- Décorateurs d'Authentification (Correction) ---
91
+ def login_required(f):
92
+ @wraps(f)
93
+ def decorated_function(*args, **kwargs):
94
+ user_id = session.get('user_id')
95
+
96
+ if not user_id:
97
+ # Redirection HTTP 302 vers la page de connexion pour les requêtes non-API
98
+ if not request.path.startswith('/api/'):
99
+ from flask import redirect, url_for
100
+ # NOTE: Il se peut que 'user_bp.connexion' ne soit pas la bonne route.
101
+ # Si c'est dans web_bp, utilisez web_bp.connexion_page comme dans user_routes.py
102
+ return redirect(url_for('web_bp.connexion_page')) # CORRECTION POTENTIELLE DE LA REDIRECTION
103
+ # Réponse JSON pour les API
104
+ return jsonify({"status": "Error", "message": "Accès non autorisé. Veuillez vous connecter.", "code": "AUTH_REQUIRED"}), 401
105
+
106
+ # 1. Récupérer les données utilisateur
107
+ user = get_user_by_id(user_id)
108
+
109
+ if not user:
110
+ # Si l'ID est dans la session mais l'utilisateur n'existe plus en DB
111
+ session.pop('user_id', None)
112
+ from flask import redirect, url_for
113
+ return redirect(url_for('web_bp.connexion_page')) # Rediriger l'utilisateur déconnecté
114
+
115
+ # 2. Injecter les données utilisateur dans la fonction de vue
116
+ return f(user=user, *args, **kwargs) # <--- CORRECTION CLÉ : Ajout de user=user
117
+ return decorated_function
118
+
119
+
120
+ # --- Routes d'Authentification (API - Conservées) ---
121
+
122
+ @app.route("/api/register", methods=["POST"])
123
+ def register():
124
+ data = request.get_json()
125
+ username = data.get("username")
126
+ email = data.get("email")
127
+ password = data.get("password")
128
+ confirm_password = data.get("confirm_password")
129
+ security_question = data.get("security_question")
130
+ security_answer = data.get("security_answer")
131
+
132
+ # CORRECTION ICI: Déballage des 3 valeurs retournées par register_user
133
+ user_id, message, new_user_data = register_user(username, email, password, confirm_password, security_question, security_answer)
134
+
135
+ if user_id and new_user_data: # Vérifier l'ID et les données pour s'assurer du succès
136
+ session['user_id'] = user_id
137
+
138
+ # Réponse JSON pour l'API, incluant la clé API
139
+ return jsonify({
140
+ "message": message,
141
+ "status": "Success",
142
+ "user_id": user_id,
143
+ # On récupère la clé API directement des données utilisateur
144
+ "api_key": new_user_data.get("api_key")
145
+ }), 201
146
+ else:
147
+ # Échec de l'inscription (message d'erreur de register_user)
148
+ return jsonify({"message": message, "status": "Error"}), 400
149
+
150
+
151
+
152
+ @app.route("/api/login", methods=["POST"])
153
+ def login():
154
+ """
155
+ Route de connexion de l'utilisateur principal.
156
+ Prend le nom d'utilisateur/email et le mot de passe.
157
+ """
158
+ data = request.get_json()
159
+ username = data.get("username")
160
+ password = data.get("password")
161
+
162
+ # CORRECTION DE L'ERREUR :
163
+ # Nous déballons maintenant 3 valeurs (ID, Message, Données Utilisateur)
164
+ # car la fonction login_user() dans auth_backend.py a été modifiée pour
165
+ # retourner les 3 valeurs.
166
+ user_id, message, user_data = login_user(username, password)
167
+
168
+ # Note: user_data est la 3ème valeur (Dict des données utilisateur ou None)
169
+ if user_id and user_data:
170
+ # La connexion est réussie
171
+ session['user_id'] = user_id
172
+
173
+ # Réponse API avec la clé API de l'utilisateur pour les futures requêtes
174
+ return jsonify({
175
+ "message": message,
176
+ "status": "Success",
177
+ "user_id": user_id,
178
+ # On utilise les données utilisateur (user_data) que nous avons déjà récupérées
179
+ "api_key": user_data.get("api_key")
180
+ }), 200
181
+ else:
182
+ # La connexion a échoué (identifiants invalides ou autre erreur)
183
+ return jsonify({"message": message, "status": "Error"}), 401
184
+
185
+ @app.route("/api/logout", methods=["POST"])
186
+ def logout():
187
+ session.pop('user_id', None)
188
+ return jsonify({"message": "Déconnexion réussie.", "status": "Success"}), 200
189
+
190
+ @app.route("/api/forgot-password", methods=["POST"])
191
+ def forgot_password_api(): # Renommée pour éviter conflit avec la route HTML
192
+ data = request.get_json()
193
+ username_or_email = data.get("username_or_email")
194
+ security_answer = data.get("security_answer")
195
+ new_password = data.get("new_password")
196
+
197
+ if not username_or_email or not security_answer or not new_password:
198
+ return jsonify({"message": "Champs manquants.", "status": "Error"}), 400
199
+
200
+ success, message = reset_password_via_security_question(username_or_email, security_answer, new_password)
201
+
202
+ if success:
203
+ return jsonify({
204
+ "message": message,
205
+ "status": "Success"
206
+ }), 200
207
+ else:
208
+ return jsonify({
209
+ "message": message,
210
+ "status": "Error"
211
+ }), 400
212
+
213
+
214
+ # --- Routes de Gestion de Compte (API - Conservées) ---
215
+
216
+ @app.route("/api/user/generate-key", methods=["POST"])
217
+ @login_required
218
+ def generate_user_api_key():
219
+ user_id = session.get('user_id')
220
+
221
+ new_api_key = create_dynamic_api_key()
222
+
223
+ success, message = update_user_data(user_id, {"api_key": new_api_key})
224
+
225
+ if success:
226
+ return jsonify({
227
+ "message": "Clé API utilisateur générée et sauvegardée. Conservez-la en lieu sûr. **Utilisez-la via URL simple ('api_key=...') ou en-tête 'X-User-API-Key'.**",
228
+ "status": "Success",
229
+ "api_key": new_api_key
230
+ }), 200
231
+ else:
232
+ return jsonify({
233
+ "message": f"Erreur lors de la génération de la clé : {message}",
234
+ "status": "Error"
235
+ }), 500
236
+
237
+ @app.route("/api/user/update-info", methods=["POST"])
238
+ @login_required
239
+ def update_user_info():
240
+ user_id = session.get('user_id')
241
+ data = request.get_json()
242
+
243
+ updates = {}
244
+ if 'username' in data:
245
+ updates['username'] = data['username']
246
+ if 'email' in data:
247
+ updates['email'] = data['email']
248
+ if 'plan' in data:
249
+ updates['plan'] = data['plan']
250
+
251
+ if not updates:
252
+ return jsonify({
253
+ "message": "Aucune information à mettre à jour fournie.",
254
+ "status": "Error"
255
+ }), 400
256
+
257
+ success, message = update_user_data(user_id, updates)
258
+
259
+ if success:
260
+ return jsonify({
261
+ "message": message,
262
+ "status": "Success"
263
+ }), 200
264
+ else:
265
+ return jsonify({
266
+ "message": f"Échec de la mise à jour : {message}",
267
+ "status": "Error"
268
+ }), 400
269
+
270
+
271
+
272
+ @app.route("/api/user-info", methods=["GET"])
273
+ @api_key_required
274
+ def api_user_info(client_user):
275
+ """
276
+ Route API pour récupérer les informations de l'utilisateur principal (client)
277
+ à partir de la clé API fournie.
278
+ Le 'client_user' est injecté par le décorateur api_key_required.
279
+ """
280
+ # client_user est l'objet utilisateur complet injecté par le décorateur
281
+
282
+ # Sécurité : créer une copie et supprimer les données sensibles avant l'envoi
283
+ user_info_safe = client_user.copy()
284
+ user_info_safe.pop('password_hash', None)
285
+ user_info_safe.pop('security_answer_hash', None)
286
+
287
+ return jsonify({
288
+ "message": "Informations utilisateur récupérées avec succès.",
289
+ "status": "Success",
290
+ "user": user_info_safe
291
+ }), 200
292
+
293
+
294
+
295
+ @app.route("/api/health", methods=["GET"])
296
+ def health_check():
297
+ """Vérifie l'état du service en utilisant le statut Baserow."""
298
+
299
+ # 1. Tenter d'obtenir le statut Baserow réel
300
+ try:
301
+ # Appelle la fonction de baserow_storage pour vérifier l'état
302
+ health_status = baserow_storage.get_health_status()
303
+
304
+ # Le statut 'data_storage' est la clé pour le frontend
305
+ db_status_message = health_status.get('data_storage', 'Unknown')
306
+
307
+ # Si la DB est 'operational', on envoie 'Ready'
308
+ if db_status_message == 'operational':
309
+ data_status = "Ready"
310
+ else:
311
+ data_status = f"Failed (Baserow: {db_status_message})"
312
+
313
+ except Exception as e:
314
+ # Erreur générale, Baserow inaccessible ou problème de configuration critique
315
+ data_status = f"Failed (Exception: {str(e)})"
316
+
317
+ return jsonify({
318
+ "status": "Online",
319
+ "data_storage": data_status
320
+ }), 200
321
+
322
+ @app.route("/", methods=["GET"])
323
+ def read_root():
324
+ """Endpoint racine pour le Health Check (Flask version)."""
325
+
326
+ if baserow_storage.is_baserow_up():
327
+ # Statut OK (200) avec le message
328
+ return jsonify({"status": "ok", "message": "Backend and Baserow API are reachable."}), 200
329
+ else:
330
+ # Statut de service non disponible (503) avec le message d'erreur
331
+ return jsonify({"detail": "Baserow service unavailable (Health Check failed)."}), 503
332
+
333
+
334
+
335
+ def perform_startup_checks():
336
+ """
337
+ Exécute des vérifications critiques au démarrage (Baserow et Hugging Face)
338
+ pour que les problèmes de configuration soient visibles dans les logs de Render.
339
+ """
340
+ print("\n--- DÉBUT DES VÉRIFICATIONS DE DÉMARRAGE CRITIQUES ---", file=sys.stderr)
341
+
342
+ # --- 1. VÉRIFICATION BASEROW (Connexion et Champs) ---
343
+ baserow_config_status = baserow_storage.check_baserow_connection()
344
+
345
+ if baserow_config_status != "operational":
346
+ print(f"CRITIQUE: Configuration Baserow ÉCHOUÉE: {baserow_config_status}", file=sys.stderr)
347
+ else:
348
+ print("SUCCÈS: Configuration Baserow (Tokens/IDs) trouvée.", file=sys.stderr)
349
+
350
+ # 1.1 VÉRIFICATION DE L'ÉTAT DU SERVICE BASEROW
351
+ if not baserow_storage.is_baserow_up():
352
+ print("CRITIQUE: Baserow est configuré mais le Health Check API a ÉCHOUÉ (Vérifiez la connexion ou le token).", file=sys.stderr)
353
+ else:
354
+ print("SUCCÈS: Connexion Baserow API OK.", file=sys.stderr)
355
+
356
+ # NOUVEAU: 1.2 VÉRIFICATION DE L'EXISTENCE DES CHAMPS CRITIQUES
357
+ fields_check_status = baserow_storage.check_critical_fields_existence()
358
+ if fields_check_status != "operational":
359
+ print(f"CRITIQUE: Vérification des Champs Baserow ÉCHOUÉE: {fields_check_status}", file=sys.stderr)
360
+ else:
361
+ print("SUCCÈS: Tous les champs critiques de la table Baserow sont présents.", file=sys.stderr)
362
+
363
+ # --- 2. VÉRIFICATION HUGGING FACE (Stockage de Dépôt) ---
364
+ hf_repo_id = os.environ.get("HF_DATASET_REPO_ID")
365
+ hf_token = os.environ.get("HF_TOKEN")
366
+
367
+ if not hf_repo_id:
368
+ print("CRITIQUE: HF_DATASET_REPO_ID est MANQUANT. Impossible de créer un dépôt.", file=sys.stderr)
369
+ elif not hf_token:
370
+ print("ATTENTION: HF_TOKEN est MANQUANT. Les opérations Hugging Face pourraient échouer sans jeton dans l'environnement.", file=sys.stderr)
371
+ else:
372
+ print(f"SUCCÈS: Configuration Hugging Face (Repo ID: {hf_repo_id}) trouvée.", file=sys.stderr)
373
+
374
+ print("--- FIN DES VÉRIFICATIONS DE DÉMARRAGE CRITIQUES ---\n", file=sys.stderr)
375
+
376
+ # Exécutez les vérifications au démarrage de Gunicorn
377
+ perform_startup_checks()
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/auth_backend.py ADDED
@@ -0,0 +1,371 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # auth_backend.py
2
+
3
+ import json
4
+ import uuid
5
+ import secrets
6
+ import string
7
+ import sys # Nécessaire pour print(..., file=sys.stderr)
8
+ from datetime import datetime
9
+ from werkzeug.security import generate_password_hash, check_password_hash
10
+ from huggingface_repo_manager import initialize_user_hf_folder # <--- AJOUTEZ CET IMPORT
11
+ # Ces fonctions sont maintenant implémentées dans baserow_storage.py
12
+ from baserow_storage import (
13
+ # Fonctions de lecture/écriture pour les utilisateurs principaux (simulant l'ancienne API)
14
+ get_client_user_by_api_key,
15
+ load_primary_user_data,
16
+ save_primary_user_data,
17
+ # Fonctions de recherche indexées (nouvelles et plus efficaces)
18
+ get_user_by_email,
19
+ get_client_user_by_api_key,
20
+ FIELD_USER_TYPE,
21
+ FIELD_CLIENT_ID,
22
+ )
23
+
24
+ from config import PLANS_CONFIG
25
+ from typing import Optional, Dict
26
+
27
+ # ----------------------------------------------------------------------
28
+ # --- Fonctions Utilitaires et de Configuration ---
29
+ # ----------------------------------------------------------------------
30
+
31
+ def get_plan_limit(plan: str) -> float:
32
+ """Retourne la limite de compte pour un plan donné."""
33
+ return PLANS_CONFIG.get(plan, {}).get("limit", PLANS_CONFIG["free"]["limit"])
34
+
35
+ def get_plan_details(plan_id: str) -> Optional[Dict]:
36
+ """Retourne les détails complets d'un plan à partir de son ID."""
37
+ return PLANS_CONFIG.get(plan_id)
38
+
39
+ def generate_api_key(length: int = 32) -> str:
40
+ """Génère une clé API sécurisée."""
41
+ chars = string.ascii_letters + string.digits
42
+ return ''.join(secrets.choice(chars) for _ in range(length))
43
+
44
+ # ----------------------------------------------------------------------
45
+ # --- Fonctions d'Authentification WEB (Primary Users) ---
46
+ # ----------------------------------------------------------------------
47
+
48
+
49
+ def register_user(username: str, email: str, password: str, confirm_password: str, security_question: str, security_answer: str) -> tuple[Optional[str], str, Optional[Dict]]:
50
+ """
51
+ Tente d'enregistrer un nouvel utilisateur principal.
52
+ Retourne l'ID utilisateur (str), un message (str), et les données utilisateur complètes (Dict) ou None.
53
+ """
54
+ email = email.lower().strip()
55
+
56
+ # Validation du formulaire
57
+ if not all([username, email, password, confirm_password, security_question, security_answer]):
58
+ # Retourne (ID, message, Data)
59
+ return None, "Tous les champs sont requis.", None
60
+
61
+ if password != confirm_password:
62
+ return None, "Les mots de passe ne correspondent pas.", None
63
+
64
+ if len(password) < 8:
65
+ return None, "Le mot de passe est trop court (min 8 caractères).", None
66
+
67
+ # 1. Vérification de l'existence de l'utilisateur par email
68
+ if get_user_by_email(email):
69
+ return None, "Un compte avec cette adresse e-mail existe déjà.", None
70
+
71
+ # 2. Hachage des données
72
+ password_hash = generate_password_hash(password)
73
+ security_answer_hash = generate_password_hash(security_answer.lower())
74
+
75
+ # 3. Création des données utilisateur
76
+ user_id = str(uuid.uuid4())
77
+ # Ligne optimisée: on génère les 5 clés en une seule liste
78
+ api_keys = [generate_api_key() for _ in range(5)]
79
+
80
+ new_user = {
81
+ 'user_id': user_id,
82
+ 'username': username,
83
+ 'email': email,
84
+ 'password_hash': password_hash,
85
+ # ASSIGNATION DES 5 CLÉS API AUX CHAMPS CORRESPONDANTS
86
+ 'api_key': api_keys[0],
87
+ 'api_key_2': api_keys[1],
88
+ 'api_key_3': api_keys[2],
89
+ 'api_key_4': api_keys[3],
90
+ 'api_key_5': api_keys[4],
91
+ 'security_question': security_question,
92
+ 'security_answer_hash': security_answer_hash,
93
+ 'plan_id': PLANS_CONFIG['free']['baserow_value'],
94
+ 'stripe_subscription_id': None, # Pas d'abonnement Stripe au début
95
+ 'date_creation': datetime.now().isoformat(),
96
+ 'date_plan_start': datetime.now().isoformat(),
97
+ 'api_calls_month': 0,
98
+ 'status': 'Active',
99
+ 'baserow_row_id': None, # Sera rempli par la fonction save_primary_user_data si c'est une création
100
+ # Note: D'autres champs pourraient être nécessaires ici, selon les besoins non-vus
101
+ }
102
+
103
+ # 4. Sauvegarde dans Baserow
104
+ # La fonction save_primary_user_data mettra à jour 'baserow_row_id' dans new_user si la création est réussie.
105
+ success = save_primary_user_data(new_user, commit_msg=f"feat: Création de l'utilisateur {user_id} ({email})")
106
+
107
+ if success:
108
+ # Retourne : ID utilisateur, message de succès, Dictionnaire utilisateur complet
109
+ return user_id, "Inscription réussie. Vous pouvez maintenant vous connecter.", new_user
110
+ else:
111
+ # Échec de l'écriture dans la BDD (Baserow)
112
+ # Retourne : None, message d'erreur, None
113
+ return None, "Erreur interne lors de l'enregistrement de l'utilisateur.", None
114
+
115
+ def login_user(username_or_email: str, password: str) -> tuple[Optional[str], str, Optional[Dict]]: # <-- NOUVEAU: Ajout de Optional[Dict] dans le type hint
116
+ """
117
+ Tente de connecter un utilisateur principal.
118
+ Retourne l'ID utilisateur (str), un message (str) et les données utilisateur (Dict).
119
+ """
120
+ username_or_email = username_or_email.lower().strip()
121
+
122
+ # 1. Recherche de l'utilisateur par email (Utilisation de la nouvelle fonction rapide Baserow)
123
+ user = get_user_by_email(username_or_email)
124
+
125
+ if user:
126
+ # 2. Vérification du mot de passe
127
+ if check_password_hash(user['password_hash'], password):
128
+ # CORRECTION : Retourne 3 valeurs : ID, Message, Données Utilisateur
129
+ return user['user_id'], "Connexion réussie.", user
130
+
131
+ # CORRECTION : Retourne 3 valeurs : None ID, Message, None Data
132
+ return None, "Email/Nom d'utilisateur ou mot de passe invalide.", None
133
+
134
+
135
+ def get_user_by_id(user_id: str) -> Optional[Dict]:
136
+ """
137
+ Récupère un utilisateur principal par son ID.
138
+ Utilise la fonction load_primary_user_data (qui est get_user_by_id dans Baserow).
139
+ """
140
+ return load_primary_user_data(user_id)
141
+
142
+ def get_user_by_api_key(api_key: str) -> Optional[Dict]:
143
+ """
144
+ Récupère un utilisateur principal par sa Clé API (utilisé par le décorateur).
145
+ Utilise la nouvelle fonction indexée et rapide de Baserow.
146
+ """
147
+ return get_client_user_by_api_key(api_key)
148
+
149
+
150
+ def reset_password_via_security_question(username_or_email: str, question: str, answer: str, new_password: str) -> tuple[bool, str]:
151
+ """Réinitialise le mot de passe via la question de sécurité."""
152
+ username_or_email = username_or_email.lower().strip()
153
+
154
+ # Validation du mot de passe
155
+ if len(new_password) < 8:
156
+ return False, "Le nouveau mot de passe est trop court (min 8 caractères)."
157
+
158
+ # 1. Recherche de l'utilisateur
159
+ user = get_user_by_email(username_or_email)
160
+
161
+ if not user:
162
+ return False, "Utilisateur introuvable."
163
+
164
+ # 2. Vérification de la question/réponse
165
+ if user.get('security_question') != question:
166
+ return False, "Question de sécurité incorrecte."
167
+
168
+ if not check_password_hash(user.get('security_answer_hash', ''), answer.lower()):
169
+ return False, "Réponse de sécurité incorrecte."
170
+
171
+ # 3. Hachage du nouveau mot de passe
172
+ new_hashed_password = generate_password_hash(new_password)
173
+
174
+ # 4. Mise à jour et sauvegarde en BDD (Baserow)
175
+ user['password_hash'] = new_hashed_password
176
+
177
+ success = save_primary_user_data(user, commit_msg=f"feat: Réinitialisation MDP utilisateur {user['user_id']}")
178
+
179
+ if success:
180
+ return True, "Mot de passe réinitialisé avec succès."
181
+ else:
182
+ return False, "Erreur interne lors de la mise à jour du mot de passe."
183
+
184
+
185
+ def update_user_plan(user_id: str, new_plan_id: str, stripe_subscription_id: Optional[str]) -> bool:
186
+ """Met à jour le plan et l'ID d'abonnement Stripe pour un utilisateur."""
187
+
188
+ user = get_user_by_id(user_id)
189
+
190
+ if not user:
191
+ print(f"Erreur: Utilisateur {user_id} non trouvé pour la mise à jour du plan.", file=sys.stderr)
192
+ return False
193
+
194
+ user['plan_id'] = new_plan_id
195
+ user['stripe_subscription_id'] = stripe_subscription_id
196
+ user['date_plan_start'] = datetime.now().isoformat()
197
+
198
+ success = save_primary_user_data(user, commit_msg=f"feat: Mise à jour du plan pour {user_id} vers {new_plan_id}")
199
+
200
+ return success
201
+
202
+
203
+ def update_user_profile(user_id: str, username: str, email: str, new_password: Optional[str] = None) -> tuple[bool, str]:
204
+ """
205
+ Met à jour le profil de l'utilisateur principal (client).
206
+ user_id: L'UUID de l'utilisateur.
207
+ username: Le nouveau nom d'utilisateur.
208
+ email: Le nouvel email.
209
+ new_password: Le nouveau mot de passe (si fourni et non vide).
210
+ """
211
+
212
+ # 1. Chargement des données existantes
213
+ user_data = load_primary_user_data(user_id)
214
+ if not user_data:
215
+ return False, "Erreur critique : Utilisateur introuvable pour la mise à jour."
216
+
217
+ original_email = user_data.get('email')
218
+
219
+ # 2. Validation et mise à jour de l'email
220
+ if email and email != original_email:
221
+ # Vérification si le nouvel email n'est pas déjà utilisé par un autre utilisateur
222
+ # Note: get_user_by_email retourne l'objet utilisateur, pas juste l'ID.
223
+ existing_user_by_email = get_user_by_email(email)
224
+
225
+ # S'il trouve un utilisateur ET que son ID ne correspond pas à l'utilisateur actuel,
226
+ # l'email est déjà pris.
227
+ if existing_user_by_email and existing_user_by_email.get('user_id') != user_id:
228
+ return False, "Cet email est déjà utilisé par un autre compte."
229
+
230
+ # Mise à jour de l'email si la validation passe
231
+ user_data['email'] = email
232
+
233
+ # 3. Mise à jour du nom d'utilisateur (pas de validation d'unicité assumée ici)
234
+ user_data['username'] = username
235
+
236
+ # 4. Mise à jour du mot de passe (si un nouveau est fourni)
237
+ if new_password:
238
+ if len(new_password) < 8:
239
+ # Assurez-vous que cette limite est cohérente avec la fonction register_user
240
+ return False, "Le nouveau mot de passe est trop court (min 8 caractères)."
241
+
242
+ user_data['password_hash'] = generate_password_hash(new_password)
243
+
244
+ # 5. Sauvegarde des données
245
+ # Le row_id est stocké dans l'objet utilisateur après la première sauvegarde.
246
+ baserow_row_id = user_data.get('baserow_row_id')
247
+
248
+ if baserow_row_id is None:
249
+ return False, "Erreur de configuration : ID de ligne Baserow manquant."
250
+
251
+ if save_primary_user_data(user_data, commit_msg=f"feat: Mise à jour du profil utilisateur {user_id}"):
252
+ return True, "Votre profil a été mis à jour avec succès."
253
+ else:
254
+ return False, "Une erreur s'est produite lors de la sauvegarde du profil."
255
+
256
+ def register_end_user(client_id: str, username: str, email: str, password: str, confirm_password: str) -> tuple[Optional[str], str, Optional[Dict]]:
257
+ """
258
+ Enregistre un nouvel utilisateur final (End User) lié à un utilisateur client (Primary User).
259
+ """
260
+ if password != confirm_password:
261
+ return None, "Les mots de passe ne correspondent pas.", None
262
+ if len(password) < 8:
263
+ return None, "Le mot de passe doit contenir au moins 8 caractères.", None
264
+
265
+ # Vérification de l'unicité de l'email UNIQUEMENT pour ce client et pour le type 'End'
266
+ existing_user_by_email = load_primary_user_data(
267
+ filters={
268
+ FIELD_EMAIL: email,
269
+ FIELD_USER_TYPE: 'End',
270
+ FIELD_CLIENT_ID: client_id
271
+ }
272
+ )
273
+ if existing_user_by_email:
274
+ return None, "Cet email est déjà utilisé pour votre service.", None
275
+
276
+ # 1. Création des données de l'utilisateur final
277
+ user_id = str(uuid.uuid4())
278
+ password_hash = generate_password_hash(password)
279
+
280
+ new_user_data = {
281
+ FIELD_ID: user_id,
282
+ FIELD_EMAIL: email,
283
+ FIELD_USERNAME: username,
284
+ FIELD_PASSWORD_HASH: password_hash,
285
+ FIELD_DATE_CREATION: datetime.now().isoformat(),
286
+ FIELD_USER_TYPE: 'End', # <-- IMPORTANT: Marquer comme utilisateur final
287
+ FIELD_CLIENT_ID: client_id, # <-- IMPORTANT: Lier au client principal
288
+ FIELD_PLAN: PLANS_CONFIG['free']['baserow_value'], # Plan par défaut
289
+ }
290
+
291
+ # 2. Sauvegarde dans Baserow (dans la même table)
292
+ success, row_id = save_primary_user_data(new_user_data, is_new=True)
293
+
294
+ if success:
295
+ new_user_data['baserow_row_id'] = row_id
296
+ return user_id, "Inscription réussie !", new_user_data
297
+ else:
298
+ return None, f"Erreur lors de l'enregistrement dans la base de données. ID: {user_id}", None
299
+
300
+ def login_end_user(client_id: str, email: str, password: str) -> tuple[Optional[str], str, Optional[Dict]]:
301
+ """
302
+ Connecte un utilisateur final (End User) lié à un client donné.
303
+ """
304
+ user_data_list = load_primary_user_data(
305
+ filters={
306
+ FIELD_EMAIL: email,
307
+ FIELD_USER_TYPE: 'End', # Filtrer uniquement les utilisateurs finaux
308
+ FIELD_CLIENT_ID: client_id # Filtrer par l'ID du client
309
+ }
310
+ )
311
+
312
+ if not user_data_list:
313
+ return None, "Email ou mot de passe invalide.", None
314
+
315
+ user_data = user_data_list[0]
316
+
317
+ if check_password_hash(user_data.get(FIELD_PASSWORD_HASH), password):
318
+ return user_data.get(FIELD_ID), "Connexion réussie.", user_data
319
+ else:
320
+ return None, "Email ou mot de passe invalide.", None
321
+
322
+ def reset_end_user_password(client_id: str, email: str, new_password: str, confirm_password: str) -> tuple[bool, str]:
323
+ """
324
+ Réinitialise le mot de passe d'un utilisateur final (End User) lié à un client donné.
325
+ """
326
+ if new_password != confirm_password:
327
+ return False, "Les mots de passe ne correspondent pas."
328
+ if len(new_password) < 8:
329
+ return False, "Le nouveau mot de passe est trop court (min 8 caractères)."
330
+
331
+ user_data_list = load_primary_user_data(
332
+ filters={
333
+ FIELD_EMAIL: email,
334
+ FIELD_USER_TYPE: 'End',
335
+ FIELD_CLIENT_ID: client_id
336
+ }
337
+ )
338
+
339
+ if not user_data_list:
340
+ return False, "Utilisateur non trouvé."
341
+
342
+ user_data = user_data_list[0]
343
+
344
+ # Mise à jour du mot de passe
345
+ user_data[FIELD_PASSWORD_HASH] = generate_password_hash(new_password)
346
+
347
+ baserow_row_id = user_data.get('baserow_row_id')
348
+
349
+ if baserow_row_id is None:
350
+ return False, "Erreur de configuration: ID de ligne Baserow manquant."
351
+
352
+ success, _ = save_primary_user_data(user_data, commit_to_baserow=True)
353
+
354
+ if success:
355
+ return True, "Votre mot de passe a été réinitialisé avec succès."
356
+ else:
357
+ return False, "Une erreur s'est produite lors de la réinitialisation du mot de passe."
358
+
359
+ def get_client_user_by_uuid(user_uuid: str) -> Optional[Dict]:
360
+ """
361
+ Récupère les données d'un utilisateur principal (Client) par son UUID/ID.
362
+
363
+ Ceci est un alias pour satisfaire l'appel de fonction dans decorators.py
364
+ sans avoir à modifier ce dernier fichier.
365
+
366
+ Elle suppose que la fonction 'get_user_by_id' est déjà définie
367
+ dans ce module et gère la logique de récupération de données.
368
+ """
369
+ # Assurez-vous que get_user_by_id est bien définie avant cet alias.
370
+ # get_user_by_id doit retourner les données utilisateur ou None.
371
+ return get_user_by_id(user_uuid)
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/baserow_storage.py ADDED
@@ -0,0 +1,791 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # baserow_storage.py (Version Modifiée)
2
+
3
+ import os
4
+ import requests
5
+ import json
6
+ import sys
7
+ from datetime import datetime
8
+ from typing import Optional, Dict
9
+ import logging
10
+ # Configuration du logger (ajoutez ceci en haut du fichier)
11
+ logger = logging.getLogger(__name__)
12
+ # --- Configuration Baserow (Doit être défini dans les secrets) ---
13
+ HEALTH_CHECK_URL = "https://api.baserow.io/api/database/rows/table/"
14
+
15
+ # 2. URL de BASE CORRECTE pour la construction des requêtes de données (connexion, inscription, etc.)
16
+ DATA_BASE_URL = "https://api.baserow.io/api/database/rows/"
17
+ API_TOKEN = os.environ.get("BASEROW_API_TOKEN")
18
+
19
+ # Les IDs de table seront récupérés depuis les variables d'environnement
20
+ PRIMARY_USERS_TABLE_ID = os.environ.get("PRIMARY_USERS_TABLE_ID")
21
+ END_USERS_TABLE_ID = os.environ.get("END_USERS_TABLE_ID")
22
+ # NOUVEL ID DE TABLE POUR LES DÉPLOIEMENTS (Projets)
23
+ DEPLOYMENTS_TABLE_ID = os.environ.get("DEPLOYMENTS_TABLE_ID")
24
+
25
+ # Headers pour l'authentification
26
+ HEADERS = {
27
+ "Authorization": f"Token {API_TOKEN}",
28
+ "Content-Type": "application/json"
29
+ }
30
+
31
+
32
+ FIELD_ID = 'ID' # Correspond à 'user_id' dans le code
33
+ FIELD_EMAIL = 'Email' # Correspond à 'email'
34
+ FIELD_USERNAME = 'Nom d\'utilisateur' # Correspond à 'username'
35
+ FIELD_PASSWORD_HASH = 'Hachage Mot de Passe' # Correspond à 'password_hash'
36
+ FIELD_API_KEY = 'Clé API' # Correspond à 'api_key'
37
+ FIELD_API_KEY_2 = 'Clé API 2'
38
+ FIELD_API_KEY_3 = 'Clé API 3'
39
+ FIELD_API_KEY_4 = 'Clé API 4'
40
+ FIELD_API_KEY_5 = 'Clé API 5'
41
+ FIELD_SECURITY_Q = 'Question de Sécurité'
42
+ FIELD_SECURITY_A_HASH = 'Hachage Réponse Secrète'
43
+ FIELD_PLAN_ID = 'Plan ID'
44
+ FIELD_STRIPE_SUB_ID = 'ID Abonnement Stripe'
45
+ FIELD_DATE_CREATION = 'Date Création'
46
+ FIELD_DATE_PLAN_START = 'Date Plan Start'
47
+ FIELD_API_CALLS_MONTH = 'API Calls Month' # À vérifier avec votre nom exact dans Baserow!
48
+ FIELD_STATUS = 'Status'
49
+ FIELD_END_USER_ID = 'ID Utilisateur Final' # Correspond à 'end_user_id'
50
+ FIELD_END_USER_IDENTIFIER = 'Identifiant' # Correspond à 'identifier'
51
+ FIELD_END_USER_METADATA = 'Métadonnées' # Correspond à 'metadata'
52
+ FIELD_CLIENT_ID_LINK = 'ID Client Principal' # Lien vers Primary_Users
53
+ FIELD_USER_TYPE = 'UserType' # Ex: 'Primary' pour les clients, 'End' pour leurs utilisateurs
54
+ FIELD_CLIENT_ID = 'ClientID' # L'ID de l'utilisateur 'Primary' qui possède cet utilisateur 'End'
55
+
56
+ # ----------------------------------------------------------------------
57
+ # --- Noms de Colonnes pour la Table des Utilisateurs Finaux (End Users) ---
58
+ # ----------------------------------------------------------------------
59
+ # Ces champs sont spécifiques à la table END_USERS
60
+ FIELD_END_USER_ID = 'ID Utilisateur Final'
61
+ FIELD_END_USER_IDENTIFIER = 'Identifiant' # Champ pour compatibilité ou recherche
62
+ FIELD_END_USER_EMAIL = 'Email' # NOUVEAU
63
+ FIELD_END_USER_USERNAME = 'Nom d\'utilisateur' # NOUVEAU
64
+ FIELD_END_USER_SECURITY_Q = 'Question de Sécurité' # NOUVEAU (Peut être différent de Primary)
65
+ FIELD_END_USER_SECURITY_A_HASH = 'Hachage Réponse Secrète' # NOUVEAU
66
+ FIELD_END_USER_STATUS = 'Statut' # NOUVEAU
67
+ FIELD_END_USER_METADATA = 'Métadonnées'
68
+ FIELD_PASSWORD_HASH_END_USER = 'Hachage Mot de Passe End User' # Renommer pour éviter le conflit si possible
69
+ FIELD_CLIENT_ID_LINK = 'ID Client Principal'
70
+
71
+ def _get_table_url(table_id: str) -> str:
72
+ """Construit l'URL d'API pour une table donnée (avec le bon endpoint)."""
73
+ return f"{DATA_BASE_URL}table/{table_id}/"
74
+
75
+ def _baserow_record_to_user(record: Dict, is_end_user: bool) -> Dict:
76
+ """
77
+ Convertit un enregistrement Baserow (avec noms de champs utilisateur)
78
+ en format de dictionnaire Python attendu par le backend.
79
+ """
80
+
81
+
82
+
83
+ # LOGIQUE POUR L'UTILISATEUR PRINCIPAL (PRIMARY USER)
84
+
85
+ # 1. Récupération des champs individuels
86
+ user_data = {
87
+ # Champs communs / Primary Users
88
+ 'baserow_row_id': record['id'], # ID interne de la ligne Baserow (pour les mises à jour)
89
+ 'date_creation': record.get(FIELD_DATE_CREATION),
90
+
91
+ # Primary User specific fields
92
+ 'user_id': record.get(FIELD_ID),
93
+ 'email': record.get(FIELD_EMAIL),
94
+ 'username': record.get(FIELD_USERNAME),
95
+ 'password_hash': record.get(FIELD_PASSWORD_HASH),
96
+
97
+ # Récupération des 5 clés individuelles (pour l'authentification par clé)
98
+ 'api_key': record.get(FIELD_API_KEY),
99
+ 'api_key_2': record.get(FIELD_API_KEY_2),
100
+ 'api_key_3': record.get(FIELD_API_KEY_3),
101
+ 'api_key_4': record.get(FIELD_API_KEY_4),
102
+ 'api_key_5': record.get(FIELD_API_KEY_5),
103
+
104
+ 'security_question': record.get(FIELD_SECURITY_Q),
105
+ 'security_answer_hash': record.get(FIELD_SECURITY_A_HASH),
106
+ 'plan_id': record.get(FIELD_PLAN_ID),
107
+ 'stripe_subscription_id': record.get(FIELD_STRIPE_SUB_ID),
108
+ 'date_plan_start': record.get(FIELD_DATE_PLAN_START),
109
+ }
110
+
111
+ # 2. ÉTAPE CRUCIALE AJOUTÉE : Création de la liste 'api_keys' pour l'affichage
112
+ # Cette liste est nécessaire pour que la boucle dans api_key.html fonctionne correctement.
113
+ user_data['api_keys'] = [
114
+ user_data['api_key'],
115
+ user_data['api_key_2'],
116
+ user_data['api_key_3'],
117
+ user_data['api_key_4'],
118
+ user_data['api_key_5'],
119
+ ]
120
+
121
+ # Nettoyage des clés None ou non-pertinentes
122
+ return {k: v for k, v in user_data.items() if v is not None}
123
+
124
+
125
+ def _user_to_baserow_data(user_data: Dict, is_end_user: bool) -> Dict:
126
+ """
127
+ Convertit le format de dictionnaire Python du backend en format
128
+ JSON attendu par l'API Baserow (avec noms de champs utilisateur).
129
+ """
130
+ if is_end_user:
131
+ # End User fields (Ajout des NOUVEAUX champs)
132
+ baserow_data = {
133
+ FIELD_END_USER_ID: user_data.get('end_user_id'),
134
+ FIELD_END_USER_IDENTIFIER: user_data.get('identifier'),
135
+ FIELD_END_USER_EMAIL: user_data.get('email'), # NOUVEAU
136
+ FIELD_END_USER_USERNAME: user_data.get('username'), # NOUVEAU
137
+ FIELD_END_USER_SECURITY_Q: user_data.get('security_question'), # NOUVEAU
138
+ FIELD_END_USER_SECURITY_A_HASH: user_data.get('security_answer_hash'), # NOUVEAU
139
+ FIELD_END_USER_STATUS: user_data.get('status'), # NOUVEAU
140
+
141
+ # CORRECTION CRUCIALE : Utilisation du nom de champ correct pour l'End User
142
+ FIELD_PASSWORD_HASH_END_USER: user_data.get('password_hash'),
143
+
144
+ FIELD_END_USER_METADATA: user_data.get('metadata'),
145
+ FIELD_DATE_CREATION: user_data.get('date_creation'),
146
+ # Le lien vers Primary_Users est géré dans save_end_user_data
147
+ }
148
+ else:
149
+ # Primary User fields
150
+ baserow_data = {
151
+ FIELD_ID: user_data.get('user_id'),
152
+ FIELD_EMAIL: user_data.get('email'),
153
+ FIELD_USERNAME: user_data.get('username'),
154
+ FIELD_PASSWORD_HASH: user_data.get('password_hash'),
155
+ FIELD_API_KEY: user_data.get('api_key'),
156
+ FIELD_API_KEY_2: user_data.get('api_key_2'),
157
+ FIELD_API_KEY_3: user_data.get('api_key_3'),
158
+ FIELD_API_KEY_4: user_data.get('api_key_4'),
159
+ FIELD_API_KEY_5: user_data.get('api_key_5'),
160
+ FIELD_SECURITY_Q: user_data.get('security_question'),
161
+ FIELD_SECURITY_A_HASH: user_data.get('security_answer_hash'),
162
+ FIELD_PLAN_ID: user_data.get('plan_id'),
163
+ FIELD_STRIPE_SUB_ID: user_data.get('stripe_subscription_id'),
164
+ FIELD_DATE_CREATION: user_data.get('date_creation'),
165
+ FIELD_DATE_PLAN_START: user_data.get('date_plan_start'),
166
+ FIELD_API_CALLS_MONTH: user_data.get('api_calls_month', 0),
167
+ FIELD_STATUS: user_data.get('status', 'Active') # Assurez-vous que 'Active' est une option valide dans Baserow
168
+ }
169
+
170
+ # Suppression des clés non-valorisées (None)
171
+ return {k: v for k, v in baserow_data.items() if v is not None}
172
+
173
+
174
+ def _get_single_user_record(table_id: str, field_name: str, value: str, is_end_user: bool) -> Optional[Dict]:
175
+ """Fonction générique pour rechercher un seul enregistrement par un champ (filtrage Baserow)."""
176
+ url = _get_table_url(table_id)
177
+ # Utilisation du paramètre de filtre de Baserow pour une recherche indexée (plus rapide)
178
+ filter_param = f"filter__{field_name}__equal={value}"
179
+
180
+ try:
181
+ response = requests.get(
182
+ f"{url}?user_field_names=true&{filter_param}",
183
+ headers=HEADERS
184
+ )
185
+ response.raise_for_status()
186
+
187
+ data = response.json()
188
+ if data and data.get('results'):
189
+ # On ne prend que le premier résultat (car ID/Email/API Key sont uniques)
190
+ return _baserow_record_to_user(data['results'][0], is_end_user)
191
+ return None
192
+
193
+ except requests.exceptions.RequestException as e:
194
+ print(f"Erreur de Baserow lors de la recherche par filtre {field_name}: {e}", file=sys.stderr)
195
+ return None
196
+
197
+ # ----------------------------------------------------------------------
198
+ # --- Fonctions CRUD Primary_Users (Nouveau et Remplacement) ---
199
+ # ----------------------------------------------------------------------
200
+
201
+ def get_user_by_email(email: str) -> Optional[Dict]:
202
+ """Recherche un utilisateur principal par son adresse Email."""
203
+ return _get_single_user_record(PRIMARY_USERS_TABLE_ID, FIELD_EMAIL, email, is_end_user=False)
204
+
205
+ API_KEY_FIELDS = [
206
+ FIELD_API_KEY, # Clé API
207
+ FIELD_API_KEY_2,
208
+ FIELD_API_KEY_3,
209
+ FIELD_API_KEY_4,
210
+ FIELD_API_KEY_5,
211
+ ]
212
+
213
+ # baserow_storage.py - à partir de la ligne ~180 (ou autour de la fonction get_client_user_by_api_key)
214
+
215
+ def get_client_user_by_api_key(api_key: str) -> Optional[Dict]:
216
+ """
217
+ Recherche un utilisateur principal dans Baserow en vérifiant la clé API
218
+ dans chacun des cinq champs de clé API de la table.
219
+ """
220
+ if not api_key:
221
+ logger.debug("get_client_user_by_api_key: Clé API est None ou vide.")
222
+ return None
223
+
224
+ # Construction de l'URL de base pour la table
225
+ url = f"{DATA_BASE_URL}table/{PRIMARY_USERS_TABLE_ID}/"
226
+
227
+ # Recherche large dans la table (jusqu'à 100 lignes)
228
+ # NOTE: L'API Baserow utilise `search` pour une recherche FULL TEXT dans tous les champs.
229
+ # C'est la source potentielle de l'inexactitude qui nécessite un filtrage manuel.
230
+ params = {'search': api_key, 'size': 100}
231
+
232
+ try:
233
+ # CORRECTION 1: Utilisation de la fonction _make_baserow_request
234
+ # (Cette fonction est maintenant définie à la fin du fichier)
235
+ # On utilise log_response=True ici pour avoir un log détaillé si la requête échoue
236
+ response = _make_baserow_request("GET", url, params=params, log_response=True)
237
+
238
+ if response.status_code == 200:
239
+ data = response.json()
240
+
241
+ # NOUVEAU LOG : Afficher combien de résultats ont été renvoyés par la recherche Baserow
242
+ num_results = len(data.get('results', []))
243
+ logger.info(f"BASEROW SEARCH: Clé API: {api_key[:8]}... | URL: {url} | Résultats Baserow: {num_results}")
244
+
245
+ if data and 'results' in data and num_results > 0:
246
+ # Filtrage manuel des résultats pour vérifier la clé exacte
247
+ for row in data['results']:
248
+ # Vérifier si la clé API correspond à l'un des 5 champs
249
+ if any(row.get(field) == api_key for field in API_KEY_FIELDS):
250
+ # NOUVEAU LOG : SUCCÈS - L'utilisateur a été trouvé
251
+ logger.info(f"BASEROW SUCCESS: Utilisateur trouvé avec la clé API {api_key[:8]}... dans un des 5 champs.")
252
+ try:
253
+ # On suppose que _baserow_record_to_user existe et prend un booléen
254
+ return _baserow_record_to_user(row, is_end_user=False)
255
+ except NameError:
256
+ logger.error("_baserow_record_to_user non définie. Erreur critique.")
257
+ return None
258
+
259
+ # NOUVEAU LOG : ÉCHEC DU FILTRAGE
260
+ logger.warning(f"BASEROW FILTER FAIL: {num_results} ligne(s) trouvée(s) par 'search' Baserow, mais aucune ne correspondait exactement à la clé API: {api_key[:8]}...")
261
+ return None
262
+
263
+ # Aucune ligne trouvée dans Baserow (num_results est 0)
264
+ logger.debug(f"BASEROW NO RESULT: Aucune ligne trouvée par la recherche Baserow pour la clé API: {api_key[:8]}...")
265
+ return None
266
+
267
+ # Traiter les erreurs HTTP de Baserow (log déjà dans _make_baserow_request)
268
+ return None
269
+
270
+ except Exception as e:
271
+ # Erreur inattendue pendant le traitement
272
+ logger.error(f"Erreur CRITIQUE lors du traitement de la recherche par clé API: {e}", exc_info=True)
273
+ return None
274
+
275
+ # Remplacement de l'ancien load_primary_user_data(user_id)
276
+ def load_primary_user_data(user_id: str) -> Optional[Dict]:
277
+ """Recherche un utilisateur principal par son ID (user_id)."""
278
+ return _get_single_user_record(PRIMARY_USERS_TABLE_ID, FIELD_ID, user_id, is_end_user=False)
279
+
280
+
281
+ def save_primary_user_data(user_data: Dict, commit_msg: str = "") -> bool:
282
+ """Crée ou met à jour un utilisateur principal, avec détection d'erreur ultra-précise."""
283
+ row_id = user_data.get('baserow_row_id')
284
+
285
+ # Définition de l'URL de base pour la table des utilisateurs principaux
286
+ url = _get_table_url(PRIMARY_USERS_TABLE_ID)
287
+
288
+ # 1. Conversion des données
289
+ baserow_data = _user_to_baserow_data(user_data, is_end_user=False)
290
+
291
+ # 2. Suppression des champs en lecture seule (comme dans la correction précédente)
292
+ if baserow_data.pop(FIELD_ID, None):
293
+ print(f"DEBUG: Suppression du champ '{FIELD_ID}' (UUID auto) avant l'envoi { 'POST' if not row_id else 'PATCH'}.", file=sys.stderr)
294
+
295
+ try:
296
+ # Détermination de l'action (PATCH ou POST)
297
+ if row_id:
298
+ action = "PATCH" # ⬅️ CORRECTION: Définition de 'action'
299
+ # MISE À JOUR (PATCH)
300
+ response = requests.patch(
301
+ f"{url}{row_id}/?user_field_names=true",
302
+ headers=HEADERS,
303
+ json=baserow_data
304
+ )
305
+ else:
306
+ action = "POST" # ⬅️ CORRECTION: Définition de 'action'
307
+ # CRÉATION (POST)
308
+ response = requests.post(
309
+ f"{url}?user_field_names=true", # ⬅️ CORRECTION: Utilise l'URL de table 'url'
310
+ headers=HEADERS,
311
+ json=baserow_data
312
+ )
313
+
314
+ # Déclenche une exception requests.exceptions.HTTPError pour les statuts 4xx/5xx
315
+ response.raise_for_status()
316
+
317
+ # Succès
318
+ if not row_id:
319
+ new_record = response.json()
320
+ # 1. Mettre à jour l'ID de ligne Baserow
321
+ user_data['baserow_row_id'] = new_record.get('id')
322
+ # 2. Mettre à jour l'UUID de l'utilisateur (généré par Baserow)
323
+ user_data['user_id'] = new_record.get(FIELD_ID)
324
+
325
+ print(f"DEBUG: UUID de l'utilisateur généré par Baserow et enregistré: {user_data['user_id']}", file=sys.stderr)
326
+
327
+ print(f"DEBUG: Baserow Primary User action '{action}' réussie. Row ID: {user_data.get('baserow_row_id')}. Message: {commit_msg}", file=sys.stderr)
328
+ return True
329
+
330
+ except requests.exceptions.RequestException as e:
331
+ # --- BLOC DE DÉTECTION D'ERREUR PRÉCISE (Ultra-Complet) ---
332
+
333
+ # Note: 'action' est définie dans le bloc try/except, mais si l'erreur survient
334
+ # AVANT la définition de 'action', nous devons la gérer.
335
+ # Pour être sûr, nous allons la définir ici par défaut si elle n'existe pas.
336
+ if 'action' not in locals():
337
+ action = "INCONNU"
338
+
339
+ error_message = f"🚨 ÉCHEC: Erreur lors de la sauvegarde/mise à jour du Primary User dans Baserow. Requête: {action}"
340
+ error_details = ""
341
+
342
+ if hasattr(e, 'response') and e.response is not None:
343
+ # 1. Statut HTTP et URL
344
+ error_details += f"\n -> STATUT HTTP: {e.response.status_code} ({e.response.reason})"
345
+ error_details += f"\n -> URL de la requête: {e.response.url}"
346
+
347
+ # 2. Tenter de décoder le corps de la réponse en JSON (contient les erreurs Baserow)
348
+ try:
349
+ response_json = e.response.json()
350
+ error_details += f"\n\n -> ERREUR BASEROW DÉTAILLÉE (JSON):\n{json.dumps(response_json, indent=4)}"
351
+
352
+ # Optionnel: Synthèse des erreurs de validation de champ
353
+ if isinstance(response_json, dict):
354
+ validation_errors = {k: v for k, v in response_json.items() if isinstance(v, list) and k != 'detail'}
355
+ if validation_errors:
356
+ error_details += "\n -> SYNTHÈSE DES CHAMPS INVALIDES (Vérifiez les noms de colonnes/IDs de table!):"
357
+ for field_name, errors in validation_errors.items():
358
+ error_details += f"\n - Champ '{field_name}': {', '.join([err.get('error', 'Erreur inconnue') for err in errors])}"
359
+
360
+ except json.JSONDecodeError:
361
+ # 3. Si le corps de la réponse n'est pas du JSON
362
+ error_details += f"\n\n -> ERREUR BRUTE (Réponse non-JSON):\n{e.response.text[:500]}..."
363
+
364
+ # 4. Afficher les données que nous avons tenté d'envoyer (après la suppression de l'ID si c'était une création)
365
+ error_details += f"\n\n -> DONNÉES ENVOYÉES À BASEROW:\n{json.dumps(baserow_data, indent=4)}"
366
+
367
+ # Log complet de l'erreur
368
+ print(error_message + error_details, file=sys.stderr)
369
+
370
+ return False
371
+
372
+
373
+ # ----------------------------------------------------------------------
374
+ # --- Fonctions CRUD End_Users (Remplacement) ---
375
+ # ----------------------------------------------------------------------
376
+
377
+ # baserow_storage.py : Dans la section CRUD End_Users
378
+
379
+
380
+ def _get_client_baserow_row_id(client_user_id: str) -> Optional[int]:
381
+ """Récupère l'ID de ligne interne Baserow du client principal pour le lien."""
382
+ client_user = load_primary_user_data(client_user_id) # utilise la fonction déjà créée
383
+ return client_user.get('baserow_row_id') if client_user else None
384
+
385
+
386
+ def check_baserow_connection() -> str:
387
+ """
388
+ Vérifie l'état de connexion de la base de données Baserow.
389
+ Retourne 'operational' ou 'outage'.
390
+ """
391
+ # Liste des IDs de tables critiques à vérifier
392
+ CRITICAL_TABLE_IDS = [
393
+ PRIMARY_USERS_TABLE_ID,
394
+ END_USERS_TABLE_ID
395
+ ]
396
+
397
+ if not API_TOKEN:
398
+ # Si le token API n'est pas défini, échec immédiat
399
+ print("DEBUG: BASEROW_API_TOKEN manquant.", file=sys.stderr)
400
+ return "outage"
401
+
402
+ for table_id in CRITICAL_TABLE_IDS:
403
+ if not table_id:
404
+ # Si un des IDs de table critiques n'est pas défini, échec
405
+ print(f"DEBUG: Un ID de table critique Baserow est manquant (ID: {table_id}).", file=sys.stderr)
406
+ return "outage"
407
+
408
+ # Tenter de faire un appel très léger (récupérer la première ligne)
409
+ # On utilise page_size=1 pour minimiser la charge
410
+ url = f"{DATA_BASE_URL}table/{table_id}/?page_size=1"
411
+
412
+ try:
413
+ response = requests.get(url, headers=HEADERS, timeout=5)
414
+
415
+ if response.status_code != 200:
416
+ # Si un 404, 403, ou autre erreur est retournée par Baserow pour CETTE table
417
+ print(f"DEBUG: Baserow check failed for table {table_id} with status code {response.status_code}", file=sys.stderr)
418
+ return "outage"
419
+
420
+ except requests.exceptions.RequestException as e:
421
+ # Erreur de réseau (timeout, DNS, etc.)
422
+ print(f"DEBUG: Baserow connection error for table {table_id}: {e}", file=sys.stderr)
423
+ return "outage"
424
+
425
+ # Si toutes les tables critiques ont été vérifiées avec succès
426
+ return "operational"
427
+
428
+
429
+ def get_health_status() -> Dict:
430
+ """
431
+ Collecte l'état de santé de tous les services pour la page /statut.
432
+ """
433
+
434
+ db_status = check_baserow_connection()
435
+
436
+ # L'état de l'authentification et de l'API principale sont
437
+ # généralement liés à l'état de la DB pour une application simple.
438
+ # Si la DB est HS, l'auth est HS. Sinon, ils sont OK.
439
+
440
+ auth_status = db_status # Lié à la DB (pour charger les utilisateurs)
441
+ api_endpoint_status = "operational" # L'endpoint Flask lui-même est considéré comme OK s'il tourne
442
+
443
+ # Version du service (pour information)
444
+ service_version = os.environ.get("SERVICE_VERSION", "1.0.0 (Baserow)")
445
+
446
+
447
+ return {
448
+ # Ces valeurs correspondent aux attributs 'data-status' dans statut.html
449
+ "auth": auth_status,
450
+ "data_storage": db_status,
451
+ "api_endpoint": api_endpoint_status,
452
+ "version": service_version,
453
+ "last_update": datetime.now().strftime("%Y-%m-%d %H:%M:%S UTC")
454
+ }
455
+
456
+ def is_baserow_up() -> bool:
457
+ """
458
+ Vérifie l'état de Baserow en utilisant l'URL qui garantit un statut 100% fonctionnel
459
+ sur Hugging Face, SANS utiliser la fonction de construction d'URL de table.
460
+ """
461
+ try:
462
+ # Envoie une requête GET à l'URL qui répond positivement pour le health check.
463
+ response = requests.get(
464
+ HEALTH_CHECK_URL,
465
+ headers=HEADERS,
466
+ timeout=5
467
+ )
468
+ # On vérifie si la réponse est un succès (code 200).
469
+ return response.status_code == 200
470
+ except requests.exceptions.RequestException as e:
471
+ print(f"DEBUG: Baserow health check failed: {e}")
472
+ return False
473
+
474
+ def _make_baserow_request(method: str, url: str, params: Optional[Dict] = None, data: Optional[Dict] = None, log_response: bool = True):
475
+ """
476
+ Fonction utilitaire pour effectuer des appels API à Baserow et journaliser
477
+ les requêtes et les réponses dans les logs du Space Hugging Face.
478
+ """
479
+ # 1. Journalisation de la requête
480
+ logger.info(f"BASEROW REQUEST: {method} {url}")
481
+ # ATTENTION: Ne pas logger le token API complet!
482
+ logged_headers = {k: v.replace(API_TOKEN, '[TOKEN_MASKED]') if k == 'Authorization' else v for k, v in HEADERS.items()}
483
+ logger.debug(f"BASEROW REQUEST Headers: {logged_headers}")
484
+ if data:
485
+ # Pour les requêtes POST/PUT, logger les données (sans le hash du mot de passe si possible)
486
+ logged_data = data.copy() if isinstance(data, dict) else data
487
+ # 'Hachage Mot de Passe' est le nom du champ dans _user_to_baserow_data
488
+ if isinstance(logged_data, dict) and FIELD_PASSWORD_HASH in logged_data:
489
+ logged_data[FIELD_PASSWORD_HASH] = '[PASSWORD_HASH_MASKED]'
490
+ # Le nom du champ n'était pas le même dans l'ancienne version, on utilise la constante
491
+ if isinstance(logged_data, dict) and 'Hachage du mot de passe' in logged_data:
492
+ logged_data['Hachage du mot de passe'] = '[PASSWORD_HASH_MASKED]'
493
+ logger.debug(f"BASEROW REQUEST Body: {logged_data}")
494
+
495
+ # 2. Exécution de la requête
496
+ try:
497
+ # NOTE IMPORTANTE: Utilisation des HEADERS globaux et des 'params' pour GET
498
+ if method == "GET":
499
+ response = requests.get(url, headers=HEADERS, params=params)
500
+ elif method == "POST":
501
+ response = requests.post(url, headers=HEADERS, json=data)
502
+ elif method == "PUT":
503
+ response = requests.put(url, headers=HEADERS, json=data)
504
+ elif method == "DELETE":
505
+ response = requests.delete(url, headers=HEADERS)
506
+ elif method == "PATCH": # Ajout de la méthode PATCH pour la complétude
507
+ response = requests.patch(url, headers=HEADERS, json=data)
508
+ else:
509
+ raise ValueError(f"Méthode HTTP non supportée: {method}")
510
+
511
+ # 3. Journalisation de la réponse
512
+ if log_response:
513
+ logger.info(f"BASEROW RESPONSE: Status {response.status_code}")
514
+ # Journaliser le contenu pour les erreurs
515
+ if response.status_code >= 400:
516
+ logger.error(f"BASEROW ERROR RESPONSE Body: {response.text}")
517
+
518
+ # 4. Retourner la réponse
519
+ return response
520
+
521
+ except requests.exceptions.RequestException as e:
522
+ logger.error(f"BASEROW CONNECTION ERROR: {e}")
523
+ # Retourne un objet Response factice pour l'utiliser dans la fonction appelante
524
+ return requests.Response()
525
+
526
+ # --- NOUVELLES FONCTIONS POUR LES DÉPLOIEMENTS (Projets) ---
527
+
528
+
529
+
530
+ def update_user_deployment_data(
531
+ user_baserow_row_id: int,
532
+ deploy_id: str,
533
+ user_link: str, # Utilisera l'ID interne de l'utilisateur
534
+ hf_repo_path: str
535
+ ) -> tuple[bool, str]:
536
+ """
537
+ Met à jour la ligne de l'utilisateur principal (PRIMARY_USERS_TABLE_ID)
538
+ avec les données de déploiement du projet (ID, Repo, etc.).
539
+ """
540
+ if not PRIMARY_USERS_TABLE_ID:
541
+ return False, "Erreur de configuration: ID de la table utilisateur principal manquant."
542
+
543
+ url = f"{DATA_BASE_URL}table/{PRIMARY_USERS_TABLE_ID}/{user_baserow_row_id}/"
544
+
545
+ # Les données à mettre à jour
546
+ data = {
547
+ FIELD_DEPLOY_ID: deploy_id,
548
+ FIELD_USER_REF: user_link,
549
+ FIELD_HF_REPO_PATH: hf_repo_path
550
+ }
551
+
552
+ # Utiliser PATCH pour mettre à jour seulement les champs spécifiés
553
+ response = _baserow_request(url, method="PATCH", data=data)
554
+
555
+ if response.status_code == 200:
556
+ logger.info(f"Déploiement ID {deploy_id} enregistré sur l'utilisateur Row ID {user_baserow_row_id}.")
557
+ return True, "Données de déploiement enregistrées avec succès sur le compte utilisateur."
558
+ else:
559
+ logger.error(f"Échec de la mise à jour du déploiement Baserow pour l'utilisateur {user_baserow_row_id}. Status: {response.status_code}, Body: {response.text}")
560
+ return False, f"Échec de la mise à jour Baserow: {response.status_code}"
561
+
562
+
563
+ # ----------------------------------------------------------------------
564
+ # --- MODIFICATION DE FONCTION : Récupérer le déploiement par ID ---
565
+ # La recherche doit maintenant se faire dans la table utilisateur.
566
+ # ----------------------------------------------------------------------
567
+ def get_deployment_by_id(deploy_id: str) -> Optional[Dict]:
568
+ """
569
+ Récupère les détails du déploiement (la ligne de l'utilisateur) par son ID unique (le nom du dossier HF).
570
+ """
571
+ if not PRIMARY_USERS_TABLE_ID:
572
+ return None
573
+
574
+ # Utiliser un filtre Baserow pour chercher par l'ID de déploiement dans la table utilisateur
575
+ url = f"{DATA_BASE_URL}table/{PRIMARY_USERS_TABLE_ID}/"
576
+
577
+ # Construction du filtre Baserow: filter__Deployment ID__equal={deploy_id}
578
+ filter_param = f"filter__{FIELD_DEPLOY_ID}__equal"
579
+ params = {
580
+ filter_param: deploy_id
581
+ }
582
+
583
+ response = _baserow_request(url, method="GET", params=params)
584
+
585
+ if response.status_code == 200:
586
+ results = response.json().get('results', [])
587
+ if results:
588
+ # Retourne les données de l'utilisateur contenant les données de déploiement
589
+ # Notez que cela renvoie la ligne utilisateur complète.
590
+ return results[0]
591
+ else:
592
+ return None
593
+ else:
594
+ logger.error(f"Échec de la récupération du déploiement Baserow. Status: {response.status_code}, Body: {response.text}")
595
+ return None
596
+
597
+ def save_new_repository(
598
+ user_id: int,
599
+ repo_data: Dict
600
+ ) -> tuple[bool, str]:
601
+ """
602
+ Ajoute un nouveau dépôt à la liste 'FIELD_REPOS_DATA' de l'utilisateur.
603
+ Ceci remplace l'ancienne approche 'save_new_deployment' qui supposait un seul déploiement par utilisateur.
604
+ """
605
+
606
+ user_record = load_primary_user_data(filters={FIELD_ID: user_id}, single_record=True)
607
+ if not user_record:
608
+ logger.error(f"Utilisateur ID '{user_id}' non trouvé pour l'enregistrement du dépôt.")
609
+ return False, "Utilisateur non trouvé."
610
+
611
+ row_id = user_record.get('id')
612
+ if not row_id:
613
+ return False, f"Erreur critique: ID de ligne Baserow manquant pour l'utilisateur '{user_id}'."
614
+
615
+ # 1. Récupérer et désérialiser la liste des dépôts existants
616
+ repos_json = user_record.get(FIELD_REPOS_DATA)
617
+ try:
618
+ # Baserow renvoie 'None' ou une chaîne vide si le champ est vide
619
+ existing_repos = json.loads(repos_json) if repos_json and isinstance(repos_json, str) else []
620
+ except json.JSONDecodeError:
621
+ logger.warning(f"Champs Repositories Data corrompu pour l'utilisateur {user_id}. Réinitialisation.")
622
+ existing_repos = []
623
+
624
+ # 2. Ajouter le nouveau dépôt
625
+ existing_repos.append(repo_data)
626
+
627
+ # 3. Sérialiser la liste mise à jour
628
+ updated_repos_json = json.dumps(existing_repos)
629
+
630
+ # 4. Mettre à jour Baserow
631
+ url = f"{DATA_BASE_URL}table/{PRIMARY_USERS_TABLE_ID}/{row_id}/"
632
+ data = {
633
+ FIELD_REPOS_DATA: updated_repos_json
634
+ }
635
+
636
+ response = _make_baserow_request(
637
+ method="PATCH",
638
+ url=url,
639
+ data=data,
640
+ log_response=True
641
+ )
642
+
643
+ if response.status_code == 200:
644
+ logger.info(f"Nouveau dépôt '{repo_data['repo_name']}' enregistré pour l'utilisateur ID {user_id}.")
645
+ return True, "Dépôt enregistré avec succès."
646
+ else:
647
+ # Gérer l'échec de la mise à jour (ex: données trop volumineuses ou erreur API)
648
+ error_message = response.text
649
+ logger.error(f"Échec de l'enregistrement du dépôt pour l'utilisateur {user_id}: {error_message}")
650
+ return False, f"Échec de la mise à jour Baserow: {error_message}"
651
+
652
+ # Nouvelle fonction pour récupérer la liste de tous les dépôts d'un utilisateur
653
+ def get_all_user_repositories(user_id: int) -> list:
654
+ """Récupère tous les dépôts d'un utilisateur depuis le champ JSON."""
655
+ user_record = load_primary_user_data(filters={FIELD_ID: user_id}, single_record=True)
656
+ if not user_record:
657
+ return []
658
+
659
+ repos_json = user_record.get(FIELD_REPOS_DATA)
660
+ try:
661
+ return json.loads(repos_json) if repos_json and isinstance(repos_json, str) else []
662
+ except json.JSONDecodeError:
663
+ logger.warning(f"Champs Repositories Data corrompu pour l'utilisateur {user_id}.")
664
+ return []
665
+
666
+
667
+ def delete_deployment_by_id(deploy_id: str) -> tuple[bool, str]:
668
+ """
669
+ Supprime l'enregistrement d'un déploiement (la ligne utilisateur)
670
+ dans la table PRIMARY_USERS_TABLE_ID par le Deployment ID.
671
+
672
+ Note: Cela supprime la ligne utilisateur complète. Si la structure
673
+ change (1 utilisateur -> plusieurs déploiements), cela devra être adapté.
674
+ Pour l'instant, on suppose 1 utilisateur = 1 ligne = 1 déploiement.
675
+
676
+ Version modifiée pour mettre à NULL les champs de déploiement au lieu de supprimer la ligne utilisateur.
677
+ """
678
+ # 1. Récupérer l'enregistrement de l'utilisateur par l'ID de déploiement (le dossier HF)
679
+ user_record = get_deployment_by_id(deploy_id)
680
+
681
+ if not user_record:
682
+ logger.warning(f"Tentative de suppression de déploiement échouée: ID '{deploy_id}' non trouvé dans Baserow.")
683
+ return True, "Déploiement non trouvé dans Baserow (considéré comme déjà supprimé)."
684
+
685
+ # 2. Récupérer l'ID de ligne Baserow pour la mise à jour
686
+ row_id = user_record.get('id')
687
+
688
+ if not row_id:
689
+ return False, f"Erreur critique: ID de ligne Baserow manquant pour le déploiement '{deploy_id}'."
690
+
691
+ # 3. Mettre à jour les champs de déploiement à NULL (ou vide) au lieu de supprimer la ligne utilisateur
692
+ # Note: On suppose que la suppression de déploiement réinitialise ces champs.
693
+ url = f"{DATA_BASE_URL}table/{PRIMARY_USERS_TABLE_ID}/{row_id}/"
694
+ data = {
695
+ FIELD_DEPLOY_ID: None,
696
+ FIELD_USER_REF: None,
697
+ FIELD_HF_REPO_PATH: None
698
+ }
699
+
700
+ response = _make_baserow_request(
701
+ method="PATCH",
702
+ url=url,
703
+ data=data,
704
+ log_response=True
705
+ )
706
+
707
+ if response.status_code == 200:
708
+ logger.info(f"Déploiement ID {deploy_id} supprimé (champs mis à NULL) sur l'utilisateur Row ID {row_id}.")
709
+ return True, "Déploiement supprimé de la base de données avec succès."
710
+ else:
711
+ logger.error(f"Échec de la suppression du déploiement Baserow (PATCH à NULL) pour l'utilisateur Row ID {row_id}. Status: {response.status_code}, Body: {response.text}")
712
+ return False, f"Échec de la suppression Baserow: {response.status_code}"
713
+
714
+ # baserow_storage.py - NOUVELLES FONCTIONS DE VÉRIFICATION DE CHAMPS
715
+
716
+ # --- Liste des Champs Critiques pour la Table Primary Users (pour la vérification) ---
717
+ # Ces champs sont nécessaires pour le fonctionnement global de l'app (Connexion, Profil, Déploiement)
718
+ CRITICAL_PRIMARY_USER_FIELDS = [
719
+ # Primary User Fields (Fonctions Utilisateur)
720
+ FIELD_ID,
721
+ FIELD_EMAIL,
722
+ FIELD_USERNAME,
723
+ FIELD_PASSWORD_HASH,
724
+ FIELD_API_KEY,
725
+ FIELD_API_KEY_2,
726
+ FIELD_API_KEY_3,
727
+ FIELD_API_KEY_4,
728
+ FIELD_API_KEY_5,
729
+ FIELD_SECURITY_Q,
730
+ FIELD_SECURITY_A_HASH,
731
+ FIELD_PLAN_ID,
732
+ FIELD_STRIPE_SUB_ID,
733
+ FIELD_DATE_CREATION,
734
+ FIELD_DATE_PLAN_START,
735
+ FIELD_API_CALLS_MONTH,
736
+ FIELD_STATUS,
737
+ ]
738
+
739
+ def _get_table_fields_url(table_id: str) -> str:
740
+ """Construit l'URL d'API pour lister les champs (colonnes) d'une table."""
741
+ # L'endpoint pour lister les champs est généralement /api/database/fields/table/{table_id}/
742
+ return f"https://api.baserow.io/api/database/fields/table/{table_id}/"
743
+
744
+ def check_critical_fields_existence() -> str:
745
+ """
746
+ Vérifie que tous les champs critiques requis sont présents dans la table PRIMARY_USERS_TABLE_ID.
747
+ Retourne "operational" ou un message d'erreur listant les champs manquants.
748
+ """
749
+ if not API_TOKEN or not PRIMARY_USERS_TABLE_ID:
750
+ return "Configuration Baserow incomplète (Token ou ID de Table Manquant)."
751
+
752
+ table_id = PRIMARY_USERS_TABLE_ID
753
+ url = _get_table_fields_url(table_id)
754
+
755
+ try:
756
+ # Assurez-vous d'utiliser une fonction de requête qui gère l'authentification (e.g., _make_baserow_request si elle existe)
757
+ # Ici, nous utilisons directement requests pour un exemple clair.
758
+ response = requests.get(url, headers=HEADERS, timeout=10)
759
+ response.raise_for_status() # Lève une exception pour les codes d'erreur HTTP (4xx, 5xx)
760
+
761
+ fields_data = response.json().get('results', [])
762
+
763
+ # 1. Obtenir les noms des champs existants
764
+ existing_field_names = {field.get('name') for field in fields_data if 'name' in field}
765
+
766
+ # 2. Identifier les champs manquants
767
+ missing_fields = [
768
+ field_name for field_name in CRITICAL_PRIMARY_USER_FIELDS
769
+ if field_name not in existing_field_names
770
+ ]
771
+
772
+ if missing_fields:
773
+ missing_str = ", ".join(missing_fields)
774
+ logger.error(f"Champs Baserow Manquants dans la table {table_id}: {missing_str}")
775
+ return f"CHAMPS BASEROW MANQUANTS: {missing_str}. Veuillez les créer."
776
+
777
+ logger.info(f"SUCCÈS: Tous les {len(CRITICAL_PRIMARY_USER_FIELDS)} champs critiques Baserow sont trouvés.")
778
+ return "operational"
779
+
780
+ except requests.exceptions.HTTPError as e:
781
+ # Gérer l'erreur 404 si la table n'existe pas, ou 401/403 si le token est invalide
782
+ logger.error(f"Échec de l'API Baserow lors de la vérification des champs pour la table {table_id}: {e}")
783
+ return f"ÉCHEC API LORS DE LA VÉRIFICATION DES CHAMPS (Statut: {e.response.status_code}). Le token ou l'ID de table est probablement incorrect."
784
+ except requests.exceptions.RequestException as e:
785
+ logger.error(f"Erreur de connexion lors de la vérification des champs Baserow: {e}")
786
+ return f"ERREUR RÉSEAU/TIMEOUT lors de la vérification des champs Baserow: {e}"
787
+ except Exception as e:
788
+ logger.error(f"Erreur inattendue lors de la vérification des champs Baserow: {e}")
789
+ return f"ERREUR INATTENDUE: {e}"
790
+
791
+
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/billing_routes.py ADDED
@@ -0,0 +1,137 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # billing_routes.py
2
+
3
+ import os
4
+ import stripe
5
+ import json
6
+ from flask import Blueprint, request, jsonify, Response, session, current_app, url_for
7
+ from decorators import login_required
8
+ from auth_backend import get_user_by_id, get_plan_details, update_user_plan
9
+ import traceback
10
+
11
+ # Initialisation de Stripe avec la clé secrète
12
+ # La clé sera lue depuis les variables d'environnement (secrets HF)
13
+ stripe.api_key = os.environ.get("STRIPE_SECRET_KEY")
14
+
15
+ # Création du Blueprint 'billing_bp'
16
+ billing_bp = Blueprint('billing_bp', __name__)
17
+
18
+ # --- Route API pour créer la session de paiement (Phase 3) ---
19
+ @billing_bp.route("/api/create-checkout-session", methods=["POST"])
20
+ @login_required
21
+ def create_checkout_session():
22
+ """
23
+ Crée une session de checkout Stripe pour un plan donné.
24
+ """
25
+ data = request.get_json()
26
+ # Le plan_id doit être l'ID complet (ex: 'standard_monthly' ou 'illimited_annual')
27
+ final_plan_id = data.get('plan_id')
28
+ user_id = session.get('user_id')
29
+
30
+ plan_details = get_plan_details(final_plan_id)
31
+
32
+ # Détermination de l'ID de prix Stripe (utilise monthly ou annual selon ce qui est défini)
33
+ price_id = plan_details.get('price_id_monthly') or plan_details.get('price_id_annual')
34
+
35
+ # Vérification de l'existence du plan et de l'ID de prix Stripe
36
+ if not plan_details or not price_id:
37
+ if final_plan_id == 'free':
38
+ return jsonify({"message": "Ce plan est gratuit, pas de session de paiement requise.", "url": url_for('user_bp.dashboard')}), 200
39
+
40
+ # Logique de sécurité/erreur si l'ID de prix est manquant pour un plan payant
41
+ current_app.logger.error(f"Erreur: ID de prix Stripe manquant pour le plan {final_plan_id}.")
42
+ return jsonify({"message": "Erreur de configuration du plan.", "status": "Error"}), 500
43
+
44
+ try:
45
+ # Création de la session de paiement Stripe
46
+ checkout_session = stripe.checkout.Session.create(
47
+ # Type de paiement pour les abonnements récurrents
48
+ mode='subscription',
49
+ # Les IDs de prix Stripe
50
+ line_items=[
51
+ {
52
+ 'price': price_id,
53
+ 'quantity': 1
54
+ }
55
+ ],
56
+ # URLs de redirection après paiement/annulation
57
+ # _external=True est crucial pour que Stripe puisse rediriger correctement
58
+ success_url=url_for('user_bp.dashboard', payment='success', _external=True),
59
+ cancel_url=url_for('web_bp.checkout', plan=final_plan_id, payment='cancel', _external=True),
60
+
61
+ # Informations personnalisées CRITIQUES pour le Webhook
62
+ metadata={
63
+ 'user_id': user_id,
64
+ 'plan_id': final_plan_id, # L'ID de plan complet (e.g. 'standard_monthly')
65
+ },
66
+ # Laisse Stripe pré-remplir l'email du client (si on le souhaite)
67
+ # customer_email=get_user_by_id(user_id).get('email'),
68
+ )
69
+
70
+ # Retourne l'URL de la session Stripe au frontend
71
+ return jsonify({'url': checkout_session.url}), 200
72
+
73
+ except stripe.error.StripeError as e:
74
+ current_app.logger.error(f"Erreur Stripe lors de la création de session: {e}")
75
+ return jsonify({"message": f"Une erreur Stripe est survenue: {e.user_message}", "status": "Error"}), 400
76
+ except Exception as e:
77
+ # Log toutes les autres erreurs pour le diagnostic
78
+ current_app.logger.error(f"Erreur inattendue lors de la création de session: {e}\n{traceback.format_exc()}")
79
+ return jsonify({"message": "Erreur interne du serveur lors de la création de la session.", "status": "Error"}), 500
80
+
81
+
82
+ # --- Route Webhook Stripe (Phase 4) ---
83
+ @billing_bp.route('/webhook/stripe', methods=['POST'])
84
+ def stripe_webhook():
85
+ """
86
+ Gère les événements envoyés par Stripe pour mettre à jour l'abonnement de l'utilisateur.
87
+ """
88
+ payload = request.data
89
+ sig_header = request.headers.get('stripe-signature')
90
+ endpoint_secret = os.environ.get("STRIPE_WEBHOOK_SECRET")
91
+
92
+ # 1. Vérification que le secret est bien configuré
93
+ if not endpoint_secret:
94
+ current_app.logger.error("Erreur de configuration: STRIPE_WEBHOOK_SECRET est manquant.")
95
+ return jsonify({'message': 'Erreur de configuration serveur.'}), 500
96
+
97
+ try:
98
+ # 2. Validation de la signature du Webhook
99
+ event = stripe.Webhook.construct_event(
100
+ payload, sig_header, endpoint_secret
101
+ )
102
+ except Exception as e:
103
+ current_app.logger.error(f"Erreur Webhook Stripe (Validation): {e}")
104
+ # Retourne 400 pour que Stripe sache qu'il ne doit pas retenter cet événement
105
+ return 'Invalid payload or signature', 400
106
+
107
+ # 3. Traitement des événements
108
+ if event['type'] == 'checkout.session.completed':
109
+ session_data = event['data']['object']
110
+
111
+ # Récupération des métadonnées CRITIQUES
112
+ user_id = session_data.get('metadata', {}).get('user_id')
113
+ plan_id = session_data.get('metadata', {}).get('plan_id') # L'ID de plan complet (e.g. 'standard_monthly')
114
+ subscription_id = session_data.get('subscription') # L'ID d'abonnement Stripe
115
+
116
+ if user_id and plan_id and subscription_id:
117
+ # Appel à la fonction de mise à jour de la base de données (Phase 4)
118
+ success = update_user_plan(user_id, plan_id, subscription_id)
119
+
120
+ if success:
121
+ current_app.logger.info(f"SUCCESS: Utilisateur {user_id} mis à jour au plan {plan_id} (Sub ID: {subscription_id})")
122
+ else:
123
+ # Le paiement a eu lieu, mais la BDD n'a pas été mise à jour: CRITIQUE
124
+ current_app.logger.error(f"FAILURE: Échec de la mise à jour Git pour l'utilisateur {user_id} après paiement Stripe. Plan: {plan_id}")
125
+ else:
126
+ # Manque d'infos critiques dans le webhook
127
+ current_app.logger.error(f"FAILURE: Données critiques manquantes dans le webhook. Session ID: {session_data.get('id')}. User ID: {user_id}. Plan ID: {plan_id}")
128
+ # Retourne 200 pour éviter une boucle de ré-envoi par Stripe
129
+ return jsonify({'message': 'Données utilisateur critiques manquantes dans la session Stripe.'}), 200
130
+
131
+ # Vous pouvez ajouter d'autres événements si nécessaire (ex: 'customer.subscription.deleted')
132
+ # elif event['type'] == 'customer.subscription.deleted':
133
+ # current_app.logger.info(f"INFO: Abonnement Stripe supprimé. ID de souscription: {event['data']['object'].get('id')}")
134
+
135
+
136
+ # Retourne une réponse pour accuser réception de l'événement (très important)
137
+ return jsonify({'status': 'success'}), 200
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/config.py ADDED
@@ -0,0 +1,122 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # config.py
2
+
3
+ # Fichier de configuration pour le backend ErnestMind 2.5
4
+ import os
5
+
6
+ # --- Configuration Baserow (Nouveau) ---
7
+ # Clés à définir dans les secrets d'environnement Hugging Face Space
8
+ BASEROW_DATABASE_ID = os.environ.get("BASEROW_DATABASE_ID")
9
+ PRIMARY_USERS_TABLE_ID = os.environ.get("PRIMARY_USERS_TABLE_ID")
10
+ END_USERS_TABLE_ID = os.environ.get("END_USERS_TABLE_ID")
11
+ # Le token d'accès API
12
+ BASEROW_API_TOKEN = os.environ.get("BASEROW_API_TOKEN")
13
+
14
+ # --- Configuration Stripe (Paiement) ---
15
+ # Clés à définir dans les secrets d'environnement Hugging Face Space
16
+ STRIPE_SECRET_KEY = os.environ.get("STRIPE_SECRET_KEY")
17
+ STRIPE_WEBHOOK_SECRET = os.environ.get("STRIPE_WEBHOOK_SECRET")
18
+ # Clé Publique (utilisée par le Frontend, mais stockée ici pour référence)
19
+ STRIPE_PUBLIC_KEY = os.environ.get("STRIPE_PUBLIC_KEY")
20
+ # --- Configuration Hugging Face (NOUVEAU: PRs) ---
21
+ HF_DATASET_REPO_ID = os.environ.get("HF_DATASET_REPO_ID") # Déjà existant
22
+ # NOUVELLE VARIABLE pour le dépôt des métadonnées de Pull Requests
23
+ PULL_REQUESTS_HF_REPO_ID = os.environ.get("PULL_REQUESTS_HF_REPO_ID")
24
+ # NOUVELLE VARIABLE pour le dépôt des métadonnées des Issues
25
+ ISSUES_HF_REPO_ID = os.environ.get("ISSUES_HF_REPO_ID")
26
+ GEMINI_API_KEY = os.environ.get("GEMINI_API_KEY")
27
+ HF_TOKEN = os.environ.get("HF_TOKEN")
28
+ GRMINI_HF_REPO_ID = os.environ.get("GEMINI_HF_REPO_ID")
29
+ # ID du Dataset Hugging Face dédié au stockage d'images
30
+ IMAGE_STORAGE_HF_REPO_ID = os.environ.get("IMAGE_STORAGE_HF_REPO_ID")
31
+ # Les 'price_id' doivent correspondre aux IDs créés dans Stripe.
32
+ PLANS_CONFIG = {
33
+ # Plan Gratuit
34
+ "free": {
35
+ "title": "Gratuit",
36
+ "baserow_value": "Free", # <--- NOUVEAU: Mettre la valeur EXACTE attendue par Baserow (ex: GRATUIT, Free, etc.)
37
+ "description": "Idéal pour les tests et les petits projets.",
38
+ "limit": 500,
39
+ "price_monthly": 0.0,
40
+ "price_annual": 0.0,
41
+ "price_id_monthly": None,
42
+ "price_id_annual": None,
43
+ "currency": "EUR"
44
+ },
45
+ # Plan Standard - Mensuel
46
+ "standard_monthly": {
47
+ "title": "Standard (Mensuel)",
48
+ "description": "Pour les utilisateurs réguliers. Paiement mensuel.",
49
+ "limit": 1000,
50
+ "price_monthly": 19.99,
51
+ "price_annual": 0.0,
52
+ "price_id_monthly": "price_1OvXXXXXXX", # REMPLACER PAR VOTRE VRAI ID STRIPE
53
+ "price_id_annual": None,
54
+ "currency": "EUR"
55
+ },
56
+ # Plan Standard - Annuel
57
+ "standard_annual": {
58
+ "title": "Standard (Annuel)",
59
+ "description": "Pour les utilisateurs réguliers. Économisez 20% en payant à l'année.",
60
+ "limit": 1000,
61
+ "price_monthly": 0.0,
62
+ "price_annual": 199.90,
63
+ "price_id_monthly": None,
64
+ "price_id_annual": "price_1OwYYYYYYY", # REMPLACER PAR VOTRE VRAI ID STRIPE
65
+ "currency": "EUR"
66
+ },
67
+ # Plan Pro - Mensuel
68
+ "pro_monthly": {
69
+ "title": "Pro (Mensuel)",
70
+ "description": "Pour les professionnels et les projets importants. Paiement mensuel.",
71
+ "limit": 2000,
72
+ "price_monthly": 49.99,
73
+ "price_annual": 0.0,
74
+ "price_id_monthly": "price_1OxZZZZZZZ", # REMPLACER PAR VOTRE VRAI ID STRIPE
75
+ "price_id_annual": None,
76
+ "currency": "EUR"
77
+ },
78
+ # Plan Pro - Annuel
79
+ "pro_annual": {
80
+ "title": "Pro (Annuel)",
81
+ "description": "Pour les professionnels et les projets importants. Économisez 20% en payant à l'année.",
82
+ "limit": 2000,
83
+ "price_monthly": 0.0,
84
+ "price_annual": 499.90,
85
+ "price_id_monthly": None,
86
+ "price_id_annual": "price_1OyAAAAAAA", # REMPLACER PAR VOTRE VRAI ID STRIPE
87
+ "currency": "EUR"
88
+ },
89
+ # Plan Illimité - Mensuel
90
+ "illimited_monthly": {
91
+ "title": "Illimité (Mensuel)",
92
+ "description": "Sans aucune restriction, pour les grandes entreprises. Paiement mensuel.",
93
+ "limit": float('inf'),
94
+ "price_monthly": 99.99,
95
+ "price_annual": 0.0,
96
+ "price_id_monthly": "price_1OzBBBBBBB", # REMPLACER PAR VOTRE VRAI ID STRIPE
97
+ "price_id_annual": None,
98
+ "currency": "EUR"
99
+ },
100
+ # Plan Illimité - Annuel
101
+ "illimited_annual": {
102
+ "title": "Illimité (Annuel)",
103
+ "description": "Sans aucune restriction, pour les grandes entreprises. Économisez 20% en payant à l'année.",
104
+ "limit": float('inf'),
105
+ "price_monthly": 0.0,
106
+ "price_annual": 999.90,
107
+ "price_id_monthly": None,
108
+ "price_id_annual": "price_1OzAACCCCC", # REMPLACER PAR VOTRE VRAI ID STRIPE
109
+ "currency": "EUR"
110
+ },
111
+ # Plan Spécial pour les End-users (pas listé sur la page de prix)
112
+ "end_user": {
113
+ "title": "End-User",
114
+ "description": "Compte utilisateur créé par un client.",
115
+ "limit": 0,
116
+ "price_monthly": 0.0,
117
+ "price_annual": 0.0,
118
+ "price_id_monthly": None,
119
+ "price_id_annual": None,
120
+ "currency": "EUR"
121
+ },
122
+ }
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/decorators.py ADDED
@@ -0,0 +1,87 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # decorators.py
2
+
3
+ from functools import wraps
4
+ from flask import session, redirect, url_for, flash, request, jsonify
5
+
6
+ # Import nécessaire pour le décorateur API
7
+ import auth_backend
8
+
9
+ def login_required(f):
10
+ @wraps(f)
11
+ def decorated_function(*args, **kwargs):
12
+ if session.get('user_id') is None:
13
+ flash("Vous devez être connecté pour accéder à cette page.", "error")
14
+ # REDIRECTION VERS LA NOUVELLE ROUTE DE CONNEXION DU BACKEND
15
+ return redirect(url_for('web_bp.connexion_page'))
16
+ return f(*args, **kwargs)
17
+ return decorated_function
18
+
19
+ def api_key_required(f):
20
+ """
21
+ Décorateur pour les routes d'API nécessitant une clé API valide (pour les clients externes).
22
+ ... (Reste inchangé)
23
+ """
24
+ @wraps(f)
25
+ def decorated_function(*args, **kwargs):
26
+ # 1. Récupérer la clé depuis l'en-tête ou les paramètres de requête
27
+ api_key = request.headers.get('X-API-Key')
28
+ if not api_key:
29
+ api_key = request.args.get('api_key')
30
+
31
+ if not api_key:
32
+ return jsonify({
33
+ "message": "Authentification requise. Clé API manquante dans l'en-tête X-API-Key ou le paramètre api_key.",
34
+ "status": "Unauthorized"
35
+ }), 401
36
+
37
+ # 2. Valider la clé et récupérer l'utilisateur principal
38
+ client_user = auth_backend.get_client_user_by_api_key(api_key)
39
+
40
+ if not client_user:
41
+ return jsonify({
42
+ "message": "Clé API invalide ou non reconnue.",
43
+ "status": "Forbidden"
44
+ }), 403
45
+
46
+ # 3. Injecter les données de l'utilisateur principal (le client)
47
+ kwargs['client_user'] = client_user
48
+
49
+ return f(*args, **kwargs)
50
+
51
+ return decorated_function
52
+
53
+ # DÉCORATEUR : Pour les routes d'API qui doivent utiliser l'authentification par session
54
+ def api_session_required(f):
55
+ """
56
+ Décorateur pour les routes d'API nécessitant une session utilisateur active (Web UI via session cookie).
57
+ Récupère l'ID utilisateur de la session et injecte les données de l'utilisateur dans la fonction.
58
+ """
59
+ @wraps(f)
60
+ def decorated_function(*args, **kwargs):
61
+ # 1. Récupérer l'ID utilisateur de la session
62
+ user_uuid = session.get('user_id')
63
+
64
+ if not user_uuid:
65
+ # Si l'ID est manquant, on renvoie une réponse JSON 401 (standard pour une API).
66
+ return jsonify({
67
+ "message": "Authentification par session requise. Utilisateur non connecté.",
68
+ "status": "Unauthorized"
69
+ }), 401
70
+
71
+ # 2. Récupérer l'utilisateur principal (client) à partir de son UUID
72
+ client_user = auth_backend.get_client_user_by_uuid(user_uuid)
73
+
74
+ if not client_user:
75
+ # L'utilisateur existe en session mais pas/plus dans la base.
76
+ session.pop('user_id', None) # Vider la session
77
+ return jsonify({
78
+ "message": "Session invalide ou utilisateur non reconnu.",
79
+ "status": "Forbidden"
80
+ }), 403
81
+
82
+ # 3. Injecter les données de l'utilisateur principal (le client)
83
+ kwargs['client_user'] = client_user
84
+
85
+ return f(*args, **kwargs)
86
+
87
+ return decorated_function
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/deployment_routes.py ADDED
@@ -0,0 +1,149 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # deployment_routes.py
2
+
3
+ import logging
4
+ from flask import Blueprint, request, jsonify
5
+ from decorators import api_session_required, api_key_required
6
+ from hf_deploy_manager import (
7
+ deploy_repo_to_space,
8
+ get_space_status,
9
+ fetch_space_logs,
10
+ stop_space,
11
+ get_public_space_url,
12
+ )
13
+
14
+
15
+ logger = logging.getLogger(__name__)
16
+
17
+ # Création du Blueprint 'hf_deploy_bp'
18
+ # Préfixe d'URL pour toutes les routes de ce Blueprint: /api/v1/deployment
19
+ hf_deploy_bp = Blueprint('hf_deploy_bp', __name__, url_prefix='/api/v1/deployment')
20
+
21
+ # --- Route 1 : Lancement du Déploiement (Création/Configuration du Space) ---
22
+
23
+
24
+ @hf_deploy_bp.route("/<string:user_id>/<string:repo_slug>/deploy", methods=['POST'])
25
+ @api_session_required # Assurez-vous que l'utilisateur est authentifié
26
+ def deploy_project(user_id, repo_slug, client_user):
27
+ """
28
+ Lance le déploiement d'un dépôt utilisateur vers un nouveau Hugging Face Space.
29
+ Nécessite le 'sdk_type' (gradio, streamlit, docker, static) dans le corps JSON.
30
+ """
31
+ data = request.get_json()
32
+ sdk_type = data.get('sdk_type', 'gradio')
33
+
34
+ # Validation minimale
35
+ if not user_id or not repo_slug:
36
+ return jsonify({"success": False, "message": "ID utilisateur ou slug de dépôt manquant dans l'URL."}), 400
37
+
38
+ logger.info(f"Déploiement initié pour le dépôt '{repo_slug}' (User: {user_id}, SDK: {sdk_type})")
39
+
40
+ # Appel de la fonction de logique métier
41
+ result = deploy_repo_to_space(
42
+ user_id=user_id,
43
+ repo_slug=repo_slug,
44
+ sdk_type=sdk_type
45
+ )
46
+
47
+ if result.get("success"):
48
+ return jsonify(result), 200
49
+ else:
50
+ # Renvoie le message d'erreur et un code 500 ou 400 approprié
51
+ status_code = 500 if "erreur inattendue" in result.get("message", "").lower() else 400
52
+ return jsonify(result), status_code
53
+
54
+
55
+ # --- Route 2 : Vérification du Statut du Space ---
56
+ @hf_deploy_bp.route("/<path:space_id>/status", methods=['GET']) # Utiliser path pour autoriser le slash dans l'ID
57
+ @api_session_required
58
+ def get_deployment_status(space_id, client_user):
59
+ """
60
+ Récupère le statut (Running, Building, Error, etc.) d'un Space HF.
61
+ Le space_id DOIT être l'ID complet (ex: owner/repo-slug).
62
+ """
63
+ # L'ID complet (owner/repo_slug) est passé directement dans 'space_id'
64
+ if not space_id:
65
+ return jsonify({"success": False, "message": "L'ID complet du Space est manquant dans l'URL."}), 400
66
+
67
+ logger.debug(f"Demande de statut pour le Space: {space_id}")
68
+ result = get_space_status(space_id=space_id)
69
+
70
+ if result.get("success"):
71
+ return jsonify(result), 200
72
+ else:
73
+ return jsonify(result), 404 # 404 si le Space n'est pas trouvé
74
+
75
+
76
+ # --- Route 3 : Récupération des Logs du Space ---
77
+ @hf_deploy_bp.route("/<path:space_id>/logs", methods=['GET']) # Utiliser path pour autoriser le slash dans l'ID
78
+ @api_session_required
79
+ def get_deployment_logs(space_id, client_user):
80
+ """
81
+ Récupère les logs (build ou runtime) d'un Space HF.
82
+ """
83
+ # L'ID complet (owner/repo_slug) est passé directement dans 'space_id'
84
+ if not space_id:
85
+ return jsonify({"success": False, "message": "L'ID complet du Space est manquant dans l'URL."}), 400
86
+
87
+ logs_type = request.args.get('type', 'build') # Valeur par défaut: 'build'
88
+
89
+ logger.debug(f"Demande de logs de type '{logs_type}' pour le Space: {space_id}")
90
+ result = fetch_space_logs(space_id=space_id, logs_type=logs_type) # 'space_id' est l'ID complet
91
+
92
+ if result.get("success"):
93
+ return jsonify(result), 200
94
+ else:
95
+ return jsonify(result), 404
96
+
97
+
98
+ # --- Route 4 : Arrêt (Mise en Pause) du Space ---
99
+ @hf_deploy_bp.route("/<path:space_id>/stop", methods=['POST']) # Utiliser path pour autoriser le slash dans l'ID
100
+ @api_session_required
101
+ def stop_deployment(space_id, client_user):
102
+ """
103
+ Met en pause (Stop) un Space HF pour économiser des ressources.
104
+ """
105
+ # L'ID complet (owner/repo_slug) est passé directement dans 'space_id'
106
+ if not space_id:
107
+ return jsonify({"success": False, "message": "L'ID complet du Space est manquant dans l'URL."}), 400
108
+
109
+ logger.info(f"Arrêt demandé pour le Space: {space_id}")
110
+ result = stop_space(space_id=space_id) # 'space_id' est l'ID complet
111
+
112
+ if result.get("success"):
113
+ return jsonify(result), 200
114
+ else:
115
+ return jsonify(result), 400
116
+
117
+ # --- Route 5 : Récupération de l'URL publique du Space ---
118
+ @hf_deploy_bp.route("/<path:space_id>/url", methods=['GET']) # Utiliser path pour autoriser le slash dans l'ID
119
+ @api_session_required
120
+ def get_space_url(space_id, client_user):
121
+ """
122
+ Construit et retourne l'URL publique d'un Space HF à partir de son ID COMPLET ou du SLUG.
123
+ """
124
+ # L'ID complet (owner/repo_slug) est passé directement dans 'space_id'
125
+ if not space_id:
126
+ return jsonify({"success": False, "message": "L'ID complet du Space est manquant dans l'URL."}), 400
127
+
128
+ try:
129
+ # Extraire le SLUG du repo à partir de l'ID complet (owner/repo_slug)
130
+ # S'il y a un slash, on utilise la partie après, sinon on suppose que c'est déjà le slug
131
+ parts = space_id.split('/')
132
+ if len(parts) == 2:
133
+ space_id_slug = parts[1] # Cas 'owner/repo_slug'
134
+ elif len(parts) == 1:
135
+ space_id_slug = parts[0] # Cas où on reçoit seulement le 'repo_slug'
136
+ else:
137
+ raise ValueError("L'ID du Space doit être au format 'owner/repo_slug' ou juste le slug.")
138
+
139
+ space_url = get_public_space_url(space_id_slug) # Utilise le SLUG pour l'URL publique
140
+
141
+ return jsonify({
142
+ "success": True,
143
+ "space_url": space_url,
144
+ "space_id": space_id # Retourne l'ID initial pour cohérence
145
+ }), 200
146
+
147
+ except Exception as e:
148
+ logger.error(f"Erreur inattendue lors de la récupération de l'URL pour {space_id}: {e}")
149
+ return jsonify({"success": False, "message": f"Erreur lors de la construction de l'URL: {str(e)}"}), 500
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/entrypoint.sh ADDED
@@ -0,0 +1,24 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ #!/bin/bash
2
+ # entrypoint.sh - Optimisé pour Gunicorn + Eventlet (SocketIO) sur Render
3
+
4
+ # --- CONFIGURATION DES PERFORMANCES ---
5
+ # ⚠️ POUR EVENTLET/SOCKETIO : Le nombre de workers doit être bas.
6
+ # 1 worker est suffisant sur les plans de base de Render car Eventlet gère l'async.
7
+ # Nous allons utiliser 1 worker.
8
+ WORKERS=1
9
+
10
+ # --- PRÉPARATION ---
11
+
12
+ echo "--- Démarrage de l'Application GitForge (Gunicorn/Eventlet) ---"
13
+
14
+ # Définir le port par défaut de Render (la variable PORT est injectée par Render)
15
+ export APP_PORT=${PORT:-8000}
16
+
17
+ # 1. Démarrer le serveur Flask/Gunicorn en premier plan
18
+ echo "Démarrage du serveur Gunicorn sur le port $APP_PORT avec Eventlet et $WORKERS worker(s)..."
19
+
20
+ # MODIFICATION MAJEURE: Utiliser le worker 'eventlet' pour supporter SocketIO (WebSockets)
21
+ # -b 0.0.0.0:$APP_PORT: Se lie à l'interface publique fournie par Render.
22
+ # --workers $WORKERS: Limite à un worker pour l'optimisation Eventlet.
23
+ # app:app: Cible le module app.py et l'objet Flask nommé app.
24
+ exec gunicorn --worker-class eventlet --workers $WORKERS app:app -b 0.0.0.0:$APP_PORT
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/gemini_functions.py ADDED
@@ -0,0 +1,462 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # gemini_functions.py - Version étendue pour Hugging Face Data Management
2
+
3
+ import os
4
+ import logging
5
+ import json
6
+ import tempfile
7
+ from typing import Generator, Dict, Optional, List
8
+ import requests
9
+ from flask import session
10
+ from datetime import datetime
11
+ # NOUVEAU IMPORT pour gérer les fichiers uploadés par Flask
12
+ from werkzeug.datastructures import FileStorage
13
+ import base64 # NOUVEAU IMPORT pour l'encodage Base64
14
+
15
+ # --- IMPORT CORRIGÉ ET SPÉCIFIQUE DES VARIABLES DE CONFIGURATION ---
16
+ from config import HF_TOKEN, GRMINI_HF_REPO_ID
17
+ # NOUVEAUX IMPORTS POUR HUGGING FACE
18
+ from huggingface_hub import HfApi, HfFileSystem
19
+
20
+
21
+ logger = logging.getLogger(__name__)
22
+
23
+ # --- Configuration du Backend Externe ---
24
+ EXTERNAL_LLM_API_URL = "https://ernestmindres-ernestmind-llm-backend.hf.space/api/v1/generate_text"
25
+ # NOUVEAU: URL pour le traitement multimodal
26
+ EXTERNAL_LLM_FILES_API_URL = "https://ernestmindres-ernestmind-llm-backend.hf.space/api/v1/generate_text_with_files"
27
+
28
+ # Utilisation de la variable GRMINI_HF_REPO_ID importée.
29
+ GEMINI_HF_REPO_ID = GRMINI_HF_REPO_ID
30
+ # HF_TOKEN est maintenant disponible directement.
31
+ HF_API_BASE = "https://huggingface.co/api"
32
+
33
+ # --- Fonctions Utilitaires ---
34
+ def get_user_id_from_session() -> str:
35
+ """
36
+ Simule l'obtention de l'ID utilisateur à partir de la session Flask.
37
+ """
38
+ return session.get('user_id', 'TEST_USER_ID_FALLBACK')
39
+
40
+ def _get_conversation_file_path(user_id: str, conversation_id: str) -> str:
41
+ """Génère le chemin du fichier JSON dans le dépôt: <user_id>/<conversation_id>.json."""
42
+ return f"{user_id}/{conversation_id}.json"
43
+
44
+ # ----------------------------------------------------------------------
45
+ # FONCTIONS DE GESTION DU DATASET HUGGING FACE
46
+ # ----------------------------------------------------------------------
47
+
48
+ def load_conversation_history(user_id: str, conversation_id: str) -> List[Dict]:
49
+ """
50
+ Lit le contenu du fichier JSON de conversation dans le dataset Hugging Face en utilisant HfFileSystem.
51
+ """
52
+ file_path = _get_conversation_file_path(user_id, conversation_id)
53
+
54
+ try:
55
+ # Initialiser le système de fichiers HF avec le jeton
56
+ fs = HfFileSystem(token=HF_TOKEN)
57
+ repo_path = f"datasets/{GEMINI_HF_REPO_ID}"
58
+ full_path = f"{repo_path}/{file_path}"
59
+
60
+ if fs.exists(full_path):
61
+ # Ouvrir et lire le fichier depuis le dépôt
62
+ with fs.open(full_path, 'r', encoding='utf-8') as f:
63
+ logger.info(f"Historique de conversation {conversation_id} chargé avec succès.")
64
+ return json.load(f)
65
+ else:
66
+ # Fichier non trouvé (nouvelle conversation), retourne un historique vide.
67
+ return []
68
+
69
+ except Exception as e:
70
+ logger.error(f"Erreur lors du chargement de l'historique avec HfFileSystem: {e}")
71
+ return []
72
+
73
+
74
+ def save_conversation_turn(
75
+ user_id: str,
76
+ conversation_id: str,
77
+ prompt: str,
78
+ ai_response: str
79
+ ) -> bool:
80
+ """
81
+ Lit l'historique existant, ajoute le nouveau tour de parole et écrit
82
+ (crée/met à jour) le fichier JSON dans le dataset Hugging Face via HfApi.
83
+ """
84
+ file_path = _get_conversation_file_path(user_id, conversation_id)
85
+
86
+ # 1. Tenter de charger l'historique existant
87
+ current_history = load_conversation_history(user_id, conversation_id)
88
+
89
+ # 2. Ajouter le nouveau tour de parole
90
+ new_turn = {
91
+ "user_id": user_id,
92
+ "timestamp": datetime.now().isoformat(),
93
+ "messages": [
94
+ {"role": "user", "text": prompt},
95
+ {"role": "assistant", "text": ai_response}
96
+ ]
97
+ }
98
+ current_history.append(new_turn)
99
+
100
+ # 3. Préparer le contenu
101
+ content_to_upload = json.dumps(current_history, indent=4)
102
+ tmp_file_path = None
103
+
104
+ # 4. Utiliser un fichier temporaire pour l'upload avec HfApi (méthode robuste)
105
+ try:
106
+ api = HfApi(token=HF_TOKEN)
107
+
108
+ # Écrire le contenu dans un fichier temporaire
109
+ with tempfile.NamedTemporaryFile(mode='w+', delete=False, encoding='utf-8') as tmp_file:
110
+ tmp_file.write(content_to_upload)
111
+ tmp_file_path = tmp_file.name
112
+
113
+ # Utiliser l'API officielle pour uploader/mettre à jour le fichier
114
+ api.upload_file(
115
+ path_or_fileobj=tmp_file_path,
116
+ path_in_repo=file_path,
117
+ repo_id=GEMINI_HF_REPO_ID,
118
+ repo_type="dataset", # Spécifier que c'est un dataset
119
+ commit_message=f"Save/Update conversation {conversation_id} for user {user_id}"
120
+ )
121
+
122
+ # S'assurer que le fichier temporaire est nettoyé
123
+ if tmp_file_path and os.path.exists(tmp_file_path):
124
+ os.remove(tmp_file_path)
125
+
126
+ logger.info(f"Conversation {conversation_id} sauvegardée avec succès via HfApi.")
127
+ return True
128
+
129
+ except Exception as e:
130
+ # Nettoyage en cas d'erreur
131
+ if tmp_file_path and os.path.exists(tmp_file_path):
132
+ os.remove(tmp_file_path)
133
+
134
+ logger.error(f"Échec de la sauvegarde HF via HfApi: {e}")
135
+ return False
136
+
137
+ # --- Fonction principale de streaming (Adaptée à l'API Externe) ---
138
+
139
+ def generate_streaming_response(
140
+ user_id: str,
141
+ conversation_id: str,
142
+ prompt: str
143
+ ) -> Generator[str, None, None]:
144
+ """
145
+ Appelle le backend LLM externe et génère une réponse en streaming.
146
+ """
147
+
148
+ # 1. Charger l'historique existant pour fournir le contexte à l'IA
149
+ # Cette fonction retourne [] si le fichier n'existe pas.
150
+ history = load_conversation_history(user_id, conversation_id)
151
+
152
+ # 2. Préparer les données pour la requête
153
+ payload = {
154
+ "prompt": prompt,
155
+ "conversation_id": conversation_id,
156
+ # NOUVEAU: Ajouter l'historique de la conversation
157
+ "history": history
158
+ }
159
+
160
+ headers = {
161
+ "Content-Type": "application/json",
162
+ "X-User-ID": user_id
163
+ }
164
+
165
+ # 3. Appeler l'API externe en streaming
166
+ try:
167
+ # Utilisation de 'stream=True' pour traiter la réponse au fur et à mesure
168
+ with requests.post(EXTERNAL_LLM_API_URL, headers=headers, json=payload, stream=True) as response:
169
+
170
+ # Vérifier si la requête a réussi
171
+ if response.status_code != 200:
172
+ logger.error(f"Erreur du backend externe: {response.status_code} - {response.text}")
173
+ error_json = json.dumps({'type': 'ERROR', 'text': f"Erreur backend externe: {response.status_code}"})
174
+ yield f"data: {error_json}\n\n"
175
+ return
176
+
177
+ # Traiter le flux de données
178
+ for line in response.iter_lines():
179
+ if line:
180
+ # Le format attendu est 'data: {"content": "..."}' ou 'data: [DONE]'
181
+ line_str = line.decode('utf-8')
182
+ if line_str.startswith('data:'):
183
+ data_content = line_str[5:].strip() # Récupère le JSON après 'data:'
184
+
185
+ if data_content == '[DONE]':
186
+ # Arrêter le flux après [DONE]
187
+ break
188
+
189
+ # Tenter de parser le JSON pour extraire le texte
190
+ try:
191
+ chunk_data = json.loads(data_content)
192
+ text_chunk = chunk_data.get('content', '')
193
+
194
+ if text_chunk:
195
+ # Format de chunk pour le front-end
196
+ chunk_json = json.dumps({'type': 'CHUNK', 'text': text_chunk})
197
+ yield f"data: {chunk_json}\n\n"
198
+
199
+ except json.JSONDecodeError:
200
+ logger.warning(f"Erreur de décodage JSON dans le flux: {data_content}")
201
+ continue # Passer à la ligne suivante si ce n'est pas un JSON valide
202
+
203
+ except requests.exceptions.RequestException as e:
204
+ logger.error(f"Échec de la connexion au backend LLM: {e}")
205
+ error_json = json.dumps({'type': 'ERROR', 'text': f"Échec de la connexion au service LLM: {e}"})
206
+ yield f"data: {error_json}\n\n"
207
+
208
+ # Événement de fin de flux (FINALE)
209
+ final_end_json = json.dumps({'type': 'END', 'conversation_id': conversation_id, 'title': ''})
210
+ yield f"data: {final_end_json}\n\n"
211
+
212
+
213
+ # NOUVEAU: Fonction pour charger uniquement le titre (basé sur le premier prompt)
214
+ def _get_conversation_title(history: List[Dict]) -> str:
215
+ """
216
+ Extrait un titre de conversation à partir du premier prompt utilisateur.
217
+
218
+ Args:
219
+ history (List[Dict]): L'historique complet de la conversation chargé depuis le fichier JSON.
220
+
221
+ Returns:
222
+ str: Le titre de la conversation (le premier prompt tronqué) ou 'Nouvelle Conversation' si vide.
223
+ """
224
+ # Vérifie si l'historique est non-vide et si le premier tour contient des messages
225
+ if history and history[0].get('messages') and len(history[0]['messages']) > 0:
226
+ # Tente d'extraire le texte du premier message utilisateur
227
+ first_prompt = history[0]['messages'][0].get('text', 'Conversation sans titre')
228
+
229
+ # Limiter et nettoyer pour un titre
230
+ # Tronque le titre à 50 caractères et ajoute '...'
231
+ return first_prompt[:50] + '...' if len(first_prompt) > 50 else first_prompt
232
+
233
+ # Cas où le fichier existe mais est vide ou ne contient pas encore de message
234
+ return 'Nouvelle Conversation'
235
+
236
+
237
+ # MODIFICATION: Fonction pour lister tous les fichiers de conversation d'un utilisateur
238
+ def list_user_conversations(user_id: str) -> List[Dict]:
239
+ """
240
+ Liste toutes les conversations d'un utilisateur, en lisant le titre (premier prompt).
241
+ Cette version est robuste face aux fichiers JSON corrompus ou incomplets.
242
+
243
+ Args:
244
+ user_id (str): L'identifiant de l'utilisateur.
245
+
246
+ Returns:
247
+ List[Dict]: Une liste d'objets, chacun contenant {'id': str, 'title': str}.
248
+ """
249
+ try:
250
+ # Initialisation du système de fichiers Hugging Face
251
+ fs = HfFileSystem(token=HF_TOKEN)
252
+ repo_path = f"datasets/{GEMINI_HF_REPO_ID}"
253
+ user_dir = f"{repo_path}/{user_id}/"
254
+
255
+ conversations_list = []
256
+
257
+ # 1. Vérifie si le répertoire de l'utilisateur existe
258
+ if fs.exists(user_dir):
259
+ files = fs.ls(user_dir, detail=False)
260
+
261
+ for file in files:
262
+ if file.endswith('.json'):
263
+ conversation_id = file.split('/')[-1].replace('.json', '')
264
+ full_path = f"{repo_path}/{user_id}/{conversation_id}.json"
265
+
266
+ # 2. Charger l'historique de ce fichier (avec gestion des erreurs)
267
+ history = []
268
+ try:
269
+ with fs.open(full_path, 'r', encoding='utf-8') as f:
270
+ history = json.load(f)
271
+ except json.JSONDecodeError as e:
272
+ # Gère spécifiquement les erreurs de format JSON (fichier corrompu ou vide)
273
+ logger.warning(f"Fichier corrompu ou vide trouvé : {full_path}. Ignoré. Erreur: {e}")
274
+ continue
275
+ except Exception as e:
276
+ # Gère toute autre erreur de lecture/réseau
277
+ logger.error(f"Impossible de lire le fichier {full_path}: {e}")
278
+ continue
279
+
280
+ # 3. Extraire le titre à partir de l'historique chargé
281
+ title = _get_conversation_title(history)
282
+
283
+ # 4. Ajouter à la liste finale
284
+ conversations_list.append({
285
+ "id": conversation_id,
286
+ "title": title
287
+ })
288
+
289
+ # Retourne la liste des conversations valides
290
+ return conversations_list
291
+ else:
292
+ # Retourne une liste vide si le répertoire utilisateur n'existe pas
293
+ return []
294
+
295
+ except Exception as e:
296
+ # Gère une erreur globale (e.g., problème de connexion à Hugging Face)
297
+ logger.error(f"Erreur lors du listage des conversations pour {user_id}: {e}")
298
+ return []
299
+
300
+ # ----------------------------------------------------------------------
301
+ # NOUVELLES FONCTIONS DE SUPPRESSION
302
+ # ----------------------------------------------------------------------
303
+
304
+ def delete_specific_conversation(user_id: str, conversation_id: str) -> bool:
305
+ """
306
+ Supprime un fichier de conversation spécifique dans le dataset Hugging Face.
307
+ """
308
+ file_path = _get_conversation_file_path(user_id, conversation_id)
309
+
310
+ try:
311
+ fs = HfFileSystem(token=HF_TOKEN)
312
+ repo_path = f"datasets/{GEMINI_HF_REPO_ID}"
313
+ full_path = f"{repo_path}/{file_path}"
314
+
315
+ if fs.exists(full_path):
316
+ # Utiliser la méthode 'rm' de HfFileSystem pour supprimer le fichier
317
+ fs.rm(full_path)
318
+ logger.info(f"Conversation spécifique {conversation_id} de {user_id} supprimée avec succès.")
319
+ return True
320
+ else:
321
+ logger.warning(f"Tentative de suppression: Fichier {full_path} non trouvé.")
322
+ return False # Retourne False si non trouvé, mais la suppression est effective
323
+
324
+ except Exception as e:
325
+ logger.error(f"Erreur lors de la suppression de la conversation {conversation_id}: {e}")
326
+ return False
327
+
328
+
329
+ def delete_all_user_conversations(user_id: str) -> bool:
330
+ """
331
+ Supprime le répertoire complet de l'utilisateur dans le dataset Hugging Face,
332
+ incluant toutes ses conversations.
333
+ """
334
+ try:
335
+ fs = HfFileSystem(token=HF_TOKEN)
336
+ repo_path = f"datasets/{GEMINI_HF_REPO_ID}"
337
+ user_dir = f"{repo_path}/{user_id}/"
338
+
339
+ if fs.exists(user_dir):
340
+ # Utiliser la méthode 'rm' de HfFileSystem pour supprimer le répertoire et son contenu
341
+ fs.rm(user_dir, recursive=True)
342
+ logger.info(f"Toutes les conversations pour l'utilisateur {user_id} ont été supprimées.")
343
+ return True
344
+ else:
345
+ logger.warning(f"Tentative de suppression globale: Répertoire utilisateur {user_dir} non trouvé.")
346
+ return True # Considéré comme un succès si le répertoire n'existe pas
347
+
348
+ except Exception as e:
349
+ logger.error(f"Erreur lors de la suppression de toutes les conversations pour {user_id}: {e}")
350
+ return False
351
+
352
+ # ----------------------------------------------------------------------
353
+ # NOUVELLE FONCTION: Traitement des fichiers
354
+ # ----------------------------------------------------------------------
355
+
356
+ def process_uploaded_files(uploaded_files: List[FileStorage]) -> List[Dict]:
357
+ """
358
+ Traite la liste des objets FileStorage (fichiers uploadés via Flask)
359
+ pour les encoder en Base64 et les préparer pour l'API externe.
360
+
361
+ Args:
362
+ uploaded_files (List[FileStorage]): Liste des fichiers provenant de request.files.
363
+
364
+ Returns:
365
+ List[Dict]: Liste de dictionnaires au format:
366
+ {'filename': str, 'content': str (base64), 'mime_type': str}
367
+ """
368
+ processed_files = []
369
+
370
+ for file in uploaded_files:
371
+ try:
372
+ # Lire le contenu du fichier
373
+ file_bytes = file.read()
374
+ # Encoder en Base64
375
+ encoded_content = base64.b64encode(file_bytes).decode('utf-8')
376
+
377
+ processed_files.append({
378
+ "filename": file.filename,
379
+ "content": encoded_content,
380
+ "mime_type": file.mimetype
381
+ })
382
+ logger.info(f"Fichier '{file.filename}' traité et encodé en base64.")
383
+
384
+ except Exception as e:
385
+ logger.error(f"Erreur lors du traitement du fichier {file.filename}: {e}")
386
+ # Le fichier est ignoré, mais la conversation peut continuer
387
+ continue
388
+
389
+ return processed_files
390
+
391
+
392
+ # ----------------------------------------------------------------------
393
+ # NOUVELLE FONCTION principale de streaming AVEC fichiers
394
+ # ----------------------------------------------------------------------
395
+
396
+ def generate_streaming_response_with_files(
397
+ user_id: str,
398
+ conversation_id: str,
399
+ prompt: str,
400
+ files_data: List[Dict] # NOUVEAU: Liste des fichiers déjà encodés en base64
401
+ ) -> Generator[str, None, None]:
402
+ """
403
+ Appelle le backend LLM externe (route avec fichiers) et génère une réponse en streaming.
404
+ """
405
+
406
+ # 1. Charger l'historique existant
407
+ history = load_conversation_history(user_id, conversation_id)
408
+
409
+ # 2. Préparer les données pour la requête (y compris les fichiers)
410
+ payload = {
411
+ "prompt": prompt,
412
+ "history": history,
413
+ "files": files_data # NOUVEAU: Ajout de la liste des fichiers
414
+ }
415
+
416
+ headers = {
417
+ "Content-Type": "application/json",
418
+ "X-User-ID": user_id
419
+ }
420
+
421
+ # 3. Appeler l'API externe en streaming sur la NOUVELLE ROUTE
422
+ try:
423
+ # Utiliser la NOUVELLE URL pour la route multimodale
424
+ with requests.post(EXTERNAL_LLM_FILES_API_URL, headers=headers, json=payload, stream=True) as response:
425
+
426
+ # Vérifier si la requête a réussi (gestion des erreurs du backend HF)
427
+ if response.status_code != 200:
428
+ logger.error(f"Erreur du backend externe (files): {response.status_code} - {response.text}")
429
+ error_json = json.dumps({'type': 'ERROR', 'text': f"Erreur backend externe (files): {response.status_code}"})
430
+ yield f"data: {error_json}\n\n"
431
+ return
432
+
433
+ # Traiter le flux de données (reste le même que l'ancienne fonction)
434
+ for line in response.iter_lines():
435
+ if line:
436
+ line_str = line.decode('utf-8')
437
+ if line_str.startswith('data:'):
438
+ data_content = line_str[5:].strip()
439
+
440
+ if data_content == '[DONE]':
441
+ break
442
+
443
+ try:
444
+ chunk_data = json.loads(data_content)
445
+ text_chunk = chunk_data.get('content', '')
446
+
447
+ if text_chunk:
448
+ chunk_json = json.dumps({'type': 'CHUNK', 'text': text_chunk})
449
+ yield f"data: {chunk_json}\n\n"
450
+
451
+ except json.JSONDecodeError:
452
+ logger.warning(f"Erreur de décodage JSON dans le flux: {data_content}")
453
+ continue
454
+
455
+ except requests.exceptions.RequestException as e:
456
+ logger.error(f"Échec de la connexion au backend LLM (files): {e}")
457
+ error_json = json.dumps({'type': 'ERROR', 'text': f"Échec de la connexion au service LLM (files): {e}"})
458
+ yield f"data: {error_json}\n\n"
459
+
460
+ # Événement de fin de flux (FINALE)
461
+ final_end_json = json.dumps({'type': 'END', 'conversation_id': conversation_id, 'title': ''})
462
+ yield f"data: {final_end_json}\n\n"
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/gemini_routes.py ADDED
@@ -0,0 +1,265 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # gemini_routes.py - Version avec nouvelles routes de gestion de l'historique
2
+
3
+ import logging
4
+ import json
5
+ import uuid
6
+ from flask import Blueprint, request, jsonify, Response, stream_with_context
7
+ from decorators import api_session_required
8
+ from gemini_functions import (
9
+ get_user_id_from_session,
10
+ generate_streaming_response,
11
+ list_user_conversations, # NOUVEL IMPORT
12
+ load_conversation_history,
13
+ save_conversation_turn,
14
+ delete_specific_conversation,
15
+ delete_all_user_conversations,
16
+ process_uploaded_files, # NOUVEL IMPORT
17
+ generate_streaming_response_with_files, # NOUVEL IMPORT
18
+ )
19
+
20
+ gemini_bp = Blueprint('gemini_bp', __name__, url_prefix='/api/gemini')
21
+ logger = logging.getLogger(__name__)
22
+
23
+
24
+ # ------------------------------------------------------------
25
+ # Route: Charger l'historique d'une conversation
26
+ # GET /api/gemini/chat/history/<conversation_id>
27
+ # ------------------------------------------------------------
28
+ @gemini_bp.route('/chat/history/<conversation_id>', methods=['GET'])
29
+ @api_session_required
30
+ def get_chat_history(client_user, conversation_id: str):
31
+ """
32
+ Récupère l'historique de la conversation pour un ID donné depuis le dataset HF.
33
+ """
34
+ user_id = client_user.get('user_id', get_user_id_from_session())
35
+
36
+ if not conversation_id:
37
+ return jsonify({"success": False, "message": "L'ID de conversation est requis."}), 400
38
+
39
+ try:
40
+ history = load_conversation_history(user_id, conversation_id)
41
+ # Retourne l'historique (ou [] si nouveau/non trouvé)
42
+ return jsonify({"success": True, "history": history})
43
+
44
+ except Exception as e:
45
+ logger.error(f"Erreur lors du chargement de l'historique {conversation_id}: {e}")
46
+ # En cas d'erreur fatale, retourner une liste vide pour permettre la continuité
47
+ return jsonify({"success": True, "history": [], "message": "Erreur lors du chargement de l'historique."})
48
+
49
+
50
+ # ------------------------------------------------------------
51
+ # Route: Sauvegarder un tour de conversation
52
+ # POST /api/gemini/chat/save
53
+ # ------------------------------------------------------------
54
+ @gemini_bp.route('/chat/save', methods=['POST'])
55
+ @api_session_required
56
+ def save_chat_turn(client_user):
57
+ """
58
+ Sauvegarde un tour de conversation complet (prompt utilisateur + réponse AI) dans le dataset HF.
59
+ Cette route est destinée à être appelée par le front-end après le stream.
60
+ """
61
+ user_id = client_user.get('user_id', get_user_id_from_session())
62
+
63
+ try:
64
+ data = request.get_json()
65
+ except Exception:
66
+ return jsonify({"success": False, "message": "Données JSON manquantes ou invalides."}), 400
67
+
68
+ conversation_id = data.get('conversation_id')
69
+ prompt = data.get('prompt', '').strip()
70
+ ai_response = data.get('ai_response', '').strip()
71
+
72
+ if not conversation_id or not prompt or not ai_response:
73
+ return jsonify({"success": False, "message": "conversation_id, prompt, et ai_response sont requis."}), 400
74
+
75
+ # Appel de la nouvelle fonction de sauvegarde
76
+ success = save_conversation_turn(user_id, conversation_id, prompt, ai_response)
77
+
78
+ if success:
79
+ return jsonify({"success": True, "message": "Conversation sauvegardée avec succès."}), 200
80
+ else:
81
+ return jsonify({"success": False, "message": "Échec de la sauvegarde de la conversation."}), 500
82
+
83
+ # ------------------------------------------------------------
84
+ # Route unique: Envoyer un message et recevoir la réponse en STREAMING
85
+ # POST /api/gemini/chat/message
86
+ # ------------------------------------------------------------
87
+ @gemini_bp.route('/chat/message', methods=['POST'])
88
+ @api_session_required
89
+ def send_message_stream(client_user):
90
+ # 1. Identification de l'utilisateur
91
+ user_id = client_user.get('user_id', get_user_id_from_session())
92
+
93
+ # 2. Récupération des données (doit être un JSON dans le corps)
94
+ try:
95
+ data = request.get_json()
96
+ except Exception:
97
+ data = {} # Gérer le cas où le corps n'est pas un JSON valide
98
+
99
+ conversation_id = data.get('conversation_id')
100
+ prompt = data.get('prompt', '').strip()
101
+
102
+ # Vérification du prompt
103
+ if not prompt:
104
+ return jsonify({"success": False, "message": "Le 'prompt' est requis."}), 400
105
+
106
+ # 3. Gestion de l'ID de conversation
107
+ if not conversation_id:
108
+ # Créer un nouvel ID si l'utilisateur envoie un nouveau message sans contexte
109
+ conversation_id = str(uuid.uuid4())
110
+ logger.info(f"Création d'un nouvel ID de conversation: {conversation_id} pour {user_id}")
111
+
112
+ # 4. Fonction générateur pour le streaming (Server-Sent Events - SSE)
113
+ def stream_generator():
114
+ # Envoie l'ID de conversation initial pour le front-end
115
+ yield f"data:{json.dumps({'type': 'CONV_ID', 'id': conversation_id})}\n\n"
116
+
117
+ # Le flux de réponse de l'IA (qui appelle le backend externe)
118
+ try:
119
+ # generate_streaming_response retourne des strings au format SSE (data: JSON\n\n)
120
+ for json_chunk_string in generate_streaming_response(user_id, conversation_id, prompt):
121
+ yield json_chunk_string
122
+
123
+ except Exception as e:
124
+ logger.error(f"Erreur fatale dans le stream_generator: {e}")
125
+ error_json = json.dumps({'type': 'ERROR', 'text': 'Erreur interne du serveur lors du streaming.'})
126
+ yield f"data:{error_json}\n\n"
127
+
128
+ # 5. Retourner la réponse en streaming (text/event-stream)
129
+ return Response(
130
+ stream_with_context(stream_generator()),
131
+ mimetype='text/event-stream',
132
+ headers={'Cache-Control': 'no-cache', 'Connection': 'keep-alive'}
133
+ )
134
+
135
+
136
+ # Correction dans gemini_routes.py
137
+ @gemini_bp.route('/chat/list', methods=['GET'])
138
+ @api_session_required
139
+ def get_chat_list(client_user):
140
+ user_id = client_user.get('user_id', get_user_id_from_session())
141
+ try:
142
+ # Utilise la nouvelle fonction qui retourne les objets complets
143
+ conversations = list_user_conversations(user_id)
144
+
145
+ # IMPORTANT: Le frontend attend 'chats', non pas 'conversations'
146
+ return jsonify({"success": True, "chats": conversations})
147
+
148
+ except Exception as e:
149
+ logger.error(f"Erreur lors du listage des conversations: {e}")
150
+ return jsonify({"success": False, "chats": [], "message": "Erreur lors du listage des conversations."}), 500
151
+
152
+ # ------------------------------------------------------------
153
+ # Route: Supprimer une conversation spécifique
154
+ # DELETE /api/gemini/chat/delete/<conversation_id>
155
+ # ------------------------------------------------------------
156
+ @gemini_bp.route('/chat/delete/<conversation_id>', methods=['DELETE'])
157
+ @api_session_required
158
+ def delete_chat_specific(client_user, conversation_id: str):
159
+ """
160
+ Supprime le fichier d'une conversation spécifique.
161
+ """
162
+ user_id = client_user.get('user_id', get_user_id_from_session())
163
+
164
+ if not conversation_id:
165
+ return jsonify({"success": False, "message": "L'ID de conversation est requis pour la suppression."}), 400
166
+
167
+ success = delete_specific_conversation(user_id, conversation_id)
168
+
169
+ if success:
170
+ return jsonify({"success": True, "message": f"Conversation {conversation_id} supprimée avec succès."}), 200
171
+ else:
172
+ # Retourne 404 si le fichier n'a pas été trouvé ou 500 pour une erreur backend
173
+ return jsonify({"success": False, "message": f"Échec de la suppression de la conversation {conversation_id}."}), 500
174
+
175
+
176
+ # ------------------------------------------------------------
177
+ # Route: Supprimer TOUTES les conversations de l'utilisateur
178
+ # DELETE /api/gemini/chat/delete_all
179
+ # ------------------------------------------------------------
180
+ @gemini_bp.route('/chat/delete_all', methods=['DELETE'])
181
+ @api_session_required
182
+ def delete_chat_all(client_user):
183
+ """
184
+ Supprime le répertoire complet de l'utilisateur, incluant toutes ses conversations.
185
+ """
186
+ user_id = client_user.get('user_id', get_user_id_from_session())
187
+
188
+ # Sécurité: Ne pas permettre la suppression de l'utilisateur de secours TEST_USER_ID_FALLBACK
189
+ if user_id == 'TEST_USER_ID_FALLBACK':
190
+ return jsonify({"success": False, "message": "La suppression globale n'est pas autorisée pour l'utilisateur de secours."}), 403
191
+
192
+ success = delete_all_user_conversations(user_id)
193
+
194
+ if success:
195
+ return jsonify({"success": True, "message": f"Toutes les conversations pour l'utilisateur {user_id} ont été supprimées."}), 200
196
+ else:
197
+ return jsonify({"success": False, "message": "Échec de la suppression de toutes les conversations."}), 500
198
+
199
+ # ------------------------------------------------------------
200
+ # NOUVELLE ROUTE: Envoyer un message AVEC fichiers en STREAMING
201
+ # POST /api/gemini/chat/message_with_files
202
+ # ------------------------------------------------------------
203
+ @gemini_bp.route('/chat/message_with_files', methods=['POST'])
204
+ @api_session_required
205
+ def send_message_with_files_stream(client_user):
206
+ """
207
+ Gère l'envoi d'un prompt et de plusieurs fichiers, les encode en Base64,
208
+ et streame la réponse de l'IA via la route multimodale du backend externe.
209
+ """
210
+ # 1. Identification de l'utilisateur
211
+ user_id = client_user.get('user_id', get_user_id_from_session())
212
+
213
+ # 2. Récupération des données du formulaire (le formulaire est de type multipart/form-data)
214
+ # Les champs texte (prompt, conversation_id) sont dans request.form
215
+ conversation_id = request.form.get('conversation_id')
216
+ prompt = request.form.get('prompt', '').strip()
217
+
218
+ # 3. Récupération des fichiers uploadés
219
+ # Flask stocke les fichiers dans request.files
220
+ # On utilise list(request.files.values()) pour obtenir tous les objets FileStorage
221
+ uploaded_files = list(request.files.values())
222
+
223
+ # 4. Vérification minimale
224
+ if not prompt and not uploaded_files:
225
+ return jsonify({"success": False, "message": "Le 'prompt' ou au moins un fichier est requis."}), 400
226
+
227
+ # 5. Traitement des fichiers (Base64 encoding)
228
+ files_data_b64 = process_uploaded_files(uploaded_files)
229
+
230
+ # Double vérification si tous les fichiers ont échoué
231
+ if not prompt and not files_data_b64:
232
+ return jsonify({"success": False, "message": "Le 'prompt' est vide et aucun fichier valide n'a pu être traité."}), 400
233
+
234
+ # 6. Gestion de l'ID de conversation
235
+ if not conversation_id:
236
+ conversation_id = str(uuid.uuid4())
237
+ logger.info(f"Création d'un nouvel ID de conversation (avec fichiers): {conversation_id} pour {user_id}")
238
+
239
+ # 7. Fonction générateur pour le streaming (Server-Sent Events - SSE)
240
+ def stream_generator():
241
+ # Envoie l'ID de conversation initial pour le front-end
242
+ yield f"data:{json.dumps({'type': 'CONV_ID', 'id': conversation_id})}\n\n"
243
+
244
+ # Le flux de réponse de l'IA (qui appelle le backend externe avec fichiers)
245
+ try:
246
+ # Appel de la NOUVELLE fonction
247
+ for json_chunk_string in generate_streaming_response_with_files(
248
+ user_id,
249
+ conversation_id,
250
+ prompt,
251
+ files_data_b64 # Passage des fichiers encodés
252
+ ):
253
+ yield json_chunk_string
254
+
255
+ except Exception as e:
256
+ logger.error(f"Erreur fatale dans le stream_generator (avec fichiers): {e}")
257
+ error_json = json.dumps({'type': 'ERROR', 'text': 'Erreur interne du serveur lors du streaming.'})
258
+ yield f"data:{error_json}\n\n"
259
+
260
+ # 8. Retourner la réponse en streaming (text/event-stream)
261
+ return Response(
262
+ stream_with_context(stream_generator()),
263
+ mimetype='text/event-stream',
264
+ headers={'Cache-Control': 'no-cache', 'Connection': 'keep-alive'}
265
+ )
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/hf_deploy_manager.py ADDED
@@ -0,0 +1,318 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # hf_deploy_manager.py
2
+ # Implémentation du Plan de Travail pour l'Orchestration, la Surveillance et la Maintenance des Spaces Hugging Face.
3
+
4
+ import os
5
+ import re
6
+ import logging
7
+ from typing import Optional, Dict
8
+ from huggingface_hub import HfApi
9
+ from huggingface_hub.utils import HfHubHTTPError # <-- NOUVEL EMPLACEMENT DE L'IMPORT
10
+ import requests
11
+
12
+ # --- Configuration et Initialisation ---
13
+ logger = logging.getLogger(__name__)
14
+
15
+ # Ces variables d'environnement sont nécessaires pour le bon fonctionnement.
16
+ HF_TOKEN = os.environ.get("HF_TOKEN")
17
+ HF_DATASET_REPO_ID = os.environ.get("HF_DATASET_REPO_ID") # Le Dataset qui contient le code utilisateur
18
+
19
+ # Initialisation de l'API Hugging Face
20
+ # Le jeton est lu automatiquement de l'environnement si l'initialisation est faite avec token=HF_TOKEN
21
+ api = HfApi(token=HF_TOKEN)
22
+
23
+ # --- PHASE 1 : Orchestration du Déploiement (La Création du Space) ---
24
+
25
+ def _get_space_id(user_id: str, repo_slug: str) -> str:
26
+ """
27
+ 1. Création d'ID unique : Crée un format de nommage unique et sûr pour le Space HF.
28
+ Format: [user_id_slug]-[repo_slug_slug] (Sans organisation).
29
+ """
30
+ # Simple slugification pour s'assurer qu'il n'y a pas de caractères non autorisés dans l'ID
31
+ safe_user_id = re.sub(r'[^a-zA-Z0-9-]', '-', user_id).lower()
32
+ safe_repo_slug = re.sub(r'[^a-zA-Z0-9-]', '-', repo_slug).lower()
33
+
34
+ # Construction de l'ID du Space sans l'organisation
35
+ space_id = f"{safe_user_id}-{safe_repo_slug}"
36
+ return space_id
37
+
38
+ def get_public_space_url(space_id: str) -> str:
39
+ """
40
+ Génère l'URL publique complète pour un Space Hugging Face à partir de son ID.
41
+ L'URL est toujours construite à partir de l'ID du Space.
42
+ """
43
+ safe_space_id = space_id.replace('/', '-')
44
+ # Format standard de Hugging Face Spaces
45
+ space_url = f"https://{safe_space_id}.hf.space"
46
+ return space_url
47
+
48
+ def _generate_space_readme(user_id: str, repo_slug: str, sdk_type: str = "gradio") -> str:
49
+ """
50
+ 2. Configuration du Code Source : Génère le contenu du fichier README.md.
51
+ Prend en charge les SDKs standards (gradio, streamlit) et 'docker' pour les frameworks.
52
+ """
53
+ if not HF_DATASET_REPO_ID:
54
+ raise ValueError("HF_DATASET_REPO_ID n'est pas configuré dans l'environnement.")
55
+
56
+ # Chemin où se trouve le code source de l'utilisateur dans le Dataset
57
+ user_data_path = f"{user_id}/{repo_slug}"
58
+
59
+ readme_content = f"""
60
+ ---
61
+ title: {repo_slug} - Deployment
62
+ emoji: 🚀
63
+ colorFrom: blue
64
+ colorTo: green
65
+ sdk: {sdk_type}
66
+ external_data:
67
+ - {HF_DATASET_REPO_ID}:{user_data_path}
68
+ ---
69
+
70
+ # Space de Déploiement pour {repo_slug}
71
+ Ce Space est un déploiement automatisé du projet de l'utilisateur `{user_id}`.
72
+
73
+ Le code source est monté depuis le Dataset Hugging Face : `{HF_DATASET_REPO_ID}`
74
+ Chemin spécifique de la source : `{user_data_path}`
75
+
76
+ Le type de SDK utilisé est `{sdk_type}`.
77
+ """
78
+ return readme_content.strip()
79
+
80
+ def _generate_default_requirements() -> str:
81
+ """
82
+ Génère un fichier requirements.txt minimal pour le Dockerfile par défaut.
83
+ Gunicorn est inclus car il est utilisé dans le Dockerfile.
84
+ """
85
+ return """
86
+ # Dépendances requises pour l'application.
87
+ # L'utilisateur doit modifier ce fichier avec les dépendances spécifiques à son projet (Flask, FastAPI, Django, etc.)
88
+ gunicorn
89
+ """
90
+
91
+ def _generate_default_dockerfile(base_image: str = "python:3.10-slim") -> str:
92
+ """
93
+ 3. Fichier d'Environnement : Créer un Dockerfile de base simple pour les déploiements de type 'docker'
94
+ pour les frameworks web (Flask, FastAPI, Django).
95
+ """
96
+ dockerfile_content = f"""
97
+ # Dockerfile généré par défaut par hf_deploy_manager.py
98
+
99
+ FROM {base_image}
100
+
101
+ # Définir le répertoire de travail
102
+ WORKDIR /app
103
+
104
+ # Les fichiers sont montés via external_data dans le dossier de travail.
105
+ # L'utilisateur DOIT fournir un fichier 'requirements.txt' pour les dépendances.
106
+ # Nous copions le fichier requirements.txt généré ou fourni
107
+ COPY requirements.txt requirements.txt
108
+ RUN pip install --no-cache-dir -r requirements.txt
109
+
110
+ # Installer Gunicorn, un serveur WSGI souvent utilisé pour les applications web
111
+ # Gunicorn est déjà listé dans requirements.txt généré.
112
+
113
+ # Exécuter l'application avec Gunicorn.
114
+ # L'application doit écouter sur le port 7860 et l'objet de l'application doit être nommé 'app'
115
+ # dans le fichier de point d'entrée 'app.py' (commun pour Flask/FastAPI/Streamlit/Gradio).
116
+ # Pour Django, l'utilisateur devra créer son propre Dockerfile.
117
+ # Note: HF Spaces expose les applications web sur le port 7860.
118
+ CMD exec gunicorn --bind 0.0.0.0:7860 app:app
119
+ """
120
+ return dockerfile_content.strip()
121
+
122
+ def deploy_repo_to_space(user_id: str, repo_slug: str, sdk_type: str = "gradio") -> Dict[str, str]:
123
+ """
124
+ 4. Déploiement Complet : Crée et configure un nouveau Space Hugging Face.
125
+
126
+ Returns:
127
+ Un dictionnaire contenant le statut de succès, l'ID COMPLET (owner/repo_name) et l'URL publique.
128
+ """
129
+ # Étape 1: Obtenir le slug du dépôt (e.g., a6ea61c8-...)
130
+ space_id_slug = _get_space_id(user_id, repo_slug)
131
+
132
+ # Étape 2: Construire l'ID complet Hugging Face (e.g., ernestmindres/a6ea61c8-...)
133
+ full_space_id = f"{user_id}/{space_id_slug}"
134
+
135
+ # Valider le type de SDK
136
+ valid_sdks = ["gradio", "streamlit", "docker", "static"]
137
+ if sdk_type.lower() not in valid_sdks:
138
+ return {"success": False, "message": f"SDK non valide: {sdk_type}. Types acceptés: {', '.join(valid_sdks)}."}
139
+
140
+ try:
141
+ logger.info(f"Tentative de création du Space: {full_space_id}...")
142
+
143
+ # 1. Créer le dépôt de type 'space' - Utilise l'ID COMPLET
144
+ api.create_repo(
145
+ repo_id=full_space_id,
146
+ repo_type="space",
147
+ private=False,
148
+ space_sdk=sdk_type
149
+ )
150
+
151
+ # 2. Générer le contenu du README.md
152
+ # Assurez-vous que _generate_space_readme est définie
153
+ readme_content = _generate_space_readme(user_id, repo_slug, sdk_type)
154
+
155
+ # 3. Uploader le README.md - Utilise l'ID COMPLET
156
+ api.upload_file(
157
+ path_or_fileobj=readme_content.encode('utf-8'),
158
+ path_in_repo="README.md",
159
+ repo_id=full_space_id,
160
+ repo_type="space",
161
+ commit_message="Initial README.md with external_data directive."
162
+ )
163
+
164
+ # 4. Uploader les fichiers requis pour le mode 'docker'
165
+ if sdk_type.lower() == "docker":
166
+ # 4a. Dockerfile (Assurez-vous que _generate_default_dockerfile est définie)
167
+ dockerfile_content = _generate_default_dockerfile()
168
+ api.upload_file(
169
+ path_or_fileobj=dockerfile_content.encode('utf-8'),
170
+ path_in_repo="Dockerfile",
171
+ repo_id=full_space_id, # Utilise l'ID COMPLET
172
+ repo_type="space",
173
+ commit_message="Initial Dockerfile for web frameworks."
174
+ )
175
+
176
+ # 4b. requirements.txt (Assurez-vous que _generate_default_requirements est définie)
177
+ requirements_content = _generate_default_requirements()
178
+ api.upload_file(
179
+ path_or_fileobj=requirements_content.encode('utf-8'),
180
+ path_in_repo="requirements.txt",
181
+ repo_id=full_space_id, # Utilise l'ID COMPLET
182
+ repo_type="space",
183
+ commit_message="Initial requirements.txt."
184
+ )
185
+
186
+ # 5. Retourner l'URL publique
187
+ # On utilise le SLUG (space_id_slug) pour obtenir l'URL publique
188
+ space_url = get_public_space_url(space_id_slug)
189
+ logger.info(f"Space '{full_space_id}' créé avec succès. URL: {space_url}")
190
+
191
+ return {
192
+ "success": True,
193
+ "message": f"Space créé et configuré avec succès pour SDK: {sdk_type}.",
194
+ "space_id": full_space_id, # IMPORTANT: Retourne l'ID COMPLET
195
+ "space_url": space_url
196
+ }
197
+
198
+ except HfHubHTTPError as e:
199
+ # On logue l'erreur avec l'ID complet pour le débogage
200
+ logger.error(f"Erreur HF lors du déploiement de {full_space_id}: {e}")
201
+ status_code = e.response.status_code
202
+
203
+ # Gérer le cas où le Space existe déjà (code 409 Conflict)
204
+ if status_code == 409:
205
+ # Récupère l'URL pour la renvoyer au client
206
+ space_url = get_public_space_url(space_id_slug)
207
+ return {
208
+ "success": True,
209
+ "message": f"Le Space '{full_space_id}' existe déjà. Vous pouvez procéder à la surveillance du statut via cet ID.",
210
+ "space_id": full_space_id, # IMPORTANT: Retourne l'ID COMPLET
211
+ "space_url": space_url
212
+ }
213
+
214
+ # Gérer les autres erreurs HTTP
215
+ return {
216
+ "success": False,
217
+ "message": f"Erreur lors de la création du Space: {status_code} - **{e}**."
218
+ }
219
+
220
+ except ValueError as e:
221
+ return {"success": False, "message": str(e)}
222
+ except Exception as e:
223
+ logger.error(f"Erreur inattendue lors du déploiement: {e}")
224
+ return {"success": False, "message": f"Erreur inattendue: {str(e)}"}
225
+
226
+ def _get_hf_repo_id(user_id: str, space_id_slug: str) -> str:
227
+ """
228
+ Crée l'ID complet du dépôt Hugging Face (ex: user_id/space_id_slug).
229
+ """
230
+ # Note: Si le space est créé sans organisation, HF le met sous l'utilisateur.
231
+ # Pour une organisation, vous devez adapter (ex: org_id/space_id_slug)
232
+ return f"{user_id}/{space_id_slug}"
233
+
234
+
235
+ def get_space_status(space_id: str) -> Dict[str, str]:
236
+ """
237
+ 5. Vérification du Statut : Utilise HfApi().repo_info pour obtenir l'état (Ex: Running, Building, Error).
238
+
239
+ ATTENTION: 'space_id' DOIT être l'ID complet du dépôt Hugging Face (ex: 'utilisateur/nom-du-space').
240
+ """
241
+ try:
242
+ # Utiliser repo_info (méthode standard pour obtenir des informations complètes sur le dépôt)
243
+ info = api.repo_info(repo_id=space_id, repo_type="space")
244
+
245
+ # Le statut du Space est généralement disponible à deux endroits, on vérifie les deux.
246
+ # Le 'stage' est le statut de compilation/exécution (Building, Running, Error).
247
+ status = 'Unknown'
248
+ if info.cardData and 'space_runtime_stage' in info.cardData:
249
+ status = info.cardData['space_runtime_stage']
250
+ elif info.spaces_status and info.spaces_status.stage:
251
+ status = info.spaces_status.stage
252
+
253
+ # Si le status est encore 'Unknown', on peut essayer de deviner (ex: si 'stage' est manquant)
254
+ if status == 'Unknown':
255
+ if info.spaces_status and info.spaces_status.stage:
256
+ status = info.spaces_status.stage
257
+
258
+ # Fallback si l'API ne renvoie pas la structure attendue
259
+ if status == 'Unknown':
260
+ status = 'No stage'
261
+
262
+ return {
263
+ "success": True,
264
+ "status": status,
265
+ "message": f"Le Space '{space_id}' est dans l'état: {status}"
266
+ }
267
+ except HfHubHTTPError as e:
268
+ logger.error(f"Erreur lors de la récupération du statut de {space_id}: Client error '{e.response.status_code}' for url '{e.response.url}' (Détails: {e})")
269
+
270
+ # Le statut 404 est retourné si le Space n'existe pas (souvent à cause d'un ID incomplet)
271
+ if e.response.status_code == 404:
272
+ return {"success": False, "status": "Error", "message": f"Space non trouvé ou erreur d'API. Vérifiez que l'ID complet '{space_id}' est correct. (Code: 404)"}
273
+
274
+ # Autres erreurs HF
275
+ return {"success": False, "status": "Error", "message": f"Erreur d'API Hugging Face: {e.response.status_code}"}
276
+
277
+ except Exception as e:
278
+ logger.error(f"Erreur inattendue lors de la récupération du statut de {space_id}: {e}")
279
+ return {"success": False, "status": "Error", "message": f"Erreur inattendue lors de la vérification du statut: {str(e)}"}
280
+
281
+
282
+ def fetch_space_logs(space_id: str, logs_type: str = "build") -> Dict[str, str]:
283
+ """
284
+ 6. Récupération des Logs : Utilise HfApi().get_logs pour obtenir les logs.
285
+ """
286
+ try:
287
+ logs = api.get_logs(repo_id=space_id, repo_type="space", logs_type=logs_type)
288
+
289
+ return {
290
+ "success": True,
291
+ "logs": logs,
292
+ "message": f"Logs de type '{logs_type}' récupérés avec succès pour le Space '{space_id}'."
293
+ }
294
+ except HfHubHTTPError as e:
295
+ logger.error(f"Erreur lors de la récupération des logs de {space_id}: {e}")
296
+ return {"success": False, "logs": "", "message": f"Space non trouvé ou erreur d'API: {e.response.status_code}"}
297
+ except Exception as e:
298
+ logger.error(f"Erreur inattendue lors de la récupération des logs: {e}")
299
+ return {"success": False, "logs": "", "message": f"Erreur inattendue: {str(e)}"}
300
+
301
+
302
+ def stop_space(space_id: str) -> Dict[str, str]:
303
+ """
304
+ 7. Arrêt du Space (Optionnel) : Utilise HfApi().pause_space pour mettre le Space en pause.
305
+ """
306
+ try:
307
+ api.pause_space(repo_id=space_id)
308
+
309
+ return {
310
+ "success": True,
311
+ "message": f"Le Space '{space_id}' a été mis en pause (Stopped) avec succès."
312
+ }
313
+ except HfHubHTTPError as e:
314
+ logger.error(f"Erreur lors de l'arrêt du Space {space_id}: {e}")
315
+ return {"success": False, "message": f"Space non trouvé ou erreur d'API: {e.response.status_code}. Space déjà arrêté?"}
316
+ except Exception as e:
317
+ logger.error(f"Erreur inattendue lors de l'arrêt du Space: {e}")
318
+ return {"success": False, "message": f"Erreur inattendue: {str(e)}"}
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/huggingface_repo_manager.py ADDED
@@ -0,0 +1,1174 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # huggingface_repo_manager.py
2
+
3
+ from werkzeug.datastructures import FileStorage # NÉCESSAIRE pour typer le paramètre 'files'
4
+ import os
5
+ import shutil
6
+ import logging
7
+ import json # <--- NOUVEL
8
+ from huggingface_hub import HfApi, HfFileSystem, CommitOperationAdd # <-- MODIFICATION
9
+ from huggingface_hub.utils import HfHubHTTPError
10
+ from typing import Optional, Dict, List, Tuple
11
+ from io import BytesIO
12
+ import uuid # <-- NOUVEL IMPORT
13
+ from datetime import datetime, timedelta # <-- MODIFIER CETTE LIGNE
14
+ from config import HF_DATASET_REPO_ID, IMAGE_STORAGE_HF_REPO_ID, PULL_REQUESTS_HF_REPO_ID, HF_TOKEN
15
+
16
+ logger = logging.getLogger(__name__)
17
+
18
+ # --- Configuration Hugging Face ---
19
+ HF_DATASET_REPO_ID = os.environ.get("HF_DATASET_REPO_ID")
20
+ IMAGE_STORAGE_HF_REPO_ID = os.environ.get("IMAGE_STORAGE_HF_REPO_ID") # <-- AJOUTER CETTE LIGNE
21
+ api = HfApi()
22
+ fs = HfFileSystem()
23
+
24
+ # --- Constantes pour le stockage utilisateur ---
25
+ METADATA_FILE_NAME = "metadata.json"
26
+
27
+ TEMP_UPLOAD_DIR = "/tmp/hf_uploads" # <-- AJOUTER/DÉPLACER ICI
28
+
29
+ def _get_user_base_path(user_id: str) -> str:
30
+ """Retourne le chemin du dossier principal de l'utilisateur dans le Dataset HF."""
31
+ # Le chemin principal est l'UUID de l'utilisateur
32
+ return user_id
33
+
34
+ def _get_user_metadata_path(user_id: str) -> str:
35
+ """Retourne le chemin complet du fichier de métadonnées utilisateur."""
36
+ # Structure: user_id/metadata.json
37
+ return f"{_get_user_base_path(user_id)}/{METADATA_FILE_NAME}"
38
+ # --- NOUVELLES Fonctions Utilitaires pour les chemins de Variables/Secrets ---
39
+
40
+
41
+ SECRETS_FILE_PREFIX = "secrets__"
42
+ VARIABLES_FILE_PREFIX = "variables__"
43
+
44
+ def _get_repo_secrets_path(user_id: str, repo_slug: str) -> str:
45
+ """Retourne le chemin complet du fichier JSON des secrets pour un dépôt."""
46
+ # Structure: user_id/secrets__repo_slug.json
47
+ return f"{_get_user_base_path(user_id)}/{SECRETS_FILE_PREFIX}{repo_slug}.json"
48
+
49
+ def _get_repo_variables_path(user_id: str, repo_slug: str) -> str:
50
+ """Retourne le chemin complet du fichier JSON des variables pour un dépôt."""
51
+ # Structure: user_id/variables__repo_slug.json
52
+ return f"{_get_user_base_path(user_id)}/{VARIABLES_FILE_PREFIX}{repo_slug}.json"
53
+
54
+
55
+ # --- NOUVELLE Fonction Utilitaires pour le formatage du temps écoulé ---
56
+
57
+ def _format_time_ago(datetime_str: str) -> str:
58
+ """
59
+ Formate une chaîne de date/heure ISO (UTC) en une chaîne de temps écoulé
60
+ (par ex. 'il y a 2 jours', 'le mois dernier').
61
+ """
62
+ try:
63
+ # Hugging Face renvoie une chaîne ISO formatée (ex: 2025-12-13T17:47:07.000Z)
64
+ # On remplace 'Z' pour être compatible avec `fromisoformat` si Python < 3.11 ou si le format varie.
65
+ last_modified_dt = datetime.fromisoformat(datetime_str.replace('Z', '+00:00'))
66
+ except ValueError:
67
+ return "Date invalide"
68
+
69
+ # Utiliser le fuseau horaire de la date/heure lue (ici UTC)
70
+ now = datetime.now(last_modified_dt.tzinfo)
71
+ diff: timedelta = now - last_modified_dt
72
+
73
+ # Différence en secondes
74
+ seconds = int(diff.total_seconds())
75
+
76
+ # Gérer le cas où la date est dans le futur (très rare)
77
+ if seconds < 0:
78
+ return "à l'instant"
79
+
80
+ # Tableau des intervalles de temps
81
+ intervals = (
82
+ ('années', 31536000), # 365 jours
83
+ ('mois', 2592000), # 30 jours (approximation)
84
+ ('semaines', 604800), # 7 jours
85
+ ('jours', 86400),
86
+ ('heures', 3600),
87
+ ('minutes', 60),
88
+ ('secondes', 1),
89
+ )
90
+
91
+ for name, count in intervals:
92
+ value = seconds // count
93
+ if value >= 1:
94
+ # Gérer les pluriels et le formatage "il y a"
95
+ s = 's' if value > 1 and name not in ['mois', 'années'] else ''
96
+
97
+ if name == 'années':
98
+ return f"il y a {value} an{s}"
99
+ if name == 'mois':
100
+ return f"il y a {value} mois"
101
+ if name == 'semaines':
102
+ return f"il y a {value} semaine{s}"
103
+ if name == 'jours':
104
+ return f"il y a {value} jour{s}"
105
+ if name == 'heures':
106
+ return f"il y a {value} heure{s}"
107
+ if name == 'minutes':
108
+ return f"il y a {value} minute{s}"
109
+ if name == 'secondes':
110
+ return f"il y a {value} seconde{s}"
111
+
112
+ return "à l'instant"
113
+
114
+
115
+ def upload_files_to_repo_backend(
116
+ user_id: str,
117
+ repo_slug: str,
118
+ files: List[FileStorage],
119
+ commit_message: str,
120
+ commit_description: Optional[str] = None,
121
+ branch: str = "main",
122
+ repo_id: Optional[str] = None
123
+ ) -> tuple[bool, str]:
124
+ """
125
+ Téléverse une liste de fichiers (incluant ceux dans des sous-dossiers)
126
+ vers le sous-dossier de dépôt de l'utilisateur sur Hugging Face
127
+ en une seule commit atomique (Git-like) en utilisant un dossier temporaire.
128
+ """
129
+ repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
130
+ if not repo_id:
131
+ return False, "Erreur de configuration: Repository Hugging Face non défini."
132
+ if not files:
133
+ return False, "Aucun fichier à téléverser."
134
+
135
+ # 1. Préparer le dossier temporaire local
136
+ local_temp_repo_path = os.path.join(TEMP_UPLOAD_DIR, user_id, repo_slug)
137
+
138
+ # S'assurer que le dossier local temporaire est propre et existe
139
+ if os.path.exists(local_temp_repo_path):
140
+ shutil.rmtree(local_temp_repo_path)
141
+ os.makedirs(local_temp_repo_path, exist_ok=True)
142
+
143
+ local_file_paths = []
144
+
145
+ try:
146
+ # 2. Sauvegarder tous les fichiers uploadés dans le dossier temporaire
147
+ for file_storage in files:
148
+ # --- CORRECTION POUR LA GESTION DES SOUS-DOSSIERS ---
149
+
150
+ # Utiliser le chemin relatif complet du fichier (ex: 'css/style.css' ou 'index.html')
151
+ # Nous faisons confiance à file_storage.filename pour contenir le chemin relatif
152
+ filename_with_path = file_storage.filename.strip()
153
+
154
+ # Sécurité: normaliser le chemin pour éviter les traversées de dossiers (ex: '../')
155
+ safe_relative_path = os.path.normpath(filename_with_path)
156
+
157
+ # Construction du chemin local complet dans le dossier temporaire
158
+ local_path = os.path.join(local_temp_repo_path, safe_relative_path)
159
+
160
+ # S'assurer que le SOUS-DOSSIER local existe avant de sauvegarder le fichier
161
+ # os.path.dirname('temp/css/style.css') -> 'temp/css'
162
+ os.makedirs(os.path.dirname(local_path), exist_ok=True)
163
+
164
+ # Sauvegarder l'objet FileStorage dans le chemin local
165
+ file_storage.save(local_path)
166
+ local_file_paths.append(local_path)
167
+
168
+ # --- FIN DE LA CORRECTION ---
169
+
170
+ # 3. Effectuer le téléversement atomique du dossier local vers HF
171
+ path_in_repo = f"{user_id}/{repo_slug}"
172
+
173
+ commit_message_full = (commit_message.strip() if commit_message else "Ajout de fichiers via upload")
174
+ if commit_description:
175
+ commit_message_full += f"\n\n{commit_description}"
176
+
177
+ api.upload_folder(
178
+ folder_path=local_temp_repo_path,
179
+ repo_id=repo_id,
180
+ path_in_repo=path_in_repo,
181
+ repo_type="dataset",
182
+ # Utilise 'commit_message_full' pour le titre et la description
183
+ commit_message=commit_message_full,
184
+ # Laisse 'delete_old_files' désactivé pour ne pas supprimer les fichiers existants non inclus dans l'upload actuel
185
+ revision=branch # Cible la bonne branche (Git-like)
186
+ )
187
+
188
+ # 4. Nettoyage
189
+ # On supprime le dossier temporaire de l'utilisateur/repo, mais pas TEMP_UPLOAD_DIR
190
+ shutil.rmtree(local_temp_repo_path)
191
+
192
+ message = f"Téléversement réussi de {len(files)} fichiers (avec sous-dossiers si présents) vers le dépôt '{repo_slug}'."
193
+ logger.info(message)
194
+ return True, message
195
+
196
+ except HfHubHTTPError as e:
197
+ logger.error(f"Erreur API Hugging Face lors de l'upload pour {repo_slug}: {e}")
198
+ return False, f"Échec du téléversement Hugging Face (vérifiez les permissions ou la branche) : {e.response.text.splitlines()[0]}"
199
+ except Exception as e:
200
+ logger.error(f"Erreur inconnue lors du téléversement pour {repo_slug}: {e}")
201
+ # L'erreur de l'argument manquant peut être capturée ici
202
+ return False, f"Erreur interne lors du téléversement : {str(e)}"
203
+ finally:
204
+ # S'assurer que le dossier temporaire est toujours nettoyé, même en cas d'erreur
205
+ if os.path.exists(local_temp_repo_path):
206
+ shutil.rmtree(local_temp_repo_path)
207
+
208
+ def save_json_file_to_hf(
209
+ file_path: str,
210
+ data: Dict,
211
+ commit_message: str,
212
+ repo_id: Optional[str] = None
213
+ ) -> tuple[bool, str]:
214
+ """
215
+ Encode les données en JSON, les commite et les enregistre sur Hugging Face.
216
+ """
217
+ if not repo_id:
218
+ return False, "Erreur de configuration: Repository Hugging Face non défini."
219
+
220
+ try:
221
+ updated_content = json.dumps(data, indent=4).encode('utf-8')
222
+ updated_file = BytesIO(updated_content)
223
+
224
+ api.upload_file(
225
+ path_or_fileobj=updated_file,
226
+ path_in_repo=file_path,
227
+ repo_id=repo_id,
228
+ repo_type="dataset",
229
+ commit_message=commit_message
230
+ )
231
+
232
+ logger.info(f"Fichier JSON mis à jour sur HF à {file_path}.")
233
+ return True, "Fichier JSON mis à jour avec succès sur Hugging Face."
234
+
235
+ except Exception as e:
236
+ logger.error(f"Erreur lors de la mise à jour du JSON HF pour {file_path}: {e}")
237
+ return False, f"Échec de la mise à jour du JSON Hugging Face: {str(e)}"
238
+
239
+ def get_user_repo_metadata(
240
+ user_id: str,
241
+ repo_id: Optional[str] = None
242
+ ) -> tuple[Optional[Dict], str]:
243
+ """
244
+ Charge les métadonnées de tous les dépôts d'un utilisateur depuis le fichier metadata.json sur HF.
245
+ """
246
+ repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
247
+ if not repo_id:
248
+ return None, "Erreur de configuration: Repository Hugging Face non défini."
249
+
250
+ metadata_path = _get_user_metadata_path(user_id)
251
+ hf_file_path = f"datasets/{repo_id}/{metadata_path}"
252
+
253
+ try:
254
+ if not fs.exists(hf_file_path):
255
+ return None, f"Fichier de métadonnées non trouvé pour l'utilisateur {user_id}."
256
+
257
+ with fs.open(hf_file_path, "rb") as f:
258
+ content = f.read()
259
+
260
+ metadata = json.loads(content.decode('utf-8'))
261
+ return metadata, "Métadonnées chargées avec succès."
262
+
263
+ except Exception as e:
264
+ logger.error(f"Erreur lors du chargement des métadonnées HF pour {user_id}: {e}")
265
+ return None, f"Échec du chargement des métadonnées: {str(e)}"
266
+
267
+ def initialize_user_hf_folder(
268
+ user_id: str,
269
+ repo_id: Optional[str] = None
270
+ ) -> tuple[bool, str]:
271
+ """
272
+ Crée le dossier principal de l'utilisateur (user_id/) sur HF et un fichier de métadonnées initial (metadata.json).
273
+ Ceci est le 'dossier principal' qui stocke les informations de l'utilisateur.
274
+ """
275
+ repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
276
+ if not repo_id:
277
+ return False, "Erreur de configuration: Repository Hugging Face non défini."
278
+
279
+ base_path = _get_user_base_path(user_id)
280
+ metadata_path = _get_user_metadata_path(user_id)
281
+
282
+ initial_metadata = {
283
+ "user_ref": user_id,
284
+ "repos": []
285
+ }
286
+
287
+ try:
288
+ metadata_content = json.dumps(initial_metadata, indent=4).encode('utf-8')
289
+ metadata_file = BytesIO(metadata_content)
290
+
291
+ commit_url = api.upload_file(
292
+ path_or_fileobj=metadata_file,
293
+ path_in_repo=metadata_path,
294
+ repo_id=repo_id,
295
+ repo_type="dataset",
296
+ commit_message=f"Initialisation du dossier et des métadonnées pour l'utilisateur {user_id}"
297
+ )
298
+
299
+ logger.info(f"Dossier HF initialisé pour l'utilisateur {user_id} à {base_path}. Commit: {commit_url}")
300
+ return True, "Dossier et métadonnées HF initialisés."
301
+ except Exception as e:
302
+ logger.error(f"Échec de l'initialisation du dossier HF pour {user_id}: {e}")
303
+ return False, f"Échec de l'initialisation Hugging Face: {str(e)}"
304
+
305
+ def update_user_repo_metadata(
306
+ user_id: str,
307
+ new_repo_data: Dict,
308
+ repo_id: Optional[str] = None
309
+ ) -> tuple[bool, str]:
310
+ """
311
+ Met à jour le fichier metadata.json de l'utilisateur en ajoutant ou remplaçant un dépôt.
312
+ """
313
+ repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
314
+ if not repo_id:
315
+ return False, "Erreur de configuration: Repository Hugging Face non défini."
316
+
317
+ metadata_path = _get_user_metadata_path(user_id)
318
+
319
+ # 1. Charger les métadonnées actuelles ou initialiser si manquant
320
+ current_metadata, message = get_user_repo_metadata(user_id)
321
+
322
+ if current_metadata is None:
323
+ logger.warning(f"Tentative de chargement des métadonnées pour {user_id} échouée: {message}. Tentative d'initialisation.")
324
+ success_init, init_message = initialize_user_hf_folder(user_id)
325
+
326
+ if not success_init:
327
+ return False, f"Impossible de charger OU d'initialiser les métadonnées: {init_message}"
328
+
329
+ # Recharger après initialisation
330
+ current_metadata, _ = get_user_repo_metadata(user_id)
331
+ if current_metadata is None:
332
+ return False, "Impossible de charger ou d'initialiser les métadonnées."
333
+
334
+ # 2. Mettre à jour la liste des dépôts
335
+ repos = current_metadata.get("repos", [])
336
+
337
+ # Remplacer l'entrée existante si le FIELD_DEPLOY_ID correspond (mise à jour ou nouvel ajout)
338
+ deploy_id = new_repo_data.get('FIELD_DEPLOY_ID')
339
+ repos = [repo for repo in repos if repo.get('FIELD_DEPLOY_ID') != deploy_id]
340
+
341
+ repos.append(new_repo_data)
342
+ current_metadata["repos"] = repos
343
+
344
+ # 3. Écrire et téléverser le fichier mis à jour
345
+ try:
346
+ updated_content = json.dumps(current_metadata, indent=4).encode('utf-8')
347
+ updated_file = BytesIO(updated_content)
348
+
349
+ api.upload_file(
350
+ path_or_fileobj=updated_file,
351
+ path_in_repo=metadata_path,
352
+ repo_id=repo_id,
353
+ repo_type="dataset",
354
+ commit_message=f"Mise à jour des métadonnées: Ajout/Modification du dépôt {deploy_id} par l'utilisateur {user_id}"
355
+ )
356
+
357
+ logger.info(f"Métadonnées HF mises à jour pour l'utilisateur {user_id}. Dépôt {deploy_id} ajouté.")
358
+ return True, "Métadonnées du dépôt mises à jour avec succès sur Hugging Face."
359
+
360
+ except Exception as e:
361
+ logger.error(f"Erreur lors de la mise à jour des métadonnées HF pour {user_id}: {e}")
362
+ return False, f"Échec de la mise à jour des métadonnées Hugging Face: {str(e)}"
363
+
364
+
365
+
366
+ def create_empty_repo_folder_on_hf(
367
+ repo_slug: str,
368
+ user_id: str,
369
+ repo_id: Optional[str] = None
370
+ ) -> tuple[bool, str]:
371
+ """
372
+ Crée le sous-dossier du dépôt (user_id/repo_slug/) sur le Dataset Hugging Face
373
+ en y ajoutant un fichier README.md initial.
374
+ """
375
+ repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
376
+ if not repo_id:
377
+ return False, "Erreur de configuration: Repository Hugging Face non défini."
378
+
379
+ readme_content = f"# Dépôt {repo_slug}\n\nBienvenue sur votre dépôt GitForge, hébergé sur Mailix.\n\nCommencez par ajouter ou créer des fichiers."
380
+ path_in_repo = f"{user_id}/{repo_slug}/README.md"
381
+
382
+ try:
383
+ # Utilisation de HfApi.upload_file pour créer un fichier unique, ce qui crée le dossier
384
+ commit_url = api.upload_file(
385
+ path_or_fileobj=readme_content.encode('utf-8'),
386
+ path_in_repo=path_in_repo,
387
+ repo_id=repo_id,
388
+ repo_type="dataset",
389
+ commit_message=f"feat: Initialisation du dépôt '{repo_slug}' pour l'utilisateur {user_id}"
390
+ )
391
+
392
+ logger.info(f"Dépôt initialisé avec succès pour {user_id}/{repo_slug}. Commit: {commit_url}")
393
+ return True, f"Dépôt initialisé avec succès sur Hugging Face. Chemin: {user_id}/{repo_slug}"
394
+
395
+ except Exception as e:
396
+ logger.error(f"Échec de l'initialisation du dépôt HF pour {repo_slug} par {user_id}: {e}")
397
+ return False, f"Échec de l'initialisation Hugging Face: {str(e)}"
398
+
399
+
400
+ def list_repo_files_from_hf(
401
+ repo_slug: str,
402
+ user_id: str,
403
+ repo_id: Optional[str] = None
404
+ ) -> tuple[list[Dict], str]:
405
+ """
406
+ Liste tous les fichiers et dossiers dans le chemin spécifique (user_id/repo_slug)
407
+ du Dataset Hugging Face, incluant le temps écoulé (time_ago).
408
+ """
409
+ repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
410
+ if not repo_id:
411
+ return [], "Erreur de configuration: Repository Hugging Face non défini."
412
+
413
+ # Le chemin dans le repo est 'user_id/repo_slug'
414
+ path_to_repo = f"{user_id}/{repo_slug}"
415
+
416
+ try:
417
+ # Utiliser HfFileSystem pour lister le contenu du dossier
418
+ # 'detail=True' est essentiel pour obtenir 'last_modified'
419
+ items = fs.ls(f"datasets/{repo_id}/{path_to_repo}", detail=True)
420
+
421
+ file_list = []
422
+ for item in items:
423
+ # item est un dictionnaire avec 'name', 'type', 'size', 'last_modified', etc.
424
+ # On ignore le nom du dossier racine pour l'affichage utilisateur
425
+ file_name = item['name'].split('/')[-1]
426
+
427
+ # Ignorer les dossiers et les fichiers système cachés (.DS_Store, .gitattributes, etc.)
428
+ if item['type'] == 'directory' or file_name.startswith('.'):
429
+ # Inclure les dossiers pourrait être une future amélioration
430
+ continue
431
+
432
+ last_modified_datetime = item.get('last_modified', 'N/A')
433
+
434
+ # --- AJOUT DE LA LOGIQUE DE TEMPS ÉCOULÉ ---
435
+ time_ago_string = 'N/A'
436
+ if last_modified_datetime != 'N/A':
437
+ # S'assurer que la chaîne est une date/heure valide avant de la traiter
438
+ try:
439
+ time_ago_string = _format_time_ago(last_modified_datetime)
440
+ except Exception:
441
+ logger.warning(f"Impossible de formater la date/heure: {last_modified_datetime}")
442
+ time_ago_string = 'N/A'
443
+ # --------------------------------------------
444
+
445
+ file_list.append({
446
+ "name": file_name,
447
+ "path": item['name'], # Chemin complet pour référence interne
448
+ "size": item.get('size', 0),
449
+ "type": "file", # Liste seulement les fichiers
450
+ "last_modified": last_modified_datetime, # Conserver la date/heure complète
451
+ "time_ago": time_ago_string # <-- NOUVEAU CHAMP
452
+ })
453
+
454
+ logger.info(f"Liste des fichiers récupérée pour {path_to_repo} ({len(file_list)} fichiers).")
455
+ return file_list, "Liste des fichiers récupérée avec succès."
456
+
457
+ except HfHubHTTPError as e:
458
+ if "404" in str(e):
459
+ # Le dossier n'existe pas encore
460
+ return [], f"Le dépôt '{repo_slug}' n'a pas encore de fichiers sur Hugging Face (404)."
461
+ logger.error(f"Erreur HTTP HF lors de la liste des fichiers pour {path_to_repo}: {e}")
462
+ return [], f"Erreur Hugging Face: {str(e)}"
463
+ except Exception as e:
464
+ logger.error(f"Erreur inconnue lors de la liste des fichiers HF pour {path_to_repo}: {e}")
465
+ return [], f"Erreur inconnue lors de l'accès à Hugging Face: {str(e)}"
466
+
467
+ # Nom du fichier de métadonnées de l'utilisateur dans son dossier principal
468
+ METADATA_FILE_NAME = "user_repo_metadata.json"
469
+
470
+
471
+ def get_file_content_from_hf(
472
+ file_path_in_repo: str,
473
+ repo_id: Optional[str] = None
474
+ ) -> tuple[Optional[str], str]:
475
+ """
476
+ Récupère le contenu brut d'un fichier spécifique depuis Hugging Face.
477
+
478
+ :param file_path_in_repo: Le chemin complet du fichier dans le repo HF,
479
+ incluant user_id/repo_slug/nom_fichier.ext.
480
+ :param repo_id: L'ID du repo HF (Dataset).
481
+ :return: (Contenu du fichier: Optional[str], Message: str)
482
+ """
483
+ repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
484
+ if not repo_id:
485
+ return None, "Erreur de configuration: Repository Hugging Face non défini."
486
+
487
+ hf_file_path = f"datasets/{repo_id}/{file_path_in_repo}"
488
+
489
+ try:
490
+ if not fs.exists(hf_file_path):
491
+ return None, f"Fichier non trouvé sur Hugging Face: {file_path_in_repo}"
492
+
493
+ # Utiliser fs.open pour lire le contenu
494
+ with fs.open(hf_file_path, "rb") as f:
495
+ content = f.read()
496
+
497
+ # Tenter le décodage en UTF-8 pour le contenu texte (ex: README.md)
498
+ return content.decode('utf-8'), "Contenu du fichier chargé avec succès."
499
+
500
+ except HfHubHTTPError as e:
501
+ if "404" in str(e):
502
+ return None, f"Fichier non trouvé sur Hugging Face (404): {file_path_in_repo}"
503
+ logger.error(f"Erreur HTTP HF lors de la lecture de {file_path_in_repo}: {e}")
504
+ return None, f"Erreur Hugging Face: {str(e)}"
505
+ except Exception as e:
506
+ logger.error(f"Erreur inconnue lors de la lecture de {file_path_in_repo}: {e}")
507
+ return None, f"Échec de la lecture du fichier: {str(e)}"
508
+
509
+
510
+ def load_json_file_from_hf(
511
+ file_path: str,
512
+ repo_id: Optional[str] = None
513
+ ) -> tuple[Optional[Dict], str]:
514
+ """
515
+ Charge un fichier JSON spécifique depuis Hugging Face et le décode.
516
+ Utilisé pour charger le fichier prs.json.
517
+ """
518
+ # Si repo_id n'est pas fourni, on assume le repo principal si le chemin le permet,
519
+ # mais il sera plus sûr de le passer explicitement (PULL_REQUESTS_HF_REPO_ID)
520
+ if not repo_id:
521
+ # Dans le contexte des PR, on devrait avoir un repo_id dédié
522
+ return None, "Erreur de configuration: Repository Hugging Face non défini."
523
+
524
+ hf_file_path = f"datasets/{repo_id}/{file_path}"
525
+
526
+ try:
527
+ if not fs.exists(hf_file_path):
528
+ # C'est un cas normal pour un dépôt sans PR encore créé
529
+ return None, f"Fichier JSON non trouvé (normal si première PR): {file_path}"
530
+
531
+ with fs.open(hf_file_path, "rb") as f:
532
+ content = f.read()
533
+
534
+ metadata = json.loads(content.decode('utf-8'))
535
+ return metadata, "Fichier JSON chargé avec succès."
536
+
537
+ except Exception as e:
538
+ logger.error(f"Erreur lors du chargement du JSON HF depuis {hf_file_path}: {e}")
539
+ return None, f"Échec du chargement du JSON: {str(e)}"
540
+
541
+ # Renommage et adaptation de la fonction pour la rendre générique
542
+ def save_file_content_to_hf(
543
+ user_id: str,
544
+ repo_slug: str,
545
+ file_path: str,
546
+ file_content: str, # Le contenu du fichier, peu importe le type (string)
547
+ commit_message: str,
548
+ # repo_id est l'ID du dépôt conteneur global (ex: 'Mindus/Nexus-Data')
549
+ repo_id: Optional[str] = None,
550
+ repo_type: str = "dataset",
551
+ branch: str = "main" # <-- Argument conservé dans la signature de la fonction
552
+ ) -> tuple[bool, str]:
553
+ """
554
+ Crée un nouveau fichier ou met à jour un fichier existant dans un dépôt
555
+ spécifié (user_id/repo_slug) avec le contenu string fourni.
556
+ """
557
+
558
+ if not repo_id:
559
+ # Ceci suppose que HF_DATASET_REPO_ID est défini dans votre configuration globale
560
+ try:
561
+ from config import HF_DATASET_REPO_ID
562
+ repo_id = HF_DATASET_REPO_ID
563
+ except ImportError:
564
+ return False, "Erreur de configuration: Repository Hugging Face non défini."
565
+
566
+ # Construction du chemin complet cible: {user_id}/{repo_slug}/{file_path}
567
+ path_in_repo = f"{user_id}/{repo_slug}/{file_path}"
568
+
569
+ try:
570
+ # 1. Convertir le contenu string en objet BytesIO pour l'API
571
+ updated_content = file_content.encode('utf-8')
572
+ updated_file = BytesIO(updated_content)
573
+
574
+ # 2. Appel de l'API pour commiter le fichier
575
+ # CORRECTION : Le paramètre 'branch' est retiré de l'appel pour compatibilité avec
576
+ # les anciennes versions de la librairie huggingface_hub qui n'ont pas cet argument.
577
+ api.upload_file(
578
+ path_or_fileobj=updated_file,
579
+ path_in_repo=path_in_repo,
580
+ repo_id=repo_id,
581
+ repo_type=repo_type,
582
+ commit_message=commit_message,
583
+ # branch=branch, <-- RETIRÉ
584
+ )
585
+
586
+ logging.info(f"Fichier '{path_in_repo}' commité avec succès sur HF.")
587
+ return True, f"Fichier '{file_path}' sauvegardé avec succès dans le dépôt '{repo_slug}'."
588
+
589
+ except HfHubHTTPError as e:
590
+ logging.error(f"Erreur de l'API HF lors de la sauvegarde de {path_in_repo}: {e}")
591
+ return False, f"Erreur de l'API Hugging Face: {str(e)}"
592
+ except Exception as e:
593
+ logging.error(f"Erreur inattendue lors de la sauvegarde de {path_in_repo}: {e}")
594
+ return False, f"Échec de la sauvegarde: {str(e)}"
595
+
596
+
597
+ def get_diff_between_branches(
598
+ repo_slug: str,
599
+ user_id: str,
600
+ branch_a: str, # Source
601
+ branch_b: str, # Target
602
+ repo_id: Optional[str] = None
603
+ ) -> tuple[Optional[Dict], str]:
604
+ """
605
+ (Placeholder) Calcule le 'diff' entre deux branches d'un dépôt utilisateur.
606
+ Nécessite une fonctionnalité avancée de l'API Hugging Face ou un clonage/diff local.
607
+ """
608
+ # L'API HfHub ne fournit pas de 'diff' simple entre branches.
609
+ # Ceci est un DÉMONSTRATEUR de la signature requise.
610
+
611
+ # Le chemin dans le repo est 'user_id/repo_slug'
612
+ target_repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
613
+
614
+ # TODO: Implémentation réelle pour calculer/récupérer le diff
615
+ # Pour l'instant, on retourne un placeholder.
616
+ return None, f"Fonction de diff non implémentée (simulation requise pour {branch_a} vs {branch_b})."
617
+
618
+
619
+ def check_for_conflicts(
620
+ repo_slug: str,
621
+ user_id: str,
622
+ source_branch: str,
623
+ target_branch: str,
624
+ repo_id: Optional[str] = None
625
+ ) -> tuple[bool, List[str], str]:
626
+ """
627
+ (Placeholder) Simule une fusion pour vérifier les conflits.
628
+ """
629
+ # Mêmes contraintes que get_diff_between_branches.
630
+ # Ceci est un DÉMONSTRATEUR de la signature requise.
631
+
632
+ return True, [], "Vérification de conflit non implémentée. Supposons 'pas de conflit' pour l'ébauche."
633
+
634
+
635
+ def execute_merge_commit(
636
+ repo_slug: str,
637
+ user_id: str,
638
+ source_branch: str,
639
+ target_branch: str,
640
+ message: str,
641
+ committer_id: str,
642
+ repo_id: Optional[str] = None
643
+ ) -> tuple[bool, str]:
644
+ """
645
+ Exécute la fusion de la branche source vers la branche cible en utilisant l'API Hugging Face.
646
+
647
+ :param repo_slug: Le slug du dépôt de l'utilisateur.
648
+ :param user_id: L'ID de l'utilisateur propriétaire.
649
+ :param source_branch: La branche source à fusionner (ex: feature/branch).
650
+ :param target_branch: La branche cible (ex: main).
651
+ :param message: Le message de commit pour la fusion.
652
+ :param committer_id: L'ID de l'utilisateur qui exécute la fusion.
653
+ :param repo_id: L'ID du dépôt HF (Dataset) si différent du principal.
654
+ :return: (Statut de succès: bool, Message: str)
655
+ """
656
+ repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
657
+ if not repo_id:
658
+ return False, "Erreur de configuration: HF_DATASET_REPO_ID manquant."
659
+
660
+ # L'ID complet du dépôt est toujours 'user_id/repo_slug' dans notre structure logique
661
+ target_repo_path = f"{user_id}/{repo_slug}"
662
+
663
+ try:
664
+
665
+
666
+ logger.warning(f"Simulating Git Merge for {target_repo_path}: {source_branch} -> {target_branch}. Requires actual Git implementation or dedicated API endpoint.")
667
+
668
+
669
+ merge_success_msg = f"Fusion Git simulée entre {source_branch} et {target_branch} pour {target_repo_path}."
670
+
671
+ # 2. Nettoyage : Suppression de la branche source (comportement typique après PR merge)
672
+ # Note: Cette étape est optionnelle pour le merge mais typique pour le nettoyage d'une PR.
673
+ api.delete_branch(
674
+ repo_id=target_repo_path,
675
+ repo_type="dataset",
676
+ branch=source_branch
677
+ )
678
+ logger.info(f"Branche source '{source_branch}' supprimée pour le dépôt {target_repo_path}.")
679
+
680
+ return True, f"Fusion simulée et nettoyage réussi. {merge_success_msg}"
681
+
682
+ except HfHubHTTPError as e:
683
+ if "404" in str(e):
684
+ return False, f"Erreur 404: Dépôt ou branche non trouvée sur Hugging Face. {e}"
685
+ # Gérer spécifiquement les conflits si l'API renvoie une erreur pertinente
686
+ elif "conflict" in str(e).lower():
687
+ return False, f"Échec de la fusion : Conflit détecté par le service Hugging Face. {e}"
688
+ return False, f"Erreur API Hugging Face lors de la fusion : {e}"
689
+ except Exception as e:
690
+ logger.error(f"Erreur inattendue lors de l'exécution du merge pour {target_repo_path}: {e}")
691
+ return False, f"Erreur inattendue lors de la fusion : {str(e)}"
692
+
693
+ def commit_file_to_hf(
694
+ repo_slug: str,
695
+ user_id: str,
696
+ file_path: str, # Le chemin du fichier dans le repo de l'utilisateur (ex: 'index.html', 'css/style.css')
697
+ file_content: str,
698
+ commit_message: str,
699
+ repo_type: str = "dataset",
700
+ branch: str = "main" # On simplifie en commitant directement sur main pour l'instant
701
+ ) -> tuple[bool, str]:
702
+ """
703
+ Crée ou met à jour un fichier dans un dépôt Hugging Face avec un message de commit.
704
+
705
+ :param repo_slug: Le nom du dépôt (ex: 'mailix').
706
+ :param user_id: L'ID de l'utilisateur (pour le chemin principal dans le dataset).
707
+ :param file_path: Le chemin relatif du fichier dans le dépôt.
708
+ :param file_content: Le contenu (string) du fichier à enregistrer.
709
+ :param commit_message: Le message de commit.
710
+ :param repo_type: Le type de dépôt (par défaut 'dataset' pour la structure actuelle).
711
+ :param branch: La branche cible (par défaut 'main').
712
+ :return: Un tuple (succès: bool, message: str).
713
+ """
714
+ # Chemin complet du fichier dans le HF Dataset : user_id/repo_slug/file_path
715
+ hf_path = f"{user_id}/{repo_slug}/{file_path}"
716
+
717
+ try:
718
+ # L'API Hub de HF utilise `upload_file` (ou `upload_folder`) pour
719
+ # créer ou remplacer un fichier existant. Nous utilisons BytesIO
720
+ # pour traiter le contenu comme un fichier sans l'écrire sur disque local.
721
+ file_data = BytesIO(file_content.encode('utf-8'))
722
+
723
+ # Le nom du fichier est requis pour HfApi.upload_file.
724
+ # Ici, nous utilisons le nom de la variable `file_path` qui est déjà
725
+ # le chemin complet dans le repo HF pour la fonction
726
+
727
+ api.upload_file(
728
+ path_or_fileobj=file_data, # <-- C'EST LA CORRECTION
729
+ path_in_repo=hf_path, # Chemin complet cible dans le repo HF Dataset
730
+ repo_id=HF_DATASET_REPO_ID, # ID du dataset global qui contient tous les utilisateurs/repos
731
+ repo_type=repo_type,
732
+ commit_message=commit_message,
733
+ branch=branch,
734
+ )
735
+
736
+ logger.info(f"Fichier '{hf_path}' commité avec succès sur HF.")
737
+ return True, f"File '{file_path}' successfully committed."
738
+
739
+ except HfHubHTTPError as e:
740
+ logger.error(f"HF API Error during commit for {hf_path}: {e}")
741
+ return False, f"Hugging Face API Error: Failed to commit file. {e}"
742
+ except Exception as e:
743
+ logger.error(f"Unexpected Error during commit for {hf_path}: {e}")
744
+ return False, f"Unexpected Error: {e}"
745
+
746
+ def delete_file_from_hf_repo(
747
+ repo_slug: str,
748
+ user_id: str,
749
+ file_path: str, # Le chemin relatif du fichier dans le dépôt
750
+ commit_message: str,
751
+ repo_type: str = "dataset",
752
+ branch: str = "main"
753
+ ) -> tuple[bool, str]:
754
+ """
755
+ Supprime un fichier spécifique d'un dépôt Hugging Face.
756
+
757
+ :param repo_slug: Le slug du dépôt.
758
+ :param user_id: L'ID de l'utilisateur.
759
+ :param file_path: Le chemin relatif complet du fichier à supprimer (ex: user_id/repo_slug/fichier.ext).
760
+ :param commit_message: Le message de commit pour la suppression.
761
+ :return: Un tuple (succès: bool, message: str).
762
+ """
763
+ repo_id = HF_DATASET_REPO_ID # S'assurer que la variable globale est accessible
764
+
765
+ if not repo_id:
766
+ # Utiliser `logger.error` ici est une bonne pratique
767
+ logger.error("Erreur de configuration: Repository Hugging Face non défini (HF_DATASET_REPO_ID manquant).")
768
+ return False, "Erreur de configuration: Repository Hugging Face non défini."
769
+
770
+ # --- CORRECTION APPLIQUÉE ---
771
+ # Le chemin 'file_path' (qui provient de votre fonction de listage)
772
+ # est utilisé directement car il contient déjà le préfixe complet nécessaire
773
+ # (par exemple : 'a6ea61c8-951a-413a-ba9d-7365d83fbd4d/github/app.py')
774
+ hf_path = file_path # <-- MODIFICATION CLÉ
775
+ # Si le frontend n'envoyait que 'app.py' ou le chemin relatif AU SEIN du repo,
776
+ # L'ancienne ligne (f"{user_id}/{repo_slug}/{file_path}") aurait été correcte.
777
+ # Mais dans votre cas, 'file_path' est déjà le chemin complet.
778
+
779
+ try:
780
+ # L'API HfHub utilise 'delete_file' pour supprimer un fichier.
781
+ api.delete_file(
782
+ path_in_repo=hf_path, # Chemin complet du fichier cible
783
+ repo_id=repo_id, # ID du dataset global (ernestmindres/ernestmind_user_data)
784
+ repo_type=repo_type,
785
+ commit_message=commit_message,
786
+ # branch=branch, # Peut être laissé pour plus de robustesse si la branche n'est pas 'main'
787
+ )
788
+
789
+ logger.info(f"Fichier '{hf_path}' supprimé avec succès sur HF.")
790
+ return True, f"File '{file_path}' successfully deleted from repository '{repo_slug}'."
791
+
792
+ except HfHubHTTPError as e:
793
+ # Gérer le cas où le fichier n'existe pas (404) ou autre erreur d'API
794
+ logger.error(f"HF API Error during file deletion for {hf_path}: {e}")
795
+ # Renvoyer l'erreur spécifique de Hugging Face au client
796
+ return False, f"Hugging Face API Error: Failed to delete file. {e}"
797
+ except Exception as e:
798
+ logger.error(f"Unexpected Error during file deletion for {hf_path}: {e}")
799
+ return False, f"Unexpected Error: {e}"
800
+
801
+
802
+ def save_application_json_to_hf(application_data: Dict, application_id: str, commit_message: Optional[str] = None) -> (bool, str):
803
+ """
804
+ Sauvegarde les données d'application JSON dans le dépôt HF (IMAGE_STORAGE_HF_REPO_ID).
805
+ Structure du chemin : json_applications/{application_id}.json
806
+ """
807
+ if not IMAGE_STORAGE_HF_REPO_ID:
808
+ return False, "IMAGE_STORAGE_HF_REPO_ID n'est pas configuré. Veuillez vérifier config.py et les variables d'environnement."
809
+
810
+ repo_id = IMAGE_STORAGE_HF_REPO_ID
811
+ # Chemin complet dans le dépôt
812
+ hf_path = f"json_applications/{application_id}.json"
813
+
814
+ # Convertir les données en JSON string
815
+ # ensure_ascii=False permet de gérer correctement les caractères français (accents)
816
+ json_content = json.dumps(application_data, indent=4, ensure_ascii=False)
817
+
818
+ commit_message = commit_message or f"Ajout des données de candidature: {application_id}"
819
+
820
+ try:
821
+ # Utiliser 'upload_file' avec 'data' (contenu bytes ou string)
822
+ api.upload_file(
823
+ path_in_repo=hf_path,
824
+ path_or_fileobj=json_content.encode('utf-8'), # L'encodage est crucial pour les données
825
+ repo_id=repo_id,
826
+ repo_type="dataset",
827
+ commit_message=commit_message,
828
+ )
829
+
830
+ logger.info(f"Fichier JSON '{hf_path}' sauvegardé avec succès sur HF dans {repo_id}.")
831
+ return True, f"Données d'application '{application_id}' sauvegardées avec succès."
832
+
833
+ except HfHubHTTPError as e:
834
+ logger.error(f"Erreur API HF lors de la sauvegarde du JSON: {e}")
835
+ return False, f"Erreur lors de la sauvegarde du JSON: {str(e)}"
836
+ except Exception as e:
837
+ logger.error(f"Erreur inattendue lors de la sauvegarde du JSON: {e}")
838
+ return False, f"Erreur inattendue: {str(e)}"
839
+
840
+
841
+ def upload_application_document_to_hf(file_storage_obj: FileStorage, application_id: str, file_extension: str, commit_message: Optional[str] = None) -> (bool, str):
842
+ """
843
+ Téléverse un fichier PDF/DOCX dans le dépôt HF dédié au stockage (IMAGE_STORAGE_HF_REPO_ID).
844
+ Structure du chemin : document_applications/{application_id}{file_extension}
845
+ """
846
+ if not IMAGE_STORAGE_HF_REPO_ID:
847
+ return False, "IMAGE_STORAGE_HF_REPO_ID n'est pas configuré. Veuillez vérifier config.py et les variables d'environnement."
848
+
849
+ repo_id = IMAGE_STORAGE_HF_REPO_ID
850
+ # Chemin complet dans le dépôt
851
+ hf_path = f"document_applications/{application_id}{file_extension}"
852
+
853
+ commit_message = commit_message or f"Téléversement du document de candidature: {application_id}{file_extension}"
854
+ temp_file_path = None # Initialisation pour le nettoyage
855
+
856
+ try:
857
+ # 1. Créer un chemin temporaire pour le fichier
858
+ # TEMP_UPLOAD_DIR est supposé être défini (ex: "/tmp/hf_uploads")
859
+ os.makedirs(TEMP_UPLOAD_DIR, exist_ok=True)
860
+ # Utilisation d'un UUID pour s'assurer que le nom du fichier temporaire est unique
861
+ temp_file_path = os.path.join(TEMP_UPLOAD_DIR, f"temp_{application_id}_{uuid.uuid4()}{file_extension}")
862
+
863
+ # 2. Sauvegarder l'objet FileStorage sur le disque
864
+ file_storage_obj.save(temp_file_path)
865
+
866
+ # 3. Téléverser le fichier depuis le chemin temporaire
867
+ api.upload_file(
868
+ path_in_repo=hf_path,
869
+ path_or_fileobj=temp_file_path,
870
+ repo_id=repo_id,
871
+ repo_type="dataset",
872
+ commit_message=commit_message,
873
+ )
874
+
875
+ # 4. Nettoyer le fichier temporaire
876
+ if os.path.exists(temp_file_path):
877
+ os.remove(temp_file_path)
878
+
879
+ logger.info(f"Fichier '{hf_path}' téléversé avec succès sur HF dans {repo_id}.")
880
+ return True, f"Document d'application '{file_storage_obj.filename}' téléversé avec succès."
881
+
882
+ except HfHubHTTPError as e:
883
+ logger.error(f"Erreur API HF lors du téléversement du document: {e}")
884
+ return False, f"Erreur lors du téléversement du document: {str(e)}"
885
+ except Exception as e:
886
+ logger.error(f"Erreur inattendue lors du téléversement du document: {e}")
887
+ return False, f"Erreur inattendue: {str(e)}"
888
+ finally:
889
+ # Nettoyage final en cas d'erreur ou de succès
890
+ if temp_file_path and os.path.exists(temp_file_path):
891
+ os.remove(temp_file_path)
892
+
893
+
894
+ def delete_repo_folder_from_hf(
895
+ repo_slug: str,
896
+ user_id: str,
897
+ deploy_id: str, # L'identifiant unique utilisé dans metadata.json
898
+ commit_message: Optional[str] = None,
899
+ repo_id: Optional[str] = None
900
+ ) -> tuple[bool, str]:
901
+ """
902
+ Supprime récursivement un dossier de dépôt complet (user_id/repo_slug) sur Hugging Face
903
+ et met à jour le fichier metadata.json de l'utilisateur.
904
+
905
+ :param repo_slug: Le slug du dépôt à supprimer.
906
+ :param user_id: L'ID de l'utilisateur propriétaire.
907
+ :param deploy_id: L'ID utilisé pour identifier le dépôt dans les métadonnées.
908
+ :return: (Statut de succès: bool, Message: str)
909
+ """
910
+ repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
911
+ if not repo_id:
912
+ return False, "Erreur de configuration: HF_DATASET_REPO_ID manquant."
913
+
914
+ path_in_repo = f"{user_id}/{repo_slug}"
915
+ commit_msg = commit_message or f"Suppression du dépôt complet '{repo_slug}' et du dossier '{path_in_repo}'"
916
+
917
+ try:
918
+ # 1. Suppression du dossier sur Hugging Face (suppression récursive)
919
+ # Note: L'API HfApi ne fournit pas de 'delete_folder' direct qui commite.
920
+ # On peut utiliser delete_repo, mais si c'est un sous-dossier, l'approche 'git-like'
921
+ # consiste à utiliser 'upload_folder' avec une liste de fichiers vides ou
922
+ # une autre méthode de suppression de sous-dossier.
923
+ # La meilleure façon de supprimer un dossier *dans un dataset existant* est
924
+ # d'utiliser api.delete_folder (si disponible) ou d'utiliser une solution de contournement.
925
+
926
+ # En utilisant HfApi, la méthode la plus fiable est delete_folder
927
+ api.delete_folder(
928
+ path_in_repo=path_in_repo,
929
+ repo_id=repo_id,
930
+ repo_type="dataset",
931
+ commit_message=commit_msg,
932
+ )
933
+
934
+ logger.info(f"Dossier HF '{path_in_repo}' supprimé avec succès.")
935
+
936
+ # 2. Mise à jour des métadonnées de l'utilisateur
937
+ current_metadata, msg = get_user_repo_metadata(user_id, repo_id=repo_id)
938
+ if current_metadata:
939
+ repos = current_metadata.get("repos", [])
940
+
941
+ # Filtrer le dépôt supprimé
942
+ new_repos = [repo for repo in repos if repo.get('FIELD_DEPLOY_ID') != deploy_id]
943
+ current_metadata["repos"] = new_repos
944
+
945
+ # Commiter la mise à jour des métadonnées
946
+ metadata_path = _get_user_metadata_path(user_id)
947
+ save_success, save_msg = save_json_file_to_hf(
948
+ file_path=metadata_path,
949
+ data=current_metadata,
950
+ commit_message=f"Nettoyage des métadonnées après suppression de dépôt {deploy_id}.",
951
+ repo_id=repo_id
952
+ )
953
+
954
+ if not save_success:
955
+ logger.error(f"Échec de la mise à jour des métadonnées après suppression de {repo_slug}: {save_msg}")
956
+ # Le dossier est supprimé, mais les métadonnées ne le sont pas (erreur partielle)
957
+ return False, f"Dépôt supprimé, mais échec de la mise à jour des métadonnées: {save_msg}"
958
+
959
+ else:
960
+ logger.warning(f"Métadonnées utilisateur {user_id} non trouvées ou inaccessibles après suppression du dépôt. Nettoyage des métadonnées ignoré.")
961
+
962
+ return True, f"Dépôt '{repo_slug}' et ses fichiers supprimés avec succès. Métadonnées mises à jour."
963
+
964
+ except HfHubHTTPError as e:
965
+ if "404" in str(e):
966
+ logger.warning(f"Tentative de suppression d'un dépôt non existant : {path_in_repo}. Passage au nettoyage des métadonnées.")
967
+ # Si le dossier n'existe pas, on procède quand même au nettoyage des métadonnées
968
+ # 2. Mise à jour des métadonnées de l'utilisateur (logique du 404)
969
+ current_metadata, msg = get_user_repo_metadata(user_id, repo_id=repo_id)
970
+ if current_metadata:
971
+ repos = current_metadata.get("repos", [])
972
+ new_repos = [repo for repo in repos if repo.get('FIELD_DEPLOY_ID') != deploy_id]
973
+ current_metadata["repos"] = new_repos
974
+
975
+ metadata_path = _get_user_metadata_path(user_id)
976
+ save_success, save_msg = save_json_file_to_hf(
977
+ file_path=metadata_path,
978
+ data=current_metadata,
979
+ commit_message=f"Nettoyage des métadonnées après suppression du dépôt non trouvé {deploy_id}.",
980
+ repo_id=repo_id
981
+ )
982
+ if save_success:
983
+ return True, f"Le dépôt '{repo_slug}' n'existait pas, mais les métadonnées ont été nettoyées avec succès."
984
+ else:
985
+ return False, f"Le dépôt n'existait pas, mais échec de la mise à jour des métadonnées: {save_msg}"
986
+
987
+ return True, f"Le dépôt '{repo_slug}' n'existait pas et a été traité."
988
+
989
+ logger.error(f"Erreur API Hugging Face lors de la suppression de {path_in_repo}: {e}")
990
+ return False, f"Échec de la suppression Hugging Face: {str(e)}"
991
+ except Exception as e:
992
+ logger.error(f"Erreur inattendue lors de la suppression de {path_in_repo}: {e}")
993
+ return False, f"Erreur interne lors de la suppression du dépôt : {str(e)}"
994
+
995
+ def update_repo_secrets_or_variables(
996
+ user_id: str,
997
+ repo_slug: str,
998
+ item_type: str, # 'secret' ou 'variable'
999
+ name: str,
1000
+ value: str, # 'valeur'
1001
+ description: Optional[str] = None
1002
+ ) -> tuple[bool, str]:
1003
+ """
1004
+ Charge, met à jour (ajoute/remplace) un secret ou une variable, et sauvegarde le fichier JSON sur Hugging Face.
1005
+ """
1006
+ if item_type not in ['secret', 'variable']:
1007
+ return False, "Type d'élément non valide. Doit être 'secret' ou 'variable'."
1008
+
1009
+ is_secret = (item_type == 'secret')
1010
+
1011
+ if is_secret:
1012
+ file_path = _get_repo_secrets_path(user_id, repo_slug)
1013
+ commit_message = f"Mise à jour du secret '{name}' pour le dépôt '{repo_slug}'."
1014
+ else:
1015
+ file_path = _get_repo_variables_path(user_id, repo_slug)
1016
+ commit_message = f"Mise à jour de la variable '{name}' pour le dépôt '{repo_slug}'."
1017
+
1018
+ # 2. Charger les données actuelles
1019
+ current_data, load_message = load_json_file_from_hf(
1020
+ file_path=file_path,
1021
+ repo_id=HF_DATASET_REPO_ID # Assumer le repo principal
1022
+ )
1023
+
1024
+ # --- CORRECTION pour assurer la structure {"items": []} ---
1025
+ if current_data is None:
1026
+ if "non trouvé" in load_message:
1027
+ current_data = {"items": []}
1028
+ else:
1029
+ return False, f"Échec du chargement des données existantes: {load_message}"
1030
+
1031
+ # Si le fichier existe mais n'est pas un dictionnaire, ou s'il manque la clé 'items'
1032
+ if not isinstance(current_data, dict) or "items" not in current_data or not isinstance(current_data["items"], list):
1033
+ # Ceci résout le problème de la perte des secrets/variables existantes.
1034
+ # Si le fichier est chargé mais mal formaté (par exemple une liste ou un autre dict),
1035
+ # on réinitialise la structure pour éviter la perte de données à la sauvegarde.
1036
+ logger.warning(f"Le fichier {file_path} est dans un format inattendu. Réinitialisation de la liste des items.")
1037
+ current_data = {"items": []}
1038
+ # -------------------------------------------------------------
1039
+
1040
+ # 3. Préparer le nouvel élément (Aucun changement)
1041
+ new_item = {
1042
+ "name": name,
1043
+ "description": description if description is not None else "",
1044
+ "value": value,
1045
+ "last_updated": datetime.utcnow().isoformat()
1046
+ }
1047
+
1048
+ # 4. Mettre à jour la liste (remplacement par nom - La logique est CORRECTE)
1049
+ items_list = current_data.get("items", []) # Maintenant items_list est garantie d'être la liste des éléments existants
1050
+
1051
+ # Filtre les éléments existants pour supprimer celui portant le même nom (Update)
1052
+ items_list = [item for item in items_list if item.get('name') != name]
1053
+
1054
+ # Ajoute le nouvel élément ou l'élément mis à jour (Create/Update)
1055
+ items_list.append(new_item)
1056
+ current_data["items"] = items_list
1057
+
1058
+ # 5. Sauvegarder le fichier mis à jour (Aucun changement)
1059
+ success, save_message = save_json_file_to_hf(
1060
+ file_path=file_path,
1061
+ data=current_data,
1062
+ commit_message=commit_message,
1063
+ repo_id=HF_DATASET_REPO_ID
1064
+ )
1065
+
1066
+ if success:
1067
+ logger.info(f"Le {item_type} '{name}' a été mis à jour avec succès pour le dépôt '{repo_slug}'.")
1068
+ return True, f"Le {item_type} '{name}' a été mis à jour avec succès pour le dépôt '{repo_slug}'."
1069
+ else:
1070
+ return False, f"Échec de la sauvegarde du {item_type} : {save_message}"
1071
+
1072
+ # --- Nouvelle Fonction pour récupérer les Secrets ou Variables ---
1073
+
1074
+ def get_repo_secrets_or_variables(
1075
+ user_id: str,
1076
+ repo_slug: str,
1077
+ item_type: str # 'secret' ou 'variable'
1078
+ ) -> tuple[List[Dict], str]:
1079
+ """
1080
+ Charge et retourne la liste des secrets ou variables pour un dépôt spécifique.
1081
+ La valeur des secrets est masquée pour la sécurité.
1082
+ """
1083
+ if item_type not in ['secret', 'variable']:
1084
+ return [], "Type d'élément non valide. Doit être 'secret' ou 'variable'."
1085
+
1086
+ is_secret = (item_type == 'secret')
1087
+
1088
+ if is_secret:
1089
+ file_path = _get_repo_secrets_path(user_id, repo_slug)
1090
+ else:
1091
+ file_path = _get_repo_variables_path(user_id, repo_slug)
1092
+
1093
+ current_data, load_message = load_json_file_from_hf(
1094
+ file_path=file_path,
1095
+ repo_id=HF_DATASET_REPO_ID
1096
+ )
1097
+
1098
+ if current_data is None:
1099
+ if "non trouvé" in load_message:
1100
+ return [], f"Aucun {item_type} trouvé pour le dépôt '{repo_slug}'."
1101
+ else:
1102
+ logger.error(f"Erreur inattendue lors du chargement des {item_type}s : {load_message}")
1103
+ return [], f"Échec du chargement des {item_type}s : {load_message}"
1104
+
1105
+ items_list = current_data.get("items", [])
1106
+
1107
+ if is_secret:
1108
+ # Masquer la valeur des secrets
1109
+ sanitized_list = []
1110
+ for item in items_list:
1111
+ sanitized_item = item.copy()
1112
+ sanitized_item['value'] = '***SECRET_VALUE_HIDDEN***'
1113
+ sanitized_list.append(sanitized_item)
1114
+
1115
+ logger.info(f"{len(sanitized_list)} secrets chargés avec succès pour {repo_slug} (valeurs masquées).")
1116
+ return sanitized_list, f"{len(sanitized_list)} secrets chargés avec succès (valeurs masquées)."
1117
+ else:
1118
+ logger.info(f"{len(items_list)} variables chargées avec succès pour {repo_slug}.")
1119
+ return items_list, f"{len(items_list)} variables chargées avec succès."
1120
+
1121
+ # --- Nouvelle fonction pour la suppression (DELETE) ---
1122
+ def delete_repo_secret_or_variable(
1123
+ user_id: str,
1124
+ repo_slug: str,
1125
+ item_type: str, # 'secret' ou 'variable'
1126
+ name: str,
1127
+ ) -> tuple[bool, str]:
1128
+ """
1129
+ Charge, supprime un secret ou une variable par son nom, et sauvegarde le fichier JSON sur Hugging Face.
1130
+ """
1131
+ if item_type not in ['secret', 'variable']:
1132
+ return False, "Type d'élément non valide. Doit être 'secret' ou 'variable'."
1133
+
1134
+ is_secret = (item_type == 'secret')
1135
+
1136
+ if is_secret:
1137
+ file_path = _get_repo_secrets_path(user_id, repo_slug)
1138
+ commit_message = f"Suppression du secret '{name}' pour le dépôt '{repo_slug}'."
1139
+ else:
1140
+ file_path = _get_repo_variables_path(user_id, repo_slug)
1141
+ commit_message = f"Suppression de la variable '{name}' pour le dépôt '{repo_slug}'."
1142
+
1143
+ # 1. Charger les données actuelles
1144
+ current_data, load_message = load_json_file_from_hf(file_path=file_path, repo_id=HF_DATASET_REPO_ID)
1145
+
1146
+ if current_data is None or "items" not in current_data:
1147
+ # Si le fichier n'existe pas ou est vide, l'élément n'existe pas de toute façon.
1148
+ return True, f"Le {item_type} '{name}' a déjà été supprimé ou n'existe pas."
1149
+
1150
+ items_list = current_data.get("items", [])
1151
+
1152
+ # 2. Filtrer la liste pour EXCLURE l'élément à supprimer
1153
+ # On garde tous les éléments SAUF celui qui a le nom correspondant.
1154
+ new_items_list = [item for item in items_list if item.get('name') != name]
1155
+
1156
+ # Vérifier si quelque chose a été réellement supprimé
1157
+ if len(new_items_list) == len(items_list):
1158
+ return False, f"Le {item_type} '{name}' n'a pas été trouvé ou n'a pas pu être supprimé."
1159
+
1160
+ current_data["items"] = new_items_list
1161
+
1162
+ # 3. Sauvegarder la nouvelle liste
1163
+ success, save_message = save_json_file_to_hf(
1164
+ file_path=file_path,
1165
+ data=current_data,
1166
+ commit_message=commit_message,
1167
+ repo_id=HF_DATASET_REPO_ID
1168
+ )
1169
+
1170
+ if success:
1171
+ return True, f"Le {item_type} '{name}' a été supprimé avec succès pour le dépôt '{repo_slug}'."
1172
+ else:
1173
+ return False, f"Échec de la sauvegarde après suppression : {save_message}"
1174
+
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/huggingface_storage.py ADDED
@@ -0,0 +1,140 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # huggingface_storage.py
2
+
3
+ from werkzeug.datastructures import FileStorage # NÉCESSAIRE pour typer le paramètre 'files'
4
+ import os
5
+ import shutil
6
+ import logging
7
+ import json # <--- NOUVEL IMPORT
8
+ from huggingface_hub import HfApi, HfFileSystem
9
+ from huggingface_hub.utils import HfHubHTTPError
10
+ from typing import Optional, Dict, List
11
+ from io import BytesIO
12
+ from config import HF_DATASET_REPO_ID # <--- S'assurer que ceci est importé
13
+
14
+ logger = logging.getLogger(__name__)
15
+
16
+ # --- Configuration Hugging Face ---
17
+ HF_DATASET_REPO_ID = os.environ.get("HF_DATASET_REPO_ID")
18
+ api = HfApi()
19
+ fs = HfFileSystem()
20
+
21
+ # --- Constantes pour le stockage utilisateur ---
22
+ METADATA_FILE_NAME = "metadata.json"
23
+
24
+ TEMP_UPLOAD_DIR = "/tmp/hf_uploads" # <-- AJOUTER/DÉPLACER ICI
25
+
26
+ def delete_project_folder_from_hf(
27
+ deploy_id: str,
28
+ repo_id: Optional[str] = None
29
+ ) -> tuple[bool, str]:
30
+ """
31
+ Supprime un dossier (projet utilisateur) complet du Dataset Hugging Face.
32
+ """
33
+ repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
34
+
35
+ if not repo_id:
36
+ return False, "Erreur de configuration: Repository Hugging Face non défini."
37
+
38
+ try:
39
+ # delete_folder crée une seule commit pour la suppression du dossier.
40
+ commit_url = api.delete_folder(
41
+ path_in_repo=deploy_id,
42
+ repo_id=repo_id,
43
+ repo_type="dataset",
44
+ commit_message=f"Suppression du projet utilisateur ID: {deploy_id}"
45
+ )
46
+
47
+ logger.info(f"Suppression réussie du projet {deploy_id}. URL de commit: {commit_url}")
48
+ return True, "Dossier de projet supprimé avec succès de Hugging Face."
49
+
50
+ except Exception as e:
51
+ logger.error(f"Erreur inconnue lors de la suppression HF pour {deploy_id}: {e}")
52
+ # Si le dossier est déjà supprimé, HfHubHTTPError 404 est levée par delete_folder
53
+ if "404" in str(e):
54
+ return True, "Dossier non trouvé sur Hugging Face (déjà supprimé ou ID invalide)."
55
+ return False, f"Échec de la suppression Hugging Face: {str(e)}"
56
+
57
+ def get_project_files_from_hf(
58
+ deploy_id: str,
59
+ local_target_path: str,
60
+ repo_id: Optional[str] = None
61
+ ) -> tuple[bool, str]:
62
+ """
63
+ Télécharge le dossier d'un projet depuis Hugging Face vers un dossier local.
64
+ """
65
+ repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
66
+
67
+ if not repo_id:
68
+ return False, "Erreur de configuration: Repository Hugging Face non défini."
69
+
70
+ try:
71
+ # Créer le dossier cible local
72
+ if os.path.exists(local_target_path):
73
+ shutil.rmtree(local_target_path)
74
+ os.makedirs(local_target_path, exist_ok=True)
75
+
76
+ # Chemin complet vers le dossier du projet dans le dépôt Hugging Face
77
+ hf_folder_path = f"datasets/{repo_id}/{deploy_id}"
78
+
79
+ if not fs.isdir(hf_folder_path):
80
+ return False, f"Projet non trouvé sur Hugging Face: {deploy_id}"
81
+
82
+ # Télécharger récursivement le dossier du projet
83
+ # fs.get(chemin_distant, chemin_local)
84
+ fs.get(hf_folder_path, local_target_path, recursive=True)
85
+
86
+ logger.info(f"Téléchargement réussi du projet {deploy_id} vers {local_target_path}.")
87
+ return True, "Dossier de projet téléchargé avec succès."
88
+
89
+ except Exception as e:
90
+ logger.error(f"Erreur lors du téléchargement HF pour {deploy_id}: {e}")
91
+ return False, f"Échec du téléchargement Hugging Face: {str(e)}"
92
+
93
+
94
+ def upload_project_folder_to_hf(
95
+ local_folder_path: str,
96
+ deploy_id: str,
97
+ repo_id: Optional[str] = None
98
+ ) -> tuple[bool, str, Optional[str]]:
99
+ """
100
+ Téléverse un dossier local (le projet utilisateur) vers un dossier spécifique
101
+ dans le Dataset Hugging Face, en une seule commit, en utilisant deploy_id comme path_in_repo.
102
+ """
103
+ repo_id = repo_id if repo_id else HF_DATASET_REPO_ID
104
+
105
+ if not repo_id:
106
+ return False, "Erreur de configuration: Repository Hugging Face non défini (HF_DATASET_REPO_ID manquant).", None
107
+
108
+ try:
109
+ if not os.path.isdir(local_folder_path):
110
+ return False, f"Erreur: Le dossier local pour le déploiement ID '{deploy_id}' est introuvable.", None
111
+
112
+ # path_in_repo est le chemin où les fichiers seront stockés dans le repo (le dossier du projet)
113
+ hf_folder_path = f"{deploy_id}"
114
+
115
+ logger.info(f"Début du téléversement de {local_folder_path} vers HF repo: {repo_id}/{hf_folder_path}")
116
+
117
+ api.upload_folder(
118
+ folder_path=local_folder_path,
119
+ repo_id=repo_id,
120
+ path_in_repo=hf_folder_path,
121
+ repo_type="dataset",
122
+ commit_message=f"Ajout du site web statique pour le projet ID: {deploy_id}",
123
+ # CORRECTION: Suppression de l'argument 'delete_old_files'
124
+ # (Le comportement par défaut de l'API moderne est de ne pas le supprimer sauf si explicitement listé)
125
+ )
126
+
127
+ full_repo_path = f"https://huggingface.co/datasets/{repo_id}/tree/main/{deploy_id}"
128
+ logger.info(f"Téléversement HF réussi pour le projet {deploy_id}.")
129
+
130
+ return True, "Téléversement vers Hugging Face réussi.", full_repo_path
131
+
132
+ except HfHubHTTPError as e:
133
+ error_message = f"Erreur API Hugging Face (vérifiez votre jeton d'API et les permissions): {e.response.text}"
134
+ logger.error(error_message)
135
+ return False, error_message, None
136
+ except Exception as e:
137
+ logger.error(f"Erreur lors du téléchargement HF pour {deploy_id}: {e}")
138
+ return False, f"Échec du téléchargement Hugging Face: {str(e)}", None
139
+
140
+
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/issue_routes.py ADDED
@@ -0,0 +1,214 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # issue_routes.py
2
+
3
+ from flask import Blueprint, request, jsonify, session
4
+ from decorators import api_session_required
5
+ from typing import List, Dict, Any
6
+ import logging
7
+
8
+ # Importation des fonctions du backend Issues
9
+ from issues_backend import (
10
+ create_issue,
11
+ load_all_issues_from_hf,
12
+ get_issue_by_id,
13
+ update_issue,
14
+ add_comment_to_issue,
15
+ load_all_user_issues
16
+ )
17
+
18
+
19
+
20
+ logger = logging.getLogger(__name__)
21
+
22
+ # Création du Blueprint 'issue_bp'
23
+ issue_bp = Blueprint('issue_bp', __name__)
24
+
25
+ # ----------------------------------------------------------------------
26
+ # ENDPOINTS API POUR LES ISSUES
27
+ # ----------------------------------------------------------------------
28
+
29
+ @issue_bp.route("/api/issue/create", methods=["POST"])
30
+ @api_session_required
31
+ def create_issue_route(client_user: Dict):
32
+ """
33
+ Route (POST) : Créer une nouvelle Issue.
34
+ """
35
+ user_id = str(client_user['user_id']) # ID du propriétaire du dépôt
36
+ data = request.get_json()
37
+
38
+ repo_slug = data.get("repo_slug")
39
+ title = data.get("title")
40
+ description = data.get("description", "")
41
+ creator_id = str(client_user.get('uuid')) # ID de l'utilisateur connecté (créateur)
42
+ assigned_to = data.get("assigned_to")
43
+ labels = data.get("labels")
44
+
45
+ if not all([repo_slug, title]):
46
+ return jsonify({
47
+ "success": False,
48
+ "message": "Données manquantes : repo_slug et title sont requis."
49
+ }), 400
50
+
51
+ issue_id, message = create_issue(
52
+ repo_slug=repo_slug,
53
+ user_id=user_id,
54
+ title=title,
55
+ description=description,
56
+ creator_id=creator_id,
57
+ assigned_to=assigned_to,
58
+ labels=labels
59
+ )
60
+
61
+ if issue_id:
62
+ return jsonify({
63
+ "success": True,
64
+ "message": message,
65
+ "issue_id": issue_id
66
+ }), 201
67
+ else:
68
+ return jsonify({
69
+ "success": False,
70
+ "message": message
71
+ }), 500
72
+
73
+
74
+ @issue_bp.route("/api/issue/list/<repo_slug>", methods=["GET"])
75
+ @api_session_required
76
+ def list_issues_route(client_user: Dict, repo_slug: str):
77
+ """
78
+ Route (GET) : Lister toutes les Issues pour un dépôt donné.
79
+ """
80
+ user_id = str(client_user['user_id'])
81
+ issue_list: List[Dict] = load_all_issues_from_hf(repo_slug, user_id)
82
+
83
+ status_filter = request.args.get('status', 'all').lower()
84
+ if status_filter != 'all':
85
+ issue_list = [issue for issue in issue_list if issue.get('status', '').lower() == status_filter]
86
+
87
+ return jsonify({
88
+ "success": True,
89
+ "data": issue_list,
90
+ "count": len(issue_list)
91
+ }), 200
92
+
93
+
94
+ @issue_bp.route("/api/issue/detail/<repo_slug>/<issue_id>", methods=["GET"])
95
+ @api_session_required
96
+ def get_issue_details_route(client_user: Dict, repo_slug: str, issue_id: str):
97
+ """
98
+ Route (GET) : Récupérer les détails d'une Issue spécifique par son ID.
99
+ """
100
+ user_id = str(client_user['user_id'])
101
+ issue = get_issue_by_id(issue_id, repo_slug, user_id)
102
+
103
+ if issue:
104
+ return jsonify({"success": True, "data": issue}), 200
105
+ else:
106
+ return jsonify({"success": False, "message": f"Issue ID {issue_id} non trouvée dans le dépôt {repo_slug}."}), 404
107
+
108
+
109
+ @issue_bp.route("/api/issue/update/<repo_slug>/<issue_id>", methods=["PUT"])
110
+ @api_session_required
111
+ def update_issue_route(client_user: Dict, repo_slug: str, issue_id: str):
112
+ """
113
+ Route (PUT) : Mettre à jour des champs spécifiques (statut, titre, assignation, etc.) d'une Issue.
114
+ """
115
+ user_id = str(client_user['user_id'])
116
+ updates = request.get_json()
117
+
118
+ if not updates:
119
+ return jsonify({"success": False, "message": "Aucune donnée de mise à jour fournie."}), 400
120
+
121
+ success, message = update_issue(issue_id, repo_slug, user_id, updates)
122
+
123
+ if success:
124
+ return jsonify({"success": True, "message": message}), 200
125
+ else:
126
+ return jsonify({"success": False, "message": message}), 404
127
+
128
+
129
+ @issue_bp.route("/api/issue/comment/<repo_slug>/<issue_id>", methods=["POST"])
130
+ @api_session_required
131
+ def add_comment_route(client_user: Dict, repo_slug: str, issue_id: str):
132
+ """
133
+ Route (POST) : Ajouter un commentaire à une Issue.
134
+ """
135
+ user_id = str(client_user['user_id']) # ID du propriétaire du dépôt (pour l'accès au fichier)
136
+ commenter_id = str(client_user.get('uuid')) # ID de l'utilisateur connecté (commentateur)
137
+ data = request.get_json()
138
+ comment_content = data.get("content")
139
+
140
+ if not comment_content:
141
+ return jsonify({"success": False, "message": "Le contenu du commentaire est requis."}), 400
142
+
143
+ success, message = add_comment_to_issue(
144
+ issue_id=issue_id,
145
+ repo_slug=repo_slug,
146
+ user_id=user_id,
147
+ comment_content=comment_content,
148
+ commenter_id=commenter_id
149
+ )
150
+
151
+ if success:
152
+ return jsonify({"success": True, "message": message}), 201
153
+ else:
154
+ return jsonify({"success": False, "message": message}), 404
155
+
156
+
157
+ @issue_bp.route("/api/issue/list_active_for_user", methods=["GET"])
158
+ @api_session_required
159
+ def list_active_issues_for_user_route(client_user: Dict):
160
+ """
161
+ Route (GET) : Récupérer tous les Issues actifs pour l'utilisateur
162
+ à travers tous ses dépôts (pour le dashboard).
163
+ """
164
+ user_id = str(client_user['user_id'])
165
+
166
+ try:
167
+ # 1. Charger TOUTES les Issues de l'utilisateur (de tous les dépôts)
168
+ all_issues_list = load_all_user_issues(user_id)
169
+
170
+ # 2. Filtrer seulement les Issues ouvertes (Open) pour le tableau de bord
171
+ active_issues = [issue for issue in all_issues_list if issue.get('status') == 'Open']
172
+
173
+ except Exception as e:
174
+ logger.error(f"Erreur lors du chargement des Issues du dashboard pour l'utilisateur {user_id} : {e}")
175
+ return jsonify({"success": False, "message": "Erreur interne lors du chargement des Issues."}), 500
176
+
177
+
178
+ # 3. Retourne la liste consolidée des Issues actives au format JSON
179
+ return jsonify({
180
+ "success": True,
181
+ "pull_requests": active_issues # Note: Le nom de la clé a été laissé 'pull_requests' pour la cohérence avec pr_routes.py
182
+ }), 200
183
+
184
+ @issue_bp.route("/api/issue/list_by_repo", methods=["GET"])
185
+ @api_session_required
186
+ def list_issues_by_repo_route(client_user: Dict):
187
+
188
+ user_id = str(client_user['user_id'])
189
+
190
+ # 1. Récupérer le repo_slug depuis les arguments de la requête (query string)
191
+ repo_slug = request.args.get('repo_slug')
192
+
193
+ if not repo_slug:
194
+ return jsonify({
195
+ "success": False,
196
+ "message": "Le paramètre 'repo_slug' est manquant."
197
+ }), 400
198
+
199
+ try:
200
+ # 2. Charger toutes les Issues pour ce dépôt et cet utilisateur
201
+ all_issues = load_all_issues_from_hf(repo_slug, user_id)
202
+
203
+ # 3. Retourner la liste complète des Issues au format JSON
204
+ return jsonify({
205
+ "success": True,
206
+ "issues": all_issues
207
+ }), 200
208
+
209
+ except Exception as e:
210
+ logger.error(f"Erreur lors du chargement des Issues pour le dépôt {repo_slug} et l'utilisateur {user_id} : {e}")
211
+ return jsonify({
212
+ "success": False,
213
+ "message": "Erreur interne du serveur lors de la récupération des Issues."
214
+ }), 500
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/issues_backend.py ADDED
@@ -0,0 +1,196 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # issues_backend.py
2
+
3
+ import uuid
4
+ from datetime import datetime
5
+ from typing import Optional, Dict, List, Any
6
+ import logging
7
+ from config import ISSUES_HF_REPO_ID # Nouvelle variable
8
+ from huggingface_repo_manager import (
9
+ load_json_file_from_hf,
10
+ save_json_file_to_hf,
11
+ get_user_repo_metadata
12
+ )
13
+
14
+ logger = logging.getLogger(__name__)
15
+
16
+ # --- Constantes ---
17
+ ISSUE_FILE_PATH_TEMPLATE = "issues_data/{user_id}/{repo_slug}/issues.json"
18
+
19
+ # --- Fonctions de Métadonnées (Interaction avec issues.json) ---
20
+
21
+ def _get_issue_file_path(repo_slug: str, user_id: str) -> str:
22
+ """Construit le chemin d'accès au fichier issues.json."""
23
+ return ISSUE_FILE_PATH_TEMPLATE.format(user_id=user_id, repo_slug=repo_slug)
24
+
25
+ def save_all_issues_to_hf(repo_slug: str, user_id: str, issues_list: List[Dict]) -> tuple[bool, str]:
26
+ """Sérialise et enregistre la liste complète des Issues dans le fichier issues.json."""
27
+ if not ISSUES_HF_REPO_ID:
28
+ return False, "Erreur de configuration: ISSUES_HF_REPO_ID manquant."
29
+
30
+ file_path = _get_issue_file_path(repo_slug, user_id)
31
+ data_to_save = {"issues": issues_list, "last_updated": datetime.now().isoformat()}
32
+
33
+ return save_json_file_to_hf(
34
+ file_path=file_path,
35
+ data=data_to_save,
36
+ commit_message=f"Mise à jour des issues pour {repo_slug}",
37
+ repo_id=ISSUES_HF_REPO_ID
38
+ )
39
+
40
+ def load_all_issues_from_hf(repo_slug: str, user_id: str) -> List[Dict]:
41
+ """Charge l'intégralité du fichier issues.json du dépôt spécifié."""
42
+ if not ISSUES_HF_REPO_ID:
43
+ logger.error("Configuration error: ISSUES_HF_REPO_ID missing.")
44
+ return []
45
+
46
+ file_path = _get_issue_file_path(repo_slug, user_id)
47
+
48
+ issue_data, msg = load_json_file_from_hf(
49
+ file_path=file_path,
50
+ repo_id=ISSUES_HF_REPO_ID
51
+ )
52
+
53
+ if issue_data is None or "issues" not in issue_data:
54
+ return []
55
+
56
+ return issue_data.get("issues", [])
57
+
58
+ def get_issue_by_id(issue_id: str, repo_slug: str, user_id: str) -> Optional[Dict]:
59
+ """Récupère une Issue spécifique par son ID."""
60
+ all_issues = load_all_issues_from_hf(repo_slug, user_id)
61
+ found_issue = next((i for i in all_issues if str(i.get('issue_id')) == str(issue_id)), None)
62
+ return found_issue
63
+
64
+ def create_issue(
65
+ repo_slug: str,
66
+ user_id: str,
67
+ title: str,
68
+ description: str,
69
+ creator_id: str,
70
+ assigned_to: Optional[str] = None,
71
+ labels: Optional[List[str]] = None
72
+ ) -> tuple[Optional[str], str]:
73
+ """Génère un issue_id, ajoute la nouvelle Issue, puis sauvegarde."""
74
+
75
+ all_issues = load_all_issues_from_hf(repo_slug, user_id)
76
+ issue_id = str(uuid.uuid4())
77
+
78
+ new_issue = {
79
+ "issue_id": issue_id,
80
+ "repo_slug": repo_slug,
81
+ "title": title,
82
+ "description": description,
83
+ "status": "Open",
84
+ "creator_id": creator_id,
85
+ "assigned_to": assigned_to,
86
+ "labels": labels if labels is not None else [],
87
+ "created_at": datetime.now().isoformat(),
88
+ "updated_at": datetime.now().isoformat(),
89
+ "comments": []
90
+ }
91
+
92
+ all_issues.append(new_issue)
93
+ success, message = save_all_issues_to_hf(repo_slug, user_id, all_issues)
94
+
95
+ if success:
96
+ return issue_id, f"Issue '{title}' créée avec succès (ID: {issue_id})."
97
+ else:
98
+ logger.error(f"Échec de la sauvegarde de l'issue {issue_id}: {message}")
99
+ return None, f"Échec de la création de l'Issue: {message}"
100
+
101
+
102
+ def update_issue(issue_id: str, repo_slug: str, user_id: str, updates: Dict[str, Any]) -> tuple[bool, str]:
103
+ """Met à jour un ou plusieurs champs spécifiques (titre, statut, assignation, etc.)."""
104
+ all_issues = load_all_issues_from_hf(repo_slug, user_id)
105
+ issue_index = next((i for i, issue in enumerate(all_issues) if str(issue.get('issue_id')) == str(issue_id)), -1)
106
+
107
+ if issue_index == -1:
108
+ return False, f"Issue ID {issue_id} introuvable."
109
+
110
+ issue_to_update = all_issues[issue_index]
111
+
112
+ for key, value in updates.items():
113
+ if key in issue_to_update:
114
+ issue_to_update[key] = value
115
+
116
+ issue_to_update['updated_at'] = datetime.now().isoformat()
117
+ all_issues[issue_index] = issue_to_update
118
+
119
+ success, message = save_all_issues_to_hf(repo_slug, user_id, all_issues)
120
+
121
+ if success:
122
+ return True, f"Issue ID {issue_id} mise à jour avec succès."
123
+ else:
124
+ logger.error(f"Échec de la sauvegarde de l'issue {issue_id} après mise à jour: {message}")
125
+ return False, f"Échec de la mise à jour de l'Issue: {message}"
126
+
127
+
128
+ def add_comment_to_issue(
129
+ issue_id: str,
130
+ repo_slug: str,
131
+ user_id: str,
132
+ comment_content: str,
133
+ commenter_id: str
134
+ ) -> tuple[bool, str]:
135
+ """Ajoute un nouveau commentaire à la liste 'comments' de l'Issue correspondante et sauvegarde."""
136
+ all_issues = load_all_issues_from_hf(repo_slug, user_id)
137
+ issue_index = next((i for i, issue in enumerate(all_issues) if str(issue.get('issue_id')) == str(issue_id)), -1)
138
+
139
+ if issue_index == -1:
140
+ return False, f"Issue ID {issue_id} introuvable."
141
+
142
+ issue_to_update = all_issues[issue_index]
143
+
144
+ new_comment = {
145
+ "comment_id": str(uuid.uuid4()),
146
+ "user_id": commenter_id,
147
+ "content": comment_content,
148
+ "created_at": datetime.now().isoformat()
149
+ }
150
+
151
+ if 'comments' not in issue_to_update:
152
+ issue_to_update['comments'] = []
153
+
154
+ issue_to_update['comments'].append(new_comment)
155
+ issue_to_update['updated_at'] = datetime.now().isoformat()
156
+ all_issues[issue_index] = issue_to_update
157
+
158
+ success, message = save_all_issues_to_hf(repo_slug, user_id, all_issues)
159
+
160
+ if success:
161
+ return True, f"Commentaire ajouté avec succès à l'Issue ID {issue_id}."
162
+ else:
163
+ logger.error(f"Échec de la sauvegarde du commentaire pour l'issue {issue_id}: {message}")
164
+ return False, f"Échec de l'ajout du commentaire: {message}"
165
+
166
+
167
+ def load_all_user_issues(user_id: str) -> List[Dict]:
168
+ """
169
+ Récupère toutes les Issues de l'utilisateur à travers tous ses dépôts
170
+ en utilisant les métadonnées de dépôt.
171
+ """
172
+ all_issues: List[Dict] = []
173
+
174
+ try:
175
+ metadata, _ = get_user_repo_metadata(user_id)
176
+ if not metadata or not metadata.get("repos"):
177
+ return []
178
+
179
+ repo_slugs = [repo.get('repo_slug') for repo in metadata["repos"] if repo.get('repo_slug')]
180
+ except Exception as e:
181
+ logger.error(f"Erreur lors de la récupération des métadonnées de dépôt pour l'utilisateur {user_id}: {e}")
182
+ return []
183
+
184
+ for repo_slug in repo_slugs:
185
+ try:
186
+ issues_for_repo = load_all_issues_from_hf(repo_slug, user_id)
187
+ for issue in issues_for_repo:
188
+ issue['repo_slug'] = repo_slug
189
+
190
+ all_issues.extend(issues_for_repo)
191
+
192
+ except Exception as e:
193
+ logger.warning(f"Impossible de charger les Issues pour le dépôt {repo_slug}: {e}")
194
+ continue
195
+
196
+ return all_issues
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/pr_routes.py ADDED
@@ -0,0 +1,432 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # pr_routes.py
2
+
3
+ from flask import Blueprint, request, jsonify, session
4
+ from decorators import api_session_required # Pour l'authentification par session
5
+ from typing import List, Dict
6
+ import logging
7
+
8
+ # Importation des fonctions du backend Pull Request
9
+ from pull_request_backend import (
10
+ create_pull_request,
11
+ load_all_prs_from_hf,
12
+ get_pull_request_by_id,
13
+ update_pull_request_status,
14
+ get_pr_diff,
15
+ check_pr_merge_status,
16
+ merge_pull_request,
17
+ load_all_user_prs,
18
+ create_new_pr_branch,
19
+ get_files_in_pr_branch,
20
+ get_pr_file_content,
21
+ get_repo_branches
22
+ )
23
+
24
+ logger = logging.getLogger(__name__)
25
+
26
+ # Création du Blueprint 'pr_bp'
27
+ pr_bp = Blueprint('pr_bp', __name__)
28
+
29
+ # ----------------------------------------------------------------------
30
+ # ENDPOINTS API POUR LES PULL REQUESTS
31
+ # ----------------------------------------------------------------------
32
+
33
+ @pr_bp.route("/api/pr/create", methods=["POST"])
34
+ @api_session_required
35
+ def create_pr_route(client_user: Dict):
36
+ """
37
+ Route (POST) : Créer une nouvelle Pull Request.
38
+ """
39
+ user_id = str(client_user['user_id'])
40
+ data = request.get_json()
41
+
42
+ repo_slug = data.get("repo_slug")
43
+ source_branch = data.get("source_branch")
44
+ target_branch = data.get("target_branch")
45
+ title = data.get("title")
46
+ description = data.get("description", "") # Description optionnelle
47
+
48
+ if not all([repo_slug, source_branch, target_branch, title]):
49
+ return jsonify({
50
+ "success": False,
51
+ "message": "Données manquantes : repo_slug, source_branch, target_branch et title sont requis."
52
+ }), 400
53
+
54
+ pr_id, message = create_pull_request(
55
+ repo_slug=repo_slug,
56
+ source_branch=source_branch,
57
+ target_branch=target_branch,
58
+ title=title,
59
+ description=description,
60
+ user_id=user_id
61
+ )
62
+
63
+ if pr_id:
64
+ return jsonify({
65
+ "success": True,
66
+ "message": message,
67
+ "pr_id": pr_id
68
+ }), 201
69
+ else:
70
+ return jsonify({
71
+ "success": False,
72
+ "message": message
73
+ }), 500
74
+
75
+
76
+ @pr_bp.route("/api/pr/list/<repo_slug>", methods=["GET"])
77
+ @api_session_required
78
+ def list_prs_route(client_user: Dict, repo_slug: str):
79
+ """
80
+ Route (GET) : Lister toutes les PR pour un dépôt donné.
81
+ """
82
+ user_id = str(client_user['user_id'])
83
+
84
+ pr_list: List[Dict] = load_all_prs_from_hf(repo_slug, user_id)
85
+
86
+ # Optionnel: Filtrer ou trier ici si nécessaire (ex: trier par date/statut)
87
+
88
+ return jsonify({
89
+ "success": True,
90
+ "data": pr_list,
91
+ "count": len(pr_list)
92
+ }), 200
93
+
94
+
95
+ @pr_bp.route("/api/pr/<pr_id>", methods=["GET"])
96
+ @api_session_required
97
+ def get_pr_details_route(client_user: Dict, pr_id: str):
98
+ """
99
+ Route (GET) : Obtenir les détails d'une PR spécifique.
100
+ """
101
+ user_id = str(client_user['user_id'])
102
+ repo_slug = request.args.get('repo')
103
+
104
+ if not repo_slug:
105
+ return jsonify({
106
+ "success": False,
107
+ "message": "Le paramètre 'repo' (repo_slug) est manquant dans la requête."
108
+ }), 400
109
+
110
+ pr = get_pull_request_by_id(pr_id, repo_slug, user_id)
111
+
112
+ if pr:
113
+ return jsonify({"success": True, "data": pr}), 200
114
+ else:
115
+ return jsonify({"success": False, "message": f"Pull Request ID {pr_id} non trouvée."}), 404
116
+
117
+
118
+ @pr_bp.route("/api/pr/<pr_id>/diff", methods=["GET"])
119
+ @api_session_required
120
+ def get_pr_diff_route(client_user: Dict, pr_id: str):
121
+ """
122
+ Route (GET) : Obtenir le contenu des changements (diff) entre les branches de la PR.
123
+ """
124
+ user_id = str(client_user['user_id'])
125
+ repo_slug = request.args.get('repo')
126
+
127
+ if not repo_slug:
128
+ return jsonify({
129
+ "success": False,
130
+ "message": "Le paramètre 'repo' (repo_slug) est manquant."
131
+ }), 400
132
+
133
+ # La fonction de backend résout les branches à partir du pr_id
134
+ diff_data, message = get_pr_diff(repo_slug, user_id, pr_id)
135
+
136
+ if diff_data is not None:
137
+ return jsonify({"success": True, "data": diff_data}), 200
138
+ else:
139
+ # Ceci peut être dû à un pr_id invalide ou à une erreur de diff
140
+ return jsonify({"success": False, "message": message}), 404
141
+
142
+
143
+ @pr_bp.route("/api/pr/<pr_id>/merge", methods=["POST"])
144
+ @api_session_required
145
+ def merge_pr_route(client_user: Dict, pr_id: str):
146
+ """
147
+ Route (POST) : Exécuter la fusion (merge) de la PR.
148
+ """
149
+ user_id = str(client_user['user_id'])
150
+ data = request.get_json()
151
+ repo_slug = data.get("repo_slug")
152
+
153
+ if not repo_slug:
154
+ return jsonify({"success": False, "message": "Le 'repo_slug' est requis dans le corps de la requête."}), 400
155
+
156
+ # Le committer est l'utilisateur connecté
157
+ success, message = merge_pull_request(pr_id, repo_slug, user_id, committer_id=user_id)
158
+
159
+ if success:
160
+ return jsonify({"success": True, "message": f"Pull Request ID {pr_id} fusionnée avec succès."}), 200
161
+ else:
162
+ # Erreur lors de la vérification des conflits, de la fusion Git ou de la mise à jour du statut
163
+ return jsonify({"success": False, "message": message}), 409 # 409 Conflict ou 500
164
+
165
+ @pr_bp.route("/api/pr/<pr_id>/close", methods=["POST"])
166
+ @api_session_required
167
+ def close_pr_route(client_user: Dict, pr_id: str):
168
+ """
169
+ Route (POST) : Fermer (sans fusion) la PR.
170
+ """
171
+ user_id = str(client_user['user_id'])
172
+ data = request.get_json()
173
+ repo_slug = data.get("repo_slug")
174
+
175
+ if not repo_slug:
176
+ return jsonify({"success": False, "message": "Le 'repo_slug' est requis dans le corps de la requête."}), 400
177
+
178
+ success, message = update_pull_request_status(pr_id, repo_slug, user_id, "Closed")
179
+
180
+ if success:
181
+ return jsonify({"success": True, "message": f"Pull Request ID {pr_id} fermée."}), 200
182
+ else:
183
+ return jsonify({"success": False, "message": message}), 404
184
+
185
+ @pr_bp.route("/api/pr/list_all", methods=["GET"])
186
+ @api_session_required
187
+ def list_all_prs_route(client_user: Dict):
188
+ """
189
+ Route (GET) : Récupérer tous les Pull Requests pour un dépôt donné.
190
+ Nécessite 'repo_slug' en paramètre de requête (query parameter).
191
+ """
192
+ user_id = str(client_user['user_id'])
193
+ # Récupère le repo_slug depuis les paramètres de la requête GET
194
+ repo_slug = request.args.get("repo_slug")
195
+
196
+ if not repo_slug:
197
+ return jsonify({"success": False, "message": "Le 'repo_slug' est requis comme paramètre de requête."}), 400
198
+
199
+ # 1. Appel de la fonction backend pour charger les PRs
200
+ # (Doit être déjà importée : from pull_request_backend import load_all_prs_from_hf)
201
+ try:
202
+ prs_list = load_all_prs_from_hf(repo_slug, user_id)
203
+ except Exception as e:
204
+ logger.error(f"Erreur lors du chargement des PRs pour {repo_slug} : {e}")
205
+ return jsonify({"success": False, "message": "Erreur interne lors du chargement des Pull Requests."}), 500
206
+
207
+
208
+ # 2. Retourne la liste des PRs au format JSON pour le frontend
209
+ return jsonify({
210
+ "success": True,
211
+ "repo_slug": repo_slug,
212
+ "pull_requests": prs_list
213
+ }), 200
214
+
215
+ @pr_bp.route("/api/pr/<pr_id>", methods=["GET"])
216
+ @api_session_required
217
+ def get_single_pr_route(client_user: Dict, pr_id: str):
218
+ """
219
+ Route (GET) : Récupérer les détails d'un seul Pull Request par son ID.
220
+ Nécessite 'repo_slug' en paramètre de requête.
221
+ """
222
+ user_id = str(client_user['user_id'])
223
+ # Récupère le repo_slug depuis les paramètres de la requête GET
224
+ repo_slug = request.args.get("repo_slug")
225
+
226
+ if not repo_slug:
227
+ return jsonify({"success": False, "message": "Le 'repo_slug' est requis comme paramètre de requête."}), 400
228
+
229
+ # 1. Récupérer les métadonnées de la PR
230
+ pr_data = get_pull_request_by_id(pr_id, repo_slug, user_id)
231
+
232
+ if not pr_data:
233
+ return jsonify({"success": False, "message": f"Pull Request ID {pr_id} introuvable."}), 404
234
+
235
+ # 2. Récupérer le contenu du Diff pour l'affichage des changements
236
+ diff_content, diff_msg = get_pr_diff(pr_id, repo_slug, user_id)
237
+
238
+ # 3. Ajouter le diff à l'objet retourné (même s'il est vide/erreur)
239
+ pr_data['diff_content'] = diff_content
240
+ # pr_data['diff_message'] = diff_msg # Utile pour le debug
241
+
242
+ return jsonify({
243
+ "success": True,
244
+ "pull_request": pr_data
245
+ }), 200
246
+
247
+ @pr_bp.route("/api/pr/list_active_for_user", methods=["GET"])
248
+ @api_session_required
249
+ def list_active_prs_for_user_route(client_user: Dict):
250
+ """
251
+ Route (GET) : Récupérer tous les Pull Requests actifs pour l'utilisateur
252
+ à travers tous ses dépôts.
253
+ """
254
+ user_id = str(client_user['user_id'])
255
+
256
+ try:
257
+ # 1. Charger TOUTES les PRs de l'utilisateur (de tous les dépôts)
258
+ all_prs_list = load_all_user_prs(user_id)
259
+
260
+ # 2. Filtrer seulement les PRs ouvertes (Open) pour le tableau de bord
261
+ # (Si l'on veut seulement les PRs actives)
262
+ active_prs = [pr for pr in all_prs_list if pr.get('status') == 'Open']
263
+
264
+ except Exception as e:
265
+ logger.error(f"Erreur lors du chargement des PRs du dashboard pour l'utilisateur {user_id} : {e}")
266
+ return jsonify({"success": False, "message": "Erreur interne lors du chargement des Pull Requests."}), 500
267
+
268
+
269
+ # 3. Retourne la liste consolidée des PRs actives au format JSON
270
+ return jsonify({
271
+ "success": True,
272
+ "pull_requests": active_prs
273
+ }), 200
274
+
275
+
276
+ @pr_bp.route("/api/pr/create_branch", methods=["POST"])
277
+ @api_session_required
278
+ def create_pr_branch_route(client_user: Dict):
279
+ """
280
+ Route (POST) : Créer une nouvelle branche de développement isolée
281
+ pour une future Pull Request.
282
+
283
+ Requiert: repo_slug et branch_name (qui sera la source_branch).
284
+ """
285
+ user_id = str(client_user['user_id'])
286
+ data = request.get_json()
287
+
288
+ repo_slug = data.get("repo_slug")
289
+ new_branch_name = data.get("branch_name") # Nom de la nouvelle branche à créer (ex: 'feature-new-ui')
290
+
291
+ if not all([repo_slug, new_branch_name]):
292
+ return jsonify({
293
+ "success": False,
294
+ "message": "Données manquantes : repo_slug et branch_name sont requis."
295
+ }), 400
296
+
297
+ # Appel de la fonction backend qui copie les fichiers
298
+ success, message = create_new_pr_branch(
299
+ user_id=user_id,
300
+ repo_slug=repo_slug,
301
+ new_branch_name=new_branch_name
302
+ )
303
+
304
+ if success:
305
+ return jsonify({
306
+ "success": True,
307
+ "message": message,
308
+ "branch_name": new_branch_name
309
+ }), 201
310
+ else:
311
+ return jsonify({
312
+ "success": False,
313
+ "message": message
314
+ }), 500 # 500 Internal Server Error ou 409 Conflict si la branche existe déjà.
315
+
316
+ @pr_bp.route("/api/pr/<pr_id>/files", methods=["GET"])
317
+ @api_session_required
318
+ def get_pr_files_route(client_user: Dict, pr_id: str):
319
+ """
320
+ Route (GET) : Obtenir la liste de tous les chemins de fichiers dans la
321
+ branche source (source_branch) d'une Pull Request spécifique.
322
+
323
+ Nécessite 'repo_slug' en paramètre de requête.
324
+ """
325
+ user_id = str(client_user['user_id'])
326
+ # Récupère le repo_slug depuis les paramètres de la requête GET (Query Parameter)
327
+ repo_slug = request.args.get('repo')
328
+
329
+ if not repo_slug:
330
+ return jsonify({
331
+ "success": False,
332
+ "message": "Le paramètre 'repo' (repo_slug) est manquant dans la requête."
333
+ }), 400
334
+
335
+ # 1. Appel de la fonction backend que nous venons de créer
336
+ file_list, message = get_files_in_pr_branch(pr_id, repo_slug, user_id)
337
+
338
+ if not file_list and message:
339
+ # La fonction retourne un message d'erreur si la PR ou la branche n'est pas trouvée
340
+ # ou s'il y a une erreur d'API.
341
+ return jsonify({
342
+ "success": False,
343
+ "message": message
344
+ }), 404 # Ou 500 pour une erreur interne
345
+
346
+ # 2. Retourne la liste des fichiers (chemin relatif)
347
+ return jsonify({
348
+ "success": True,
349
+ "pr_id": pr_id,
350
+ "repo_slug": repo_slug,
351
+ "files": file_list,
352
+ "count": len(file_list)
353
+ }), 200
354
+
355
+ @pr_bp.route("/api/pr/<pr_id>/file", methods=["GET"])
356
+ @api_session_required
357
+ def get_pr_file_content_route(client_user: Dict, pr_id: str):
358
+ """
359
+ Route (GET) : Obtenir le contenu d'un fichier spécifique dans la branche source de la PR.
360
+
361
+ Nécessite 'repo' (repo_slug) et 'path' (file_path) en paramètres de requête.
362
+ """
363
+ user_id = str(client_user['user_id'])
364
+
365
+ repo_slug = request.args.get('repo')
366
+ file_path = request.args.get('path')
367
+
368
+ if not all([repo_slug, file_path]):
369
+ return jsonify({
370
+ "success": False,
371
+ "message": "Les paramètres 'repo' (repo_slug) et 'path' (file_path) sont requis."
372
+ }), 400
373
+
374
+ # 1. Appel de la fonction backend
375
+ content, message = get_pr_file_content(
376
+ pr_id=pr_id,
377
+ repo_slug=repo_slug,
378
+ user_id=user_id,
379
+ file_path=file_path
380
+ )
381
+
382
+ if content is not None:
383
+ return jsonify({
384
+ "success": True,
385
+ "file_path": file_path,
386
+ "content": content
387
+ }), 200
388
+ else:
389
+ return jsonify({
390
+ "success": False,
391
+ "message": message
392
+ }), 404
393
+
394
+ @pr_bp.route("/api/repo/<repo_slug>/branches", methods=["GET"])
395
+ @api_session_required
396
+ def get_repo_branches_route(client_user: Dict, repo_slug: str):
397
+ """
398
+ Route (GET) : Récupère la liste de toutes les branches disponibles
399
+ pour un dépôt utilisateur spécifique (y compris la branche principale et les branches de PR ouvertes).
400
+ """
401
+ user_id = str(client_user['user_id'])
402
+
403
+ if not repo_slug:
404
+ return jsonify({
405
+ "success": False,
406
+ "message": "Le 'repo_slug' est requis dans le chemin de l'URL."
407
+ }), 400
408
+
409
+ # 1. Appel de la fonction backend
410
+ # Assurez-vous que get_repo_branches est bien importé de pull_request_backend
411
+ try:
412
+ branches, message = get_repo_branches(repo_slug, user_id)
413
+ except Exception as e:
414
+ logger.error(f"Erreur lors de la récupération des branches pour {repo_slug}: {e}")
415
+ return jsonify({
416
+ "success": False,
417
+ "message": f"Erreur interne lors de la récupération des branches : {str(e)}"
418
+ }), 500
419
+
420
+ if message and not branches:
421
+ # Gérer les cas où il y a un message d'erreur et aucune branche n'a pu être récupérée
422
+ return jsonify({
423
+ "success": False,
424
+ "message": message
425
+ }), 404
426
+
427
+ return jsonify({
428
+ "success": True,
429
+ "repo_slug": repo_slug,
430
+ "branches": branches,
431
+ "count": len(branches)
432
+ }), 200
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/project_routes.py ADDED
@@ -0,0 +1,1123 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # project_routes.py (Version SSR - Rendu Côté Serveur)
2
+
3
+ from datetime import datetime # <-- AJOUTER CECI
4
+ import logging # <-- NOUVEL IMPORT
5
+ import os # <--- AJOUTEZ CETTE LIGNE
6
+ from flask import Blueprint, request, jsonify, session, redirect, url_for, flash, render_template
7
+ import uuid
8
+ import json # <-- AJOUTER CECI, nécessaire pour décoder le JSON du formulaire
9
+ from decorators import login_required
10
+ from auth_backend import (
11
+ register_user,
12
+ login_user,
13
+ reset_password_via_security_question,
14
+ get_user_by_id,
15
+ update_user_profile,
16
+ # Assurez-vous d'importer toute autre fonction nécessaire ici (ex: is_email_unique)
17
+ )
18
+
19
+ from decorators import api_session_required
20
+ from huggingface_repo_manager import (
21
+ create_empty_repo_folder_on_hf,
22
+ update_user_repo_metadata,
23
+ get_user_repo_metadata,
24
+ upload_files_to_repo_backend,
25
+ delete_repo_folder_from_hf, # <--- AJOUTEZ CETTE LIGNE
26
+ list_repo_files_from_hf, # <-- DÉJÀ EXISTANT DANS LE FICHIER FOURNI
27
+ get_file_content_from_hf, # <-- NOUVELLE FONCTION AJOUTÉE
28
+ save_file_content_to_hf,
29
+ delete_file_from_hf_repo,
30
+ save_application_json_to_hf, # <--- AJOUTÉ
31
+ upload_application_document_to_hf, # <--- AJOUTÉ
32
+ update_repo_secrets_or_variables, # <--- AJOUTER CETTE LIGNE
33
+ get_repo_secrets_or_variables,
34
+ delete_repo_secret_or_variable, # <--- NOUVELLE FONCTION DE SUPPRESSION
35
+ )
36
+ logger = logging.getLogger(__name__) # <-- AJOUTER CETTE LIGNE
37
+
38
+
39
+ project_bp = Blueprint('project_bp', __name__)
40
+
41
+ @project_bp.route("/mindus/nexus/upload_file", methods=["GET"])
42
+ @login_required
43
+ def upload_file_page():
44
+ """
45
+ Route dédiée pour la page d'upload de fichiers.
46
+ Charge les données utilisateur et les métadonnées du dépôt pour l'affichage Jinja2.
47
+ """
48
+ user_id = session.get('user_id')
49
+ repo_slug = request.args.get('repo_slug')
50
+
51
+ # 1. Charger les données utilisateur complètes
52
+ user_data = get_user_by_id(user_id) # get_user_by_id est déjà importé
53
+ if user_data is None:
54
+ session.pop('user_id', None)
55
+ session.pop('logged_in', None)
56
+ return redirect(url_for('web_bp.connexion_page'))
57
+
58
+ # 2. Charger les métadonnées pour trouver le nom du dépôt
59
+ repo_name = None
60
+ if repo_slug:
61
+ # get_user_repo_metadata est déjà importé
62
+ metadata, _ = get_user_repo_metadata(user_id)
63
+ if metadata and metadata.get("repos"):
64
+ # Trouver le nom du dépôt correspondant au slug
65
+ repo = next((r for r in metadata["repos"] if r.get('repo_slug') == repo_slug), None)
66
+ if repo:
67
+ repo_name = repo.get('repo_name')
68
+
69
+ # CORRECTION de l'affichage: Assurer qu'il y a une valeur non-None pour le template
70
+ # Même si le repo_name n'est pas trouvé dans les métadonnées, on passe le repo_slug
71
+ # qui sera affiché par le template si repo_name est None.
72
+
73
+ # 3. Passer l'objet 'user', le nom (repo_name) et le slug du dépôt au template
74
+ return render_template(
75
+ "upload_file.html",
76
+ user=user_data,
77
+ repo_name=repo_name,
78
+ repo_slug=repo_slug # Nécessaire pour les liens et actions JavaScript
79
+ )
80
+
81
+
82
+
83
+ @project_bp.route("/mindus/nexus/nouveau_project", methods=["GET"])
84
+ @login_required
85
+ def nouveau_project_page_with_user_context():
86
+ """
87
+ Route dédiée pour la page de création de projet (nouveau_project.html).
88
+ Injecte l'objet 'user' dans le contexte du template pour résoudre l'erreur Jinja2.
89
+ """
90
+ user_id = session.get('user_id')
91
+
92
+ # 1. Charger les données utilisateur complètes depuis le backend
93
+ # get_user_by_id est déjà importé en haut du fichier.
94
+ user_data = get_user_by_id(user_id)
95
+
96
+ if user_data is None:
97
+ # Sécurité : Si les données ne sont pas trouvées, on déconnecte et redirige
98
+ session.pop('user_id', None)
99
+ session.pop('logged_in', None)
100
+ return redirect(url_for('user_bp.login_user_api'))
101
+
102
+ # 2. Passer l'objet 'user' au template (Ceci corrige l'erreur)
103
+ return render_template("nouveau_project.html", user=user_data)
104
+
105
+
106
+ @project_bp.route("/mindus/nexus/repo_files", methods=["GET"])
107
+ @login_required
108
+ def get_repo_files_page():
109
+ user_id = session.get('user_id')
110
+
111
+ # Étape 1: Assurez-vous de récupérer le repo_slug de l'URL (qui devrait être présent)
112
+ repo_slug = request.args.get('repo_slug')
113
+
114
+ if not repo_slug:
115
+ # Gérer le cas où le slug est manquant (ex: redirection vers le dashboard)
116
+ flash("Dépôt non spécifié.", "error")
117
+ return redirect(url_for('user_bp.dashboard'))
118
+
119
+
120
+ # Étape 2: Assurez-vous de passer repo_slug au template
121
+ return render_template(
122
+ 'repo_files.html',
123
+ user=get_user_by_id(user_id),
124
+ repo_slug=repo_slug,
125
+ # ... autres variables (file_list, repo_name, etc.)
126
+ )
127
+
128
+ @project_bp.route("/mindus/nexus/pull_requests", methods=["GET"])
129
+ @login_required
130
+ def get_pull_requests_page():
131
+ """
132
+ Route dédiée pour la page de gestion des Pull Requests (pull_requests.html).
133
+ Récupère repo_slug de l'URL et injecte l'objet 'user' dans le contexte.
134
+ """
135
+ user_id = session.get('user_id')
136
+
137
+ # 1. Assurez-vous de récupérer le repo_slug de l'URL
138
+ repo_slug = request.args.get('repo_slug')
139
+
140
+ # 2. Gestion si le slug est manquant
141
+ if not repo_slug:
142
+ flash("Dépôt non spécifié pour les Pull Requests.", "error")
143
+ return redirect(url_for('user_bp.dashboard'))
144
+
145
+ # 3. Charger les données utilisateur (nécessaire pour le contexte Jinja2)
146
+ user_data = get_user_by_id(user_id)
147
+
148
+ # 4. Rendu du template avec le contexte
149
+ return render_template(
150
+ 'pull_requests.html',
151
+ user=user_data,
152
+ repo_slug=repo_slug # Passage du slug au template
153
+ )
154
+
155
+ @project_bp.route("/mindus/nexus/new_pull_requests", methods=["GET"])
156
+ @login_required
157
+ def get_new_pull_requests_page():
158
+ """
159
+ Route dédiée pour la page de création d'une nouvelle Pull Request (new_pull_requests.html).
160
+ Récupère repo_slug de l'URL et injecte l'objet 'user' dans le contexte.
161
+ """
162
+ user_id = session.get('user_id')
163
+
164
+ # 1. Assurez-vous de récupérer le repo_slug de l'URL
165
+ repo_slug = request.args.get('repo_slug')
166
+
167
+ # 2. Gestion si le slug est manquant
168
+ if not repo_slug:
169
+ flash("Dépôt non spécifié pour la création de Pull Request.", "error")
170
+ return redirect(url_for('user_bp.dashboard'))
171
+
172
+ # 3. Charger les données utilisateur (nécessaire pour le contexte Jinja2)
173
+ user_data = get_user_by_id(user_id)
174
+
175
+ # 4. Rendu du template avec le contexte
176
+ return render_template(
177
+ 'new_pull_requests.html',
178
+ user=user_data,
179
+ repo_slug=repo_slug # Passage du slug au template
180
+ )
181
+
182
+
183
+ @project_bp.route("/mindus/nexus/issues", methods=["GET"])
184
+ @login_required
185
+ def get_issues_list_page():
186
+ """
187
+ Route (SSR) pour afficher la liste des Issues d'un dépôt (issues.html).
188
+ Nécessite 'repo_slug' en paramètre de requête.
189
+ """
190
+ user_id = session.get('user_id')
191
+ repo_slug = request.args.get('repo_slug')
192
+
193
+ if not repo_slug:
194
+ flash("Dépôt non spécifié pour les Issues.", "error")
195
+ return redirect(url_for('user_bp.dashboard'))
196
+
197
+ # Charger les données utilisateur (get_user_by_id est déjà importé)
198
+ user_data = get_user_by_id(user_id)
199
+
200
+ return render_template(
201
+ 'issues.html',
202
+ user=user_data,
203
+ repo_slug=repo_slug # Passage du slug au template
204
+ )
205
+
206
+
207
+ @project_bp.route("/mindus/nexus/new_issue", methods=["GET"])
208
+ @login_required
209
+ def get_new_issue_page():
210
+ """
211
+ Route (SSR) pour afficher le formulaire de création de nouvelle Issue (new_issue.html).
212
+ Nécessite 'repo_slug' en paramètre de requête.
213
+ """
214
+ user_id = session.get('user_id')
215
+ repo_slug = request.args.get('repo_slug')
216
+
217
+ if not repo_slug:
218
+ flash("Dépôt non spécifié pour la création d'Issue.", "error")
219
+ return redirect(url_for('user_bp.dashboard'))
220
+
221
+ # Charger les données utilisateur (get_user_by_id est déjà importé)
222
+ user_data = get_user_by_id(user_id)
223
+
224
+ return render_template(
225
+ 'new_issue.html',
226
+ user=user_data,
227
+ repo_slug=repo_slug # Passage du slug au template
228
+ )
229
+
230
+ @project_bp.route("/mindus/nexus/create_new_issue", methods=["GET"])
231
+ @login_required
232
+ def get_create_new_issue_page():
233
+ """
234
+ Route dédiée pour la page de création d'une nouvelle Pull Request (new_pull_requests.html).
235
+ Récupère repo_slug de l'URL et injecte l'objet 'user' dans le contexte.
236
+ """
237
+ user_id = session.get('user_id')
238
+
239
+ # 1. Assurez-vous de récupérer le repo_slug de l'URL
240
+ repo_slug = request.args.get('repo_slug')
241
+
242
+ # 2. Gestion si le slug est manquant
243
+ if not repo_slug:
244
+ flash("Dépôt non spécifié pour la création de Pull Request.", "error")
245
+ return redirect(url_for('user_bp.dashboard'))
246
+
247
+ # 3. Charger les données utilisateur (nécessaire pour le contexte Jinja2)
248
+ user_data = get_user_by_id(user_id)
249
+
250
+ # 4. Rendu du template avec le contexte
251
+ return render_template(
252
+ 'create_new_issue.html',
253
+ user=user_data,
254
+ repo_slug=repo_slug # Passage du slug au template
255
+ )
256
+
257
+
258
+ @project_bp.route("/mindus/nexus/media_image")
259
+ @login_required
260
+ def get_media_image():
261
+ user_id = session.get('user_id')
262
+
263
+ # 1. Charger les données utilisateur
264
+ # Assurez-vous que get_user_by_id est bien importé (il l'est déjà dans ce fichier)
265
+ user_data = get_user_by_id(user_id)
266
+
267
+ if user_data is None:
268
+ # Sécurité : Si les données ne sont pas trouvées, on déconnecte et redirige
269
+ session.pop('user_id', None)
270
+ session.pop('logged_in', None)
271
+ # Assurez-vous que la redirection vers la page de connexion est correcte
272
+ return redirect(url_for('web_bp.connexion_page'))
273
+
274
+ # 2. Passer les données utilisateur au template
275
+ # Si le template attend 'current_user', utilisez ce nom.
276
+ # Dans le cas où d'autres routes utilisent 'user', vous pouvez aussi le passer sous ce nom.
277
+ return render_template(
278
+ 'media_image.html',
279
+ current_user=user_data, # <-- AJOUT CLÉ
280
+ user=user_data # (Optionnel) Ajout de 'user' par précaution
281
+ )
282
+
283
+ @project_bp.route('/api/create_repo', methods=['POST'])
284
+ @api_session_required
285
+ def create_repo(client_user):
286
+ """
287
+ Gère la création d'un nouveau dépôt utilisateur:
288
+ 1. Crée la structure de dossier (user_id/repo_slug/) sur Hugging Face (via README.md).
289
+ 2. Met à jour le fichier de métadonnées utilisateur (user_id/metadata.json) sur HF.
290
+ """
291
+ # CORRECTION : Utiliser 'user_id' car c'est la clé définie dans baserow_storage.py
292
+ user_id = client_user.get('user_id')
293
+
294
+ # Si 'user_id' est toujours None, c'est que l'utilisateur n'est pas correctement authentifié
295
+ # ou que l'objet client_user est incomplet.
296
+ if not user_id:
297
+ # Ceci est la réponse que vous voyez actuellement au frontend.
298
+ return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
299
+
300
+ data = request.get_json()
301
+ repo_name = data.get('repo_name', '').strip()
302
+ visibility = data.get('visibility', 'public')
303
+ description = data.get('description', '')
304
+ gitignore_template = data.get('gitignore_template')
305
+ license_template = data.get('license_template')
306
+
307
+ if not repo_name:
308
+ return jsonify({"success": False, "message": "Le nom du dépôt est obligatoire."}), 400
309
+
310
+ # 1. Générer un identifiant unique pour le déploiement/dépôt (UUID)
311
+ deploy_id = str(uuid.uuid4())
312
+ # Créer un slug pour le dossier (version simplifiée)
313
+ repo_slug = repo_name.lower().replace(' ', '-')
314
+
315
+ try:
316
+ # 2. Créer la structure de dossier (dossier principal/sous-dossier du dépôt) sur Hugging Face
317
+ success_hf_creation, hf_message = create_empty_repo_folder_on_hf(
318
+ repo_slug=repo_slug,
319
+ user_id=user_id # Utilise l'ID utilisateur réel
320
+ )
321
+
322
+ if not success_hf_creation:
323
+ logger.error(f"Échec de la création du dossier HF pour {user_id}/{repo_slug}: {hf_message}")
324
+ return jsonify({"success": False, "message": f"Échec de la création du dépôt sur Hugging Face: {hf_message}"}), 500
325
+
326
+ # Le chemin complet du dépôt dans le dataset HF
327
+ hf_repo_path = f"{user_id}/{repo_slug}"
328
+
329
+ # 3. Préparer les métadonnées à enregistrer
330
+ new_repo_data = {
331
+ "FIELD_DEPLOY_ID": deploy_id,
332
+ "FIELD_USER_REF": user_id,
333
+ "FIELD_HF_REPO_PATH": hf_repo_path,
334
+ "repo_name": repo_name,
335
+ "repo_slug": repo_slug,
336
+ "description": description,
337
+ "visibility": visibility,
338
+ "gitignore_template": gitignore_template,
339
+ "license_template": license_template,
340
+ "created_at": datetime.now().isoformat(),
341
+ "status": "initialised"
342
+ }
343
+
344
+ # 4. Mettre à jour le fichier metadata.json de l'utilisateur
345
+ success_metadata, metadata_message = update_user_repo_metadata(
346
+ user_id=user_id,
347
+ new_repo_data=new_repo_data
348
+ )
349
+
350
+ if not success_metadata:
351
+ logger.critical(f"Dépôt {deploy_id} créé sur HF, mais ÉCHEC CRITIQUE de mise à jour des métadonnées pour {user_id}: {metadata_message}")
352
+ return jsonify({"success": False, "message": f"Dépôt créé, mais ÉCHEC CRITIQUE de la mise à jour des métadonnées. Contactez le support."}), 500
353
+
354
+ # 5. Succès
355
+ # Le succès enverra cette réponse, déclenchant la redirection du frontend vers repo_files.html
356
+ return jsonify({
357
+ "success": True,
358
+ "message": f"Dépôt '{repo_name}' créé et enregistré avec succès.",
359
+ "deploy_id": deploy_id,
360
+ "repo_slug": repo_slug, # Clé pour la redirection côté frontend
361
+ }), 201
362
+
363
+ except Exception as e:
364
+ logger.exception(f"Erreur inattendue lors de la création du dépôt pour {user_id}: {e}")
365
+ return jsonify({"success": False, "message": f"Erreur interne lors du traitement: {str(e)}"}), 500
366
+
367
+ @project_bp.route('/api/repos', methods=['GET'])
368
+ @api_session_required
369
+ def get_user_repos(client_user):
370
+ """
371
+ Récupère la liste de tous les dépôts (repos) de l'utilisateur à partir de ses métadonnées HF.
372
+ """
373
+ user_id = client_user.get('user_id')
374
+
375
+ if not user_id:
376
+ return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
377
+
378
+ try:
379
+ # get_user_repo_metadata est importé de huggingface_storage
380
+ metadata, message = get_user_repo_metadata(user_id)
381
+
382
+ if metadata and metadata.get("repos"):
383
+ # Retourne uniquement la liste des dépôts
384
+ # triée par date de création (du plus récent au plus ancien)
385
+ repos = metadata["repos"]
386
+ # Assurez-vous d'avoir 'created_at' pour le tri, sinon utilisez une autre clé
387
+ repos.sort(key=lambda x: x.get('created_at', ''), reverse=True)
388
+
389
+ # Ne retournez que les champs nécessaires pour le dashboard
390
+ simplified_repos = [
391
+ {
392
+ "repo_name": repo.get("repo_name", "N/A"),
393
+ "repo_slug": repo.get("repo_slug", "N/A"),
394
+ "description": repo.get("description", "Pas de description fournie."),
395
+ "visibility": repo.get("visibility", "public").capitalize(),
396
+ "deploy_id": repo.get("FIELD_DEPLOY_ID", "N/A"),
397
+ # Utilisez un champ d'exemple pour la date de modification/création
398
+ "last_modified": repo.get("created_at", datetime.now().isoformat()),
399
+ } for repo in repos
400
+ ]
401
+
402
+ return jsonify({"success": True, "repos": simplified_repos})
403
+ else:
404
+ # Aucun dépôt trouvé ou metadata non initialisé
405
+ return jsonify({"success": True, "repos": []})
406
+
407
+ except Exception as e:
408
+ logger.exception(f"Erreur lors de la récupération des dépôts HF pour {user_id}: {e}")
409
+ return jsonify({"success": False, "message": f"Erreur interne lors de l'accès aux dépôts: {str(e)}"}), 500
410
+
411
+ @project_bp.route('/api/files/<repo_slug>/upload', methods=['POST'])
412
+ @api_session_required
413
+ def upload_files_to_repo(client_user, repo_slug):
414
+ """
415
+ Gère le téléversement de plusieurs fichiers vers un dépôt utilisateur spécifique.
416
+ """
417
+ user_id = client_user.get('user_id')
418
+
419
+ if not user_id:
420
+ return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
421
+
422
+ # ... (le code pour la récupération des fichiers et du formulaire)
423
+ if 'files' not in request.files:
424
+ return jsonify({"success": False, "message": "Aucun fichier n'a été sélectionné pour le téléversement."}), 400
425
+
426
+ commit_title = request.form.get('commit_title', "Add files via upload")
427
+ commit_description = request.form.get('commit_description', "")
428
+ branch_name = request.form.get('branch_name', 'main')
429
+
430
+ uploaded_files = request.files.getlist('files')
431
+
432
+ if not uploaded_files:
433
+ return jsonify({"success": False, "message": "Aucun fichier valide n'a été trouvé dans la requête."}), 400
434
+
435
+ # --- ÉTAPE CLÉ : Appel de la fonction du backend (DÉSORMAIS ACTIF) ---
436
+ success, message = upload_files_to_repo_backend(
437
+ user_id=user_id,
438
+ repo_slug=repo_slug,
439
+ files=uploaded_files,
440
+ commit_message=commit_title,
441
+ commit_description=commit_description,
442
+ branch=branch_name
443
+ )
444
+
445
+ if success:
446
+ # --- MODIFICATION CLÉ ICI ---
447
+ # 1. Générer l'URL de redirection vers la page repo_files.html
448
+ redirect_url = url_for('project_bp.get_repo_files_page', repo_slug=repo_slug)
449
+
450
+ # 2. Renvoyer le 'redirect' dans la réponse JSON pour que le frontend le suive
451
+ return jsonify({
452
+ "success": True,
453
+ "message": message,
454
+ "redirect": redirect_url, # <-- AJOUT DE LA REDIRECTION
455
+ }), 200
456
+ else:
457
+ # Échec : Retourne l'erreur reçue du backend HF
458
+ return jsonify({"success": False, "message": message}), 500 # Statut 500 pour Erreur Serveur Interne
459
+
460
+
461
+ @project_bp.route('/api/repo_data/<repo_slug>', methods=['GET'])
462
+ @api_session_required
463
+ def get_repo_data(client_user, repo_slug):
464
+ """
465
+ Récupère la liste des fichiers, le contenu du README.md et les métadonnées
466
+ du dépôt pour l'affichage de la page repo_files.html.
467
+ """
468
+ user_id = client_user.get('user_id')
469
+
470
+ if not user_id:
471
+ return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
472
+
473
+ response_data = {}
474
+
475
+ # 1. Récupérer les métadonnées spécifiques du dépôt (Pour la carte 'About')
476
+ try:
477
+ user_metadata, _ = get_user_repo_metadata(user_id)
478
+ repo_metadata = next(
479
+ (repo for repo in user_metadata.get("repos", []) if repo.get("repo_slug") == repo_slug),
480
+ None
481
+ )
482
+
483
+ if not repo_metadata:
484
+ return jsonify({"success": False, "message": f"Dépôt '{repo_slug}' non trouvé dans les métadonnées de l'utilisateur."}), 404
485
+
486
+ # Simplifier les métadonnées pour le frontend
487
+ repo_info = {
488
+ "repo_name": repo_metadata.get("repo_name", repo_slug),
489
+ "description": repo_metadata.get("description", f"{repo_slug} for developers"),
490
+ "visibility": repo_metadata.get("visibility", "Private"),
491
+ # Les données dynamiques (watching, stars, forks) sont à 0 pour l'instant
492
+ "license": repo_metadata.get("license_template", "No license"),
493
+ }
494
+ response_data['repo_info'] = repo_info
495
+ except Exception as e:
496
+ logger.error(f"Erreur lors de la récupération des métadonnées du dépôt {user_id}/{repo_slug}: {e}")
497
+ # Continuer même en cas d'erreur de métadonnées pour charger au moins les fichiers
498
+ response_data['repo_info'] = {}
499
+
500
+ # 2. Récupérer la liste des fichiers du dépôt
501
+ file_list, file_message = list_repo_files_from_hf(repo_slug, user_id)
502
+
503
+ if not file_list and "404" in file_message:
504
+ # Le dépôt existe dans les métadonnées mais est vide sur HF (pas de fichiers)
505
+ response_data['file_list'] = []
506
+ elif not file_list:
507
+ logger.error(f"Échec de la liste des fichiers pour {user_id}/{repo_slug}: {file_message}")
508
+ return jsonify({"success": False, "message": f"Échec de la récupération des fichiers: {file_message}"}), 500
509
+ else:
510
+ # Trier et structurer les données de fichiers pour le frontend
511
+ # (Vous pouvez implémenter un tri par type/nom ici si nécessaire)
512
+ response_data['file_list'] = file_list
513
+
514
+ # 3. Récupérer le contenu du README.md
515
+ readme_path = f"{user_id}/{repo_slug}/README.md"
516
+ readme_content, readme_message = get_file_content_from_hf(readme_path)
517
+
518
+ if readme_content:
519
+ response_data['readme_content'] = readme_content
520
+ else:
521
+ # README.md est optionnel
522
+ logger.info(f"README.md non trouvé ou erreur pour {user_id}/{repo_slug}: {readme_message}")
523
+ response_data['readme_content'] = f"Pas de fichier README.md trouvé pour le dépôt {repo_slug}."
524
+
525
+ # 4. Succès
526
+ return jsonify({"success": True, "data": response_data}), 200
527
+
528
+ @project_bp.route("/api/file_content/<repo_slug>", methods=["GET"])
529
+ @api_session_required
530
+ def get_file_content_api(repo_slug, client_user):
531
+ """
532
+ Route API pour récupérer le contenu d'un fichier spécifique dans un dépôt.
533
+ URL: /api/file_content/<repo_slug>?path=<file_path>
534
+ """
535
+ # Récupérer l'ID utilisateur depuis le décorateur de session
536
+ user_id = client_user.get('user_id')
537
+ # Récupérer le chemin du fichier depuis le paramètre de requête 'path'
538
+ file_path = request.args.get('path')
539
+
540
+ if not user_id:
541
+ return jsonify({"success": False, "message": "Unauthorized. Missing user ID in session."}), 401
542
+
543
+ if not file_path:
544
+ return jsonify({"success": False, "message": "Missing 'path' query parameter."}), 400
545
+
546
+ # 1. Définir le préfixe de base du dépôt attendu dans le repo HF
547
+ repo_base_prefix = f"{user_id}/{repo_slug}/"
548
+
549
+
550
+ # Si le chemin reçu commence déjà par le préfixe du repo, on l'utilise tel quel.
551
+ if file_path.startswith(repo_base_prefix):
552
+ file_path_in_repo = file_path
553
+ # Si le chemin ne contient QUE le nom du fichier (Ex: Entreprises.html)
554
+ # ou un chemin relatif à la racine du dépôt (Ex: css/style.css), on le construit.
555
+ else:
556
+ file_path_in_repo = f"{user_id}/{repo_slug}/{file_path}"
557
+
558
+
559
+ # 1. Vérifie si le chemin contient l'ID du dataset principal dans sa structure
560
+ if "datasets/" in file_path:
561
+ # Tenter d'extraire la partie 'user_id/repo_slug/fichier'
562
+ try:
563
+
564
+ # Solution la plus simple et la plus fiable si le front-end envoie un chemin partiel (ex: 'Entreprises.html'):
565
+ file_path_in_repo = f"{user_id}/{repo_slug}/{file_path.split('/')[-1]}"
566
+
567
+ except:
568
+ # Si l'extraction échoue, on revient à la construction simple
569
+ file_path_in_repo = f"{user_id}/{repo_slug}/{file_path}"
570
+
571
+ # 2. Si le front-end a envoyé le chemin complet (user_id/repo_slug/fichier.ext), on l'utilise
572
+ elif file_path.startswith(user_id):
573
+ file_path_in_repo = file_path
574
+
575
+ # 3. Si le front-end a envoyé le chemin relatif (fichier.ext), on le construit
576
+ else:
577
+ file_path_in_repo = f"{user_id}/{repo_slug}/{file_path}"
578
+
579
+
580
+ # Appel de la fonction manager avec le chemin complet
581
+ # Note : La fonction n'attend qu'un seul argument de chemin
582
+ file_content, error_message = get_file_content_from_hf(
583
+ file_path_in_repo=file_path_in_repo,
584
+ repo_id=None # Utiliser la valeur par défaut HF_DATASET_REPO_ID dans la fonction
585
+ )
586
+
587
+
588
+ if file_content is not None:
589
+ # Succès
590
+ return jsonify({
591
+ "success": True,
592
+ "file_content": file_content
593
+ }), 200
594
+ else:
595
+ # Échec
596
+ # Utiliser un code 404 si le fichier n'existe pas, 500 pour les autres erreurs
597
+ status_code = 404 if "non trouvé" in error_message.lower() or "not found" in error_message.lower() else 500
598
+ return jsonify({"success": False, "message": f"Failed to retrieve file content: {error_message}"}), status_code
599
+
600
+ # PAR CES TROIS LIGNES:
601
+ # 1. Gère /live/<repo_slug> (sans slash final) -> Doit rediriger.
602
+ @project_bp.route("/live/<repo_slug>", methods=["GET"], defaults={'file_path': ''})
603
+ # 2. Gère /live/<repo_slug>/ (avec slash final, la racine du site) -> Sert index.html.
604
+ @project_bp.route("/live/<repo_slug>/", methods=["GET"], defaults={'file_path': 'index.html'})
605
+ # 3. Gère /live/<repo_slug>/file.html (tous les autres fichiers).
606
+ @project_bp.route("/live/<repo_slug>/<path:file_path>", methods=["GET"])
607
+ def get_live_deployment(repo_slug, file_path):
608
+ """
609
+ Route simulant le déploiement en direct d'un site statique.
610
+ """
611
+
612
+ # NOUVEAU: 1. VÉRIFIER ET FORCER LA BARRE OBLIQUE (TRAILING SLASH)
613
+ # Cette vérification ne se déclenchera que si la première route est utilisée.
614
+ if not file_path and not request.path.endswith('/'):
615
+ # Rediriger vers l'URL avec un slash final. Ex: /live/slug -> /live/slug/
616
+ # url_for génère correctement la nouvelle URL qui correspondra à la route #2.
617
+ return redirect(url_for('.get_live_deployment', repo_slug=repo_slug), code=302)
618
+
619
+ # Tenter de récupérer l'ID de l'utilisateur connecté (propriétaire)
620
+ user_id = session.get('user_id')
621
+
622
+ if not user_id:
623
+ # Pour une démo de site statique public, cette vérification est problématique si l'utilisateur est déconnecté.
624
+ # Pour l'instant, nous la gardons pour la sécurité mais cela peut causer le 404 si l'utilisateur n'est pas loggé.
625
+ return "Erreur 401: Non autorisé. ID utilisateur manquant dans la session. (Connexion requise).", 401
626
+
627
+
628
+ # 2. Déterminer le nom du fichier à charger
629
+ # Si la route par défaut 2 a été utilisée, file_path est 'index.html'. Sinon, il contient le chemin complet.
630
+ file_to_load = file_path.lstrip('/')
631
+
632
+ # 3. Définir le chemin complet du fichier dans le repo HF
633
+ # Structure: user_id/repo_slug/file_to_load
634
+ hf_file_path = f"{user_id}/{repo_slug}/{file_to_load}"
635
+
636
+ # 4. Récupérer le contenu
637
+ content, message = get_file_content_from_hf(hf_file_path)
638
+
639
+ if content:
640
+ # 5. Retourner le contenu HTML brut
641
+ return content, 200, {'Content-Type': 'text/html'}
642
+ else:
643
+ # Gérer l'erreur de fichier non trouvé
644
+ logger.error(f"Échec du déploiement en direct pour {repo_slug} ({file_to_load}): {message}")
645
+
646
+ return render_template(
647
+ "deployment_error.html",
648
+ message=f"Impossible de trouver le fichier {file_to_load} dans le dépôt '{repo_slug}'.",
649
+ repo_slug=repo_slug
650
+ ), 404
651
+
652
+
653
+ @project_bp.route("/mindus/nexus/commit_file", methods=["POST"])
654
+ @api_session_required
655
+ def commit_file(client_user): # <-- AJOUTER 'client_user' ici
656
+ """
657
+ Crée ou met à jour un fichier dans un dépôt d'utilisateur sur HF.
658
+ """
659
+ # Utiliser l'ID fourni par le décorateur, ou session si besoin
660
+ user_id = client_user.get('user_id')
661
+ data = request.json
662
+
663
+ # Validation des données (user_id est maintenant mieux géré)
664
+ repo_slug = data.get('repo_slug')
665
+ file_path = data.get('file_path') # Chemin relatif (ex: 'index.html')
666
+ file_content = data.get('file_content')
667
+ commit_title = data.get('commit_title', f"Update {file_path}") # Message de commit
668
+
669
+ # Note: On laisse la validation sur user_id même si le décorateur l'a vérifié, par sécurité
670
+ if not all([user_id, repo_slug, file_path, file_content]):
671
+ return jsonify({"success": False, "message": "Missing required fields (repo_slug, file_path, file_content). A valid user session is also required."}), 400
672
+
673
+ # Note: Dans un environnement réel, on vérifierait si le commit_title est vide, etc.
674
+
675
+ success, message = commit_file_to_hf(
676
+ repo_slug=repo_slug,
677
+ user_id=user_id,
678
+ file_path=file_path,
679
+ file_content=file_content,
680
+ commit_message=commit_title
681
+ )
682
+
683
+ if success:
684
+ # Répondre avec un message de succès
685
+ return jsonify({"success": True, "message": "File committed successfully."}), 200
686
+ else:
687
+ # En cas d'échec du commit (400 si c'est un conflit/erreur utilisateur, 500 pour une erreur serveur)
688
+ # Simplification: on renvoie 500 pour toute erreur d'API pour l'instant.
689
+ return jsonify({"success": False, "message": f"Commit failed: {message}"}), 500
690
+
691
+
692
+ @project_bp.route("/mindus/nexus/list_repo_files/<repo_slug>", methods=["GET"])
693
+ @api_session_required
694
+ def list_repo_files_api(repo_slug, client_user): # <-- AJOUTER 'client_user' ici
695
+ """
696
+ Liste les fichiers dans un dépôt d'utilisateur spécifique.
697
+ """
698
+ # Utiliser l'ID fourni par le décorateur
699
+ user_id = client_user.get('user_id')
700
+
701
+ if not user_id:
702
+ return jsonify({"success": False, "message": "Unauthorized. Missing user ID in session."}), 401
703
+
704
+ # Le chemin dans le HF Dataset est user_id/repo_slug
705
+ repo_path_on_hf = f"{user_id}/{repo_slug}"
706
+
707
+ # Utilise la fonction list_repo_files_from_hf existante
708
+ # CORRECTION : La fonction list_repo_files_from_hf prend user_id et repo_slug séparemment
709
+ file_list, message = list_repo_files_from_hf(repo_slug, user_id)
710
+
711
+ if file_list is not None:
712
+ # Le contenu de file_list est déjà une liste de strings
713
+ return jsonify({"success": True, "files": file_list}), 200
714
+ else:
715
+ # Gérer l'erreur de fichier non trouvé (souvent un 404 pour un repo inexistant ou vide)
716
+ # Simplification: 404 si la liste est None
717
+ return jsonify({"success": False, "message": f"Failed to list files: {message}"}), 404
718
+
719
+
720
+ @project_bp.route('/mindus/nexus/save_file_content', methods=['POST'])
721
+ @login_required
722
+ @api_session_required
723
+ def save_file_content(client_user=None): # <-- CORRECTION APPLIQUÉE ICI
724
+ """Route API pour créer manuellement un nouveau fichier ou sauvegarder un fichier existant
725
+ dans un dépôt spécifique via le repo_slug."""
726
+
727
+ # 1. Récupération de l'ID utilisateur
728
+ # Note: On peut garder la récupération depuis session pour être cohérent avec l'ancienne logique
729
+ # (ou utiliser client_user si vos décorateurs fournissent l'ID directement).
730
+ user_id = session.get('user_id')
731
+ if not user_id:
732
+ # Ceci ne devrait normalement pas arriver si @login_required fonctionne correctement
733
+ return jsonify({"success": False, "error": "Session invalide ou authentification requise."}), 401
734
+
735
+ data = request.get_json()
736
+
737
+ # 2. Récupération des données du corps de la requête (JSON)
738
+ repo_slug = data.get('repo_slug') # Le slug du dépôt (ex: 'mailix')
739
+ file_path = data.get('file_path') # Le chemin du fichier (ex: 'nouveau.md' ou 'src/config.json')
740
+ file_content = data.get('file_content') # Le contenu complet à sauvegarder
741
+
742
+ # Message de commit par défaut, si non fourni par le frontend
743
+ commit_message = data.get('commit_message', f"Commit via editor: Sauvegarde de {file_path}")
744
+
745
+ if not all([repo_slug, file_path, file_content]):
746
+ return jsonify({"success": False, "error": "Paramètres manquants: 'repo_slug', 'file_path', et 'file_content' sont requis."}), 400
747
+
748
+ # 3. Appel de la fonction de sauvegarde
749
+ success, message = save_file_content_to_hf(
750
+ user_id=user_id,
751
+ repo_slug=repo_slug,
752
+ file_path=file_path,
753
+ file_content=file_content,
754
+ commit_message=commit_message
755
+ # repo_id, repo_type et branch utiliseront les valeurs par défaut ou de configuration
756
+ )
757
+
758
+ # 4. Réponse au frontend
759
+ if success:
760
+ return jsonify({"success": True, "message": message}), 200
761
+ else:
762
+ # Si save_file_content_to_hf retourne False, on renvoie l'erreur détaillée
763
+ return jsonify({"success": False, "error": message}), 500
764
+
765
+ @project_bp.route('/api/files/<repo_slug>/delete', methods=['POST'])
766
+ @api_session_required
767
+ def delete_file_from_repo(client_user, repo_slug):
768
+ """
769
+ Gère la suppression d'un fichier spécifique du dépôt utilisateur sur Hugging Face.
770
+ Nécessite 'file_path' dans le corps JSON de la requête.
771
+ """
772
+ user_id = client_user.get('user_id')
773
+
774
+ if not user_id:
775
+ return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
776
+
777
+ data = request.get_json()
778
+ file_path = data.get('file_path')
779
+
780
+ if not file_path:
781
+ return jsonify({"success": False, "message": "Le chemin du fichier ('file_path') est obligatoire pour la suppression."}), 400
782
+
783
+ # Message de commit par défaut
784
+ commit_message = data.get('commit_message', f"Delete file: {file_path}")
785
+
786
+ # --- ÉTAPE CLÉ : Appel de la nouvelle fonction du backend ---
787
+ success, message = delete_file_from_hf_repo(
788
+ repo_slug=repo_slug,
789
+ user_id=user_id,
790
+ file_path=file_path,
791
+ commit_message=commit_message
792
+ )
793
+
794
+ if success:
795
+ logger.info(f"Fichier {file_path} supprimé du dépôt {repo_slug} par {user_id}.")
796
+ return jsonify({
797
+ "success": True,
798
+ "message": message,
799
+ }), 200
800
+ else:
801
+ logger.error(f"Échec de la suppression du fichier {file_path} pour {user_id}/{repo_slug}: {message}")
802
+ # Statut 500 pour Erreur Serveur Interne si la suppression backend échoue
803
+ return jsonify({"success": False, "message": message}), 500
804
+
805
+ # project_routes.py (après les routes existantes)
806
+
807
+ @project_bp.route("/apply", methods=["POST"])
808
+ def submit_application():
809
+ """
810
+ Route publique pour soumettre une candidature.
811
+
812
+ Attend une requête multipart/form-data contenant :
813
+ - 'application_json': une chaîne JSON des données du formulaire.
814
+ - 'document_file': le fichier PDF ou DOCX.
815
+ """
816
+
817
+ # 1. Générer un ID unique pour cette candidature
818
+ application_id = str(uuid.uuid4())
819
+
820
+ # 2. Extraction et validation des données de la requête
821
+
822
+ # Récupérer le fichier
823
+ document_file = request.files.get('document_file')
824
+ if not document_file or document_file.filename == '':
825
+ return jsonify({"success": False, "message": "Le fichier de candidature ('document_file') est manquant."}), 400
826
+
827
+ # Récupérer les données JSON
828
+ application_json_str = request.form.get('application_json')
829
+ if not application_json_str:
830
+ return jsonify({"success": False, "message": "Les données du formulaire ('application_json') sont manquantes."}), 400
831
+
832
+ try:
833
+ application_data = json.loads(application_json_str)
834
+ except json.JSONDecodeError:
835
+ return jsonify({"success": False, "message": "Format JSON des données de candidature invalide."}), 400
836
+
837
+ # Validation du type de fichier (PDF ou DOCX)
838
+ allowed_extensions = ['.pdf', '.docx']
839
+ file_ext = os.path.splitext(document_file.filename)[1].lower()
840
+ if file_ext not in allowed_extensions:
841
+ return jsonify({"success": False, "message": f"Type de fichier non supporté. Seuls {', '.join(allowed_extensions)} sont autorisés."}), 400
842
+
843
+ # 3. Préparer les données pour la sauvegarde
844
+ application_data['application_id'] = application_id
845
+ application_data['submission_date'] = datetime.now().isoformat()
846
+ application_data['document_filename'] = document_file.filename
847
+ application_data['document_hf_path'] = f"document_applications/{application_id}{file_ext}" # Chemin pour référence dans le JSON
848
+
849
+ # --- 4. Sauvegarde du document (PDF/DOCX) sur IMAGE_STORAGE_HF_REPO_ID ---
850
+ doc_success, doc_message = upload_application_document_to_hf(
851
+ file_storage_obj=document_file,
852
+ application_id=application_id,
853
+ file_extension=file_ext,
854
+ )
855
+
856
+ if not doc_success:
857
+ logger.error(f"Échec du téléversement du document {application_id}: {doc_message}")
858
+ return jsonify({"success": False, "message": f"Échec du téléversement du document. Détail: {doc_message}"}), 500
859
+
860
+ # --- 5. Sauvegarde des données JSON du formulaire sur HF_DATASET_REPO_ID ---
861
+ json_success, json_message = save_application_json_to_hf(
862
+ application_data=application_data,
863
+ application_id=application_id,
864
+ )
865
+
866
+ if not json_success:
867
+ logger.error(f"Échec de la sauvegarde du JSON pour {application_id}: {json_message}")
868
+ # NOTE: Dans un cas réel, on essaierait de supprimer le document qui a réussi le téléversement (étape 4)
869
+ # pour éviter d'avoir un document sans données de formulaire, mais on se contente ici de notifier l'échec.
870
+ return jsonify({"success": False, "message": f"Échec de la sauvegarde des données du formulaire. Détail: {json_message}"}), 500
871
+
872
+ logger.info(f"Candidature complète soumise avec ID: {application_id}")
873
+ return jsonify({
874
+ "success": True,
875
+ "message": "Votre candidature a été soumise avec succès.",
876
+ "application_id": application_id
877
+ }), 200
878
+
879
+ # Dans project_routes.py
880
+
881
+ @project_bp.route("/submit_application_data", methods=["POST"])
882
+ def submit_application_data_only():
883
+ """
884
+ Route publique pour soumettre uniquement les données textuelles/JSON d'une candidature
885
+ (par exemple, si aucun CV/document n'est requis pour cette étape).
886
+
887
+ Attend une requête POST avec un corps de requête JSON.
888
+ """
889
+
890
+ # 1. Générer un ID unique pour cette candidature
891
+ application_id = str(uuid.uuid4())
892
+
893
+ # 2. Extraction des données JSON du corps de la requête
894
+ # 'request.get_json()' permet de lire directement le corps JSON
895
+ application_data = request.get_json(silent=True)
896
+
897
+ if not application_data or not isinstance(application_data, dict):
898
+ # Utiliser 'request.get_json(silent=True)' pour éviter une erreur si le Content-Type n'est pas bon
899
+ return jsonify({"success": False, "message": "Les données JSON du formulaire sont manquantes, invalides ou le 'Content-Type' n'est pas 'application/json'."}), 400
900
+
901
+ # 3. Préparer les données pour la sauvegarde
902
+ application_data['application_id'] = application_id
903
+ application_data['submission_date'] = datetime.now().isoformat()
904
+ # Ajout d'un champ pour indiquer qu'il n'y a pas de document
905
+ application_data['document_filename'] = "No document attached"
906
+ application_data['document_hf_path'] = None
907
+
908
+ # --- 4. Sauvegarde des données JSON du formulaire sur HF_DATASET_REPO_ID ---
909
+ json_success, json_message = save_application_json_to_hf(
910
+ application_data=application_data,
911
+ application_id=application_id,
912
+ commit_message=f"Ajout des données de candidature (JSON seulement): {application_id}"
913
+ )
914
+
915
+ if not json_success:
916
+ logger.error(f"Échec de la sauvegarde du JSON pour {application_id}: {json_message}")
917
+ return jsonify({"success": False, "message": f"Échec de la sauvegarde des données du formulaire. Détail: {json_message}"}), 500
918
+
919
+ logger.info(f"Candidature (données seulement) soumise avec ID: {application_id}")
920
+ return jsonify({
921
+ "success": True,
922
+ "message": "Vos données de formulaire ont été soumises avec succès.",
923
+ "application_id": application_id
924
+ }), 200
925
+
926
+ @project_bp.route('/api/repos/<repo_slug>', methods=['DELETE'])
927
+ @api_session_required
928
+ def delete_repo(client_user, repo_slug):
929
+ """
930
+ Gère la suppression complète d'un dépôt (dossier récursif) sur Hugging Face
931
+ et la mise à jour des métadonnées de l'utilisateur.
932
+ """
933
+ user_id = client_user.get('user_id')
934
+
935
+ if not user_id:
936
+ return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
937
+
938
+ if not repo_slug:
939
+ return jsonify({"success": False, "message": "Le slug du dépôt est manquant."}), 400
940
+
941
+ # 1. Récupérer le 'deploy_id' du dépôt à partir des métadonnées
942
+ # Nous avons besoin de cet ID pour identifier la bonne entrée dans le fichier metadata.json.
943
+ try:
944
+ metadata, _ = get_user_repo_metadata(user_id)
945
+ repo_to_delete = next(
946
+ (repo for repo in metadata.get("repos", []) if repo.get("repo_slug") == repo_slug),
947
+ None
948
+ )
949
+
950
+ if not repo_to_delete:
951
+ return jsonify({"success": False, "message": f"Dépôt '{repo_slug}' non trouvé dans les métadonnées de l'utilisateur."}), 404
952
+
953
+ deploy_id = repo_to_delete.get("FIELD_DEPLOY_ID")
954
+
955
+ except Exception as e:
956
+ logger.error(f"Erreur lors de la récupération des métadonnées pour supprimer {repo_slug}: {e}")
957
+ return jsonify({"success": False, "message": "Erreur interne lors de la lecture des métadonnées."}), 500
958
+
959
+ # 2. Appel de la fonction du backend pour la suppression
960
+ try:
961
+ success, message = delete_repo_folder_from_hf(
962
+ repo_slug=repo_slug,
963
+ user_id=user_id,
964
+ deploy_id=deploy_id,
965
+ commit_message=f"Suppression complète du dépôt {repo_slug} par l'utilisateur."
966
+ # repo_id sera utilisé par défaut (HF_DATASET_REPO_ID)
967
+ )
968
+
969
+ if success:
970
+ logger.info(f"Dépôt {repo_slug} supprimé avec succès par {user_id}.")
971
+ return jsonify({"success": True, "message": message}), 200
972
+ else:
973
+ logger.error(f"Échec de la suppression du dépôt {repo_slug}: {message}")
974
+ return jsonify({"success": False, "message": message}), 500 # 500 pour Erreur Serveur Interne
975
+
976
+ except Exception as e:
977
+ logger.exception(f"Erreur inattendue lors de la suppression du dépôt pour {user_id}/{repo_slug}: {e}")
978
+ return jsonify({"success": False, "message": f"Erreur interne: {str(e)}"}), 500
979
+
980
+ @project_bp.route("/mindus/nexus/repo_settings/<repo_slug>", methods=["GET"])
981
+ @login_required
982
+ def get_repo_settings_page(repo_slug):
983
+ """
984
+ Route (SSR) pour afficher la page des paramètres du dépôt (secrets/variables).
985
+ Nécessite 'repo_slug' en paramètre.
986
+ """
987
+ user_id = session.get('user_id')
988
+
989
+ if not repo_slug:
990
+ flash("Dépôt non spécifié pour les paramètres.", "error")
991
+ return redirect(url_for('user_bp.dashboard'))
992
+
993
+ # Charger les données utilisateur (pour le contexte Jinja2)
994
+ user_data = get_user_by_id(user_id)
995
+
996
+ return render_template(
997
+ 'repo_settings.html', # Assumer l'existence de ce template
998
+ user=user_data,
999
+ repo_slug=repo_slug
1000
+ )
1001
+
1002
+ @project_bp.route('/api/repo_data/<repo_slug>/items', methods=['GET'])
1003
+ @api_session_required
1004
+ def get_repo_items_api(client_user, repo_slug):
1005
+ """
1006
+ Récupère la liste des secrets ou des variables pour un dépôt spécifié.
1007
+ Utilise le paramètre de requête 'item_type' ('secret' ou 'variable').
1008
+ """
1009
+ user_id = client_user.get('user_id')
1010
+ # Récupérer le type d'élément depuis les paramètres de requête
1011
+ item_type = request.args.get('item_type')
1012
+
1013
+ if not user_id:
1014
+ return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
1015
+
1016
+ if item_type not in ['secret', 'variable']:
1017
+ return jsonify({"success": False, "message": "Type d'élément non valide. Utilisez 'secret' ou 'variable'."}), 400
1018
+
1019
+ try:
1020
+ # Appel de la fonction manager
1021
+ items_list, message = get_repo_secrets_or_variables(
1022
+ user_id=user_id,
1023
+ repo_slug=repo_slug,
1024
+ item_type=item_type
1025
+ )
1026
+
1027
+ # Note: Si c'est un secret, la valeur est masquée par le backend.
1028
+ return jsonify({"success": True, "items": items_list, "message": message}), 200
1029
+
1030
+ except Exception as e:
1031
+ logger.exception(f"Erreur lors de la récupération des {item_type}s pour {user_id}/{repo_slug}: {e}")
1032
+ return jsonify({"success": False, "message": f"Erreur interne lors de l'accès aux {item_type}s: {str(e)}"}), 500
1033
+
1034
+ @project_bp.route('/api/repo_data/<repo_slug>/update_item', methods=['POST'])
1035
+ @api_session_required
1036
+ def update_repo_item_api(client_user, repo_slug):
1037
+ """
1038
+ Crée ou met à jour un secret ou une variable (basé sur le nom) pour un dépôt spécifié.
1039
+ Les données requises sont envoyées en JSON.
1040
+ """
1041
+ user_id = client_user.get('user_id')
1042
+ data = request.get_json()
1043
+
1044
+ if not user_id:
1045
+ return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
1046
+
1047
+ # Récupération des données du corps JSON
1048
+ item_type = data.get('item_type') # 'secret' ou 'variable'
1049
+ name = data.get('name')
1050
+ value = data.get('value')
1051
+ description = data.get('description') # Optionnel
1052
+
1053
+ if item_type not in ['secret', 'variable']:
1054
+ return jsonify({"success": False, "message": "Type d'élément non valide. Utilisez 'secret' ou 'variable'."}), 400
1055
+
1056
+ if not all([name, value]):
1057
+ return jsonify({"success": False, "message": "Les champs 'name' et 'value' sont obligatoires."}), 400
1058
+
1059
+ try:
1060
+ # Appel de la fonction manager pour la mise à jour atomique
1061
+ success, message = update_repo_secrets_or_variables(
1062
+ user_id=user_id,
1063
+ repo_slug=repo_slug,
1064
+ item_type=item_type,
1065
+ name=name,
1066
+ value=value,
1067
+ description=description
1068
+ )
1069
+
1070
+ if success:
1071
+ return jsonify({"success": True, "message": message}), 201
1072
+ else:
1073
+ return jsonify({"success": False, "message": message}), 500
1074
+
1075
+ except Exception as e:
1076
+ logger.exception(f"Erreur inattendue lors de la mise à jour du {item_type} pour {user_id}/{repo_slug}: {e}")
1077
+ return jsonify({"success": False, "message": f"Erreur interne lors de la mise à jour: {str(e)}"}), 500
1078
+
1079
+ # Route pour SUPPRIMER un secret/variable (DELETE)
1080
+ @project_bp.route('/api/repo_data/<repo_slug>/items', methods=['DELETE'])
1081
+ @api_session_required
1082
+ def delete_repo_item_api(client_user, repo_slug):
1083
+ """
1084
+ Supprime un secret ou une variable pour un dépôt donné.
1085
+ Paramètres de requête requis : item_type ('secret' ou 'variable') et name.
1086
+ URL appelée par le front-end : /api/repo_data/<repo_slug>/items?item_type=secret&name=MON_SECRET
1087
+ """
1088
+ user_id = client_user.get('user_id')
1089
+
1090
+ # Récupération des paramètres de requête (query parameters)
1091
+ item_type = request.args.get('item_type') # 'secret' ou 'variable'
1092
+ name = request.args.get('name') # Nom de l'élément à supprimer
1093
+
1094
+ if not user_id:
1095
+ return jsonify({"success": False, "message": "Erreur d'authentification: ID utilisateur manquant."}), 401
1096
+
1097
+ if item_type not in ['secret', 'variable']:
1098
+ return jsonify({"success": False, "message": "Le paramètre 'item_type' est invalide. Utilisez 'secret' ou 'variable'."}), 400
1099
+
1100
+ if not name:
1101
+ return jsonify({"success": False, "message": "Le paramètre 'name' de l'élément à supprimer est manquant."}), 400
1102
+
1103
+ try:
1104
+ # Appel de la fonction de suppression
1105
+ # (Nécessite que delete_repo_secret_or_variable soit bien importée en haut du fichier)
1106
+ success, message = delete_repo_secret_or_variable(
1107
+ user_id=user_id,
1108
+ repo_slug=repo_slug,
1109
+ item_type=item_type,
1110
+ name=name
1111
+ )
1112
+
1113
+ if success:
1114
+ logger.info(f"Suppression réussie du {item_type} '{name}' pour {repo_slug}.")
1115
+ return jsonify({"success": True, "message": message}), 200 # 200 OK pour une suppression réussie
1116
+ else:
1117
+ logger.error(f"Échec de la suppression du {item_type} '{name}' pour {repo_slug}: {message}")
1118
+ # Si l'élément n'est pas trouvé, on peut renvoyer 404 (mais 500 pour les autres erreurs backend)
1119
+ return jsonify({"success": False, "message": message}), 500
1120
+
1121
+ except Exception as e:
1122
+ logger.exception(f"Erreur interne lors de la suppression du {item_type} pour {repo_slug}: {e}")
1123
+ return jsonify({"success": False, "message": f"Erreur interne du serveur: {str(e)}"}), 500
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/pull_request_backend.py ADDED
@@ -0,0 +1,607 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # pull_request_backend.py (Mise à jour pour autonomie)
2
+
3
+ import uuid
4
+ from datetime import datetime
5
+ import logging
6
+ from typing import Optional, Dict, List
7
+ from io import BytesIO # NOUVEL IMPORT pour la manipulation des fichiers
8
+
9
+ # Importations spécifiques à Hugging Face pour l'autonomie
10
+ from huggingface_hub import HfApi, HfFileSystem, CommitOperationAdd
11
+ from huggingface_hub.utils import HfHubHTTPError # CORRECTION: Import de l'exception depuis 'huggingface_hub.utils'
12
+
13
+ # Importations des variables de configuration
14
+ from config import (
15
+ PULL_REQUESTS_HF_REPO_ID,
16
+ HF_DATASET_REPO_ID,
17
+ # IMAGE_STORAGE_HF_REPO_ID, # Non utilisé directement ici
18
+ HF_TOKEN # Utile pour l'API
19
+ )
20
+
21
+ # --- Initialisation de l'API et du FileSystem ---
22
+ api = HfApi(token=HF_TOKEN) # NOUVEAU : Initialisation de l'API HF
23
+ fs = HfFileSystem(token=HF_TOKEN) # NOUVEAU : Initialisation du FileSystem HF
24
+
25
+ # Nouvelle structure d'importation pour l'autonomie des fonctions de branche :
26
+ from huggingface_repo_manager import (
27
+ load_json_file_from_hf,
28
+ save_json_file_to_hf,
29
+ get_diff_between_branches,
30
+ check_for_conflicts,
31
+ execute_merge_commit,
32
+ get_user_repo_metadata,
33
+ )
34
+
35
+ PR_DATA_FOLDER_NAME = "pr_data"
36
+
37
+ logger = logging.getLogger(__name__)
38
+
39
+ # --- Constantes ---
40
+ PR_FILE_PATH_TEMPLATE = "pr_data/{user_id}/{repo_slug}/prs.json"
41
+
42
+ # --- Fonctions de Métadonnées (Interaction avec prs.json) ---
43
+
44
+ def _get_pr_file_path(repo_slug: str, user_id: str) -> str:
45
+ """Construit le chemin d'accès au fichier prs.json."""
46
+ return PR_FILE_PATH_TEMPLATE.format(user_id=user_id, repo_slug=repo_slug)
47
+
48
+ def load_all_prs_from_hf(repo_slug: str, user_id: str) -> List[Dict]:
49
+ """Charge l'intégralité du fichier prs.json du dépôt spécifié."""
50
+ if not PULL_REQUESTS_HF_REPO_ID:
51
+ # Erreur de configuration
52
+ return []
53
+
54
+ file_path = _get_pr_file_path(repo_slug, user_id)
55
+
56
+ pr_data, msg = load_json_file_from_hf(
57
+ file_path=file_path,
58
+ repo_id=PULL_REQUESTS_HF_REPO_ID
59
+ )
60
+
61
+ # Si le fichier n'existe pas ou erreur, on retourne une liste vide.
62
+ if pr_data is None or "prs" not in pr_data:
63
+ return []
64
+
65
+ return pr_data.get("prs", [])
66
+
67
+ # NOUVEAU CODE (RÉSOUD LE PROBLÈME) :
68
+ def _get_user_repository_slugs_placeholder(user_id: str) -> List[str]:
69
+ """
70
+ RÉSOLUTION DU PROBLÈME : Récupère la liste réelle des slugs de dépôts de l'utilisateur
71
+ à partir des métadonnées stockées sur Hugging Face (via get_user_repo_metadata).
72
+
73
+ Ceci rend la fonction 'load_all_user_prs' beaucoup plus robuste.
74
+ """
75
+ try:
76
+ # NOTE: get_user_repo_metadata est la fonction qui lit le fichier
77
+ # des métadonnées utilisateur pour trouver les dépôts.
78
+ metadata, _ = get_user_repo_metadata(user_id)
79
+ except Exception as e:
80
+ # En cas d'échec de la lecture ou d'erreur API, on logge et retourne []
81
+ # logger.error(f"Échec de la récupération des métadonnées pour charger les PRs: {e}")
82
+ return []
83
+
84
+ # Les données utilisateur contiennent une liste de dépôts sous la clé 'repos'.
85
+ if metadata and isinstance(metadata.get("repos"), list):
86
+ # Extrait et retourne uniquement les slugs (repo_slug) de tous les dépôts trouvés.
87
+ return [repo.get('repo_slug') for repo in metadata["repos"] if repo.get('repo_slug')]
88
+
89
+ return [] # Retourne une liste vide si aucun dépôt n'est trouvé.
90
+
91
+ def load_all_user_prs(user_id: str) -> List[Dict]:
92
+ """
93
+ Charge toutes les Pull Requests pour TOUS les dépôts appartenant à un utilisateur.
94
+ Utilisé pour le tableau de bord (dashboard).
95
+ """
96
+ all_prs: List[Dict] = []
97
+
98
+ # 1. Récupérer la liste des slugs de dépôts de l'utilisateur
99
+ repo_slugs = _get_user_repository_slugs_placeholder(user_id)
100
+
101
+ for repo_slug in repo_slugs:
102
+ # 2. Réutiliser la fonction existante pour charger les PRs d'un seul dépôt
103
+ try:
104
+ prs_for_repo = load_all_prs_from_hf(repo_slug, user_id)
105
+ except Exception as e:
106
+ # Gérer les cas où le fichier prs.json n'existe pas pour un repo
107
+ logger.warning(f"Impossible de charger les PRs pour le dépôt {repo_slug}: {e}")
108
+ continue
109
+
110
+ # 3. Ajouter le repo_slug à chaque PR (essentiel pour l'affichage dashboard)
111
+ for pr in prs_for_repo:
112
+ pr['repo_slug'] = repo_slug
113
+ all_prs.append(pr)
114
+
115
+ return all_prs
116
+
117
+ def save_all_prs_to_hf(repo_slug: str, user_id: str, pr_list: List[Dict]) -> tuple[bool, str]:
118
+ """Sérialise et enregistre la liste complète des PR dans le fichier prs.json."""
119
+ if not PULL_REQUESTS_HF_REPO_ID:
120
+ return False, "Erreur de configuration: PULL_REQUESTS_HF_REPO_ID manquant."
121
+
122
+ file_path = _get_pr_file_path(repo_slug, user_id)
123
+ data_to_save = {"prs": pr_list}
124
+ commit_msg = f"Mise à jour des métadonnées des PR pour {repo_slug}."
125
+
126
+ return save_json_file_to_hf(
127
+ file_path=file_path,
128
+ data=data_to_save,
129
+ commit_message=commit_msg,
130
+ repo_id=PULL_REQUESTS_HF_REPO_ID
131
+ )
132
+
133
+ def create_pull_request(
134
+ repo_slug: str,
135
+ source_branch: str,
136
+ target_branch: str,
137
+ title: str,
138
+ description: str,
139
+ user_id: str
140
+ ) -> tuple[Optional[str], str]:
141
+ """
142
+ Crée et enregistre une nouvelle PR.
143
+ Le processus inclut l'initialisation de la branche source de PR
144
+ (copie du contenu du dépôt principal).
145
+ """
146
+
147
+ pr_id = str(uuid.uuid4())[:8] # ID court
148
+
149
+ # --- NOUVELLE VÉRIFICATION DE LA CONVENTION DE BRANCHE CIBLE ---
150
+ # Selon la nouvelle convention, la branche cible (principale) est le repo_slug lui-même.
151
+ if target_branch != repo_slug:
152
+ # On force la valeur à la convention structurelle.
153
+ logger.warning(f"Target branch ajustée de '{target_branch}' au repo_slug '{repo_slug}'.")
154
+ target_branch = repo_slug
155
+
156
+ # 1. CRÉATION ET INITIALISATION DE LA BRANCHE DE PR (source_branch)
157
+ # L'étape cruciale : copier les fichiers du dépôt de base vers le chemin isolé de la PR.
158
+ # Cette fonction est maintenant définie dans ce fichier.
159
+ branch_success, branch_msg = create_new_pr_branch(
160
+ user_id=user_id,
161
+ repo_slug=repo_slug,
162
+ new_branch_name=source_branch
163
+ )
164
+
165
+ if not branch_success:
166
+ # Si la copie des fichiers échoue, on arrête la création de la PR.
167
+ return None, f"Échec de l'initialisation de la branche de PR '{source_branch}': {branch_msg}"
168
+
169
+ # 2. Charger la liste existante des métadonnées de PR
170
+ pr_list = load_all_prs_from_hf(repo_slug, user_id)
171
+
172
+ new_pr = {
173
+ "pr_id": pr_id,
174
+ "repo_slug": repo_slug,
175
+ "source_branch": source_branch, # Ex: 'feature-x'
176
+ "target_branch": target_branch, # Ex: 'mon-depot-slug'
177
+ "title": title,
178
+ "description": description,
179
+ "status": "Open",
180
+ "created_by": user_id,
181
+ "created_at": datetime.utcnow().isoformat(),
182
+ "merged_at": None,
183
+ "closed_at": None,
184
+ }
185
+
186
+ # 3. Ajouter la nouvelle PR à la liste des métadonnées
187
+ pr_list.append(new_pr)
188
+
189
+ # 4. Enregistrer la liste mise à jour des métadonnées de PR
190
+ success, msg = save_all_prs_to_hf(repo_slug, user_id, pr_list)
191
+
192
+ if success:
193
+ return pr_id, f"Pull Request créée avec succès. La branche '{source_branch}' est prête pour les modifications."
194
+ else:
195
+ # La branche a été créée, mais l'enregistrement de la PR a échoué.
196
+ return None, f"Échec de l'enregistrement des métadonnées de la PR: {msg}. La branche a été créée, mais la PR n'est pas tracée."
197
+
198
+ def get_pull_request_by_id(pr_id: str, repo_slug: str, user_id: str) -> Optional[Dict]:
199
+ """Récupère une PR spécifique par son ID."""
200
+ pr_list = load_all_prs_from_hf(repo_slug, user_id)
201
+ return next((pr for pr in pr_list if pr['pr_id'] == pr_id), None)
202
+
203
+ def update_pull_request_status(pr_id: str, repo_slug: str, user_id: str, new_status: str) -> tuple[bool, str]:
204
+ """Met à jour l'état (Open, Closed, Merged) d'une PR existante."""
205
+ pr_list = load_all_prs_from_hf(repo_slug, user_id)
206
+
207
+ pr_to_update = next((pr for pr in pr_list if pr['pr_id'] == pr_id), None)
208
+
209
+ if pr_to_update is None:
210
+ return False, f"Pull Request ID {pr_id} non trouvée."
211
+
212
+ pr_to_update['status'] = new_status
213
+
214
+ if new_status == "Closed":
215
+ pr_to_update['closed_at'] = datetime.utcnow().isoformat()
216
+ elif new_status == "Merged":
217
+ pr_to_update['merged_at'] = datetime.utcnow().isoformat()
218
+
219
+ return save_all_prs_to_hf(repo_slug, user_id, pr_list)
220
+
221
+ # --- Fonctions Cœur de Git/Hugging Face (Appels au Storage) ---
222
+
223
+ def get_pr_diff(repo_slug: str, user_id: str, pr_id: str) -> tuple[Optional[Dict], str]:
224
+ """Calcule et retourne la liste des fichiers modifiés et les différences pour une PR."""
225
+ pr = get_pull_request_by_id(pr_id, repo_slug, user_id)
226
+ if not pr:
227
+ return None, f"Pull Request ID {pr_id} introuvable."
228
+
229
+ # Appel à la fonction de stockage
230
+ return get_diff_between_branches(
231
+ repo_slug,
232
+ user_id,
233
+ pr['source_branch'],
234
+ pr['target_branch']
235
+ )
236
+
237
+ def check_pr_merge_status(repo_slug: str, user_id: str, pr_id: str) -> tuple[bool, List[str], str]:
238
+ """Vérifie les conflits pour une PR."""
239
+ pr = get_pull_request_by_id(pr_id, repo_slug, user_id)
240
+ if not pr:
241
+ return False, [], f"Pull Request ID {pr_id} introuvable."
242
+
243
+ # Appel à la fonction de stockage
244
+ return check_for_conflicts(
245
+ repo_slug,
246
+ user_id,
247
+ pr['source_branch'],
248
+ pr['target_branch']
249
+ )
250
+
251
+ def merge_pull_request(pr_id: str, repo_slug: str, user_id: str, committer_id: str) -> tuple[bool, str]:
252
+ """Exécute la fusion et met à jour le statut."""
253
+ pr = get_pull_request_by_id(pr_id, repo_slug, user_id)
254
+ if not pr:
255
+ return False, f"Pull Request ID {pr_id} introuvable."
256
+
257
+ if pr['status'] != 'Open':
258
+ return False, f"La PR n'est pas ouverte (Statut actuel: {pr['status']})."
259
+
260
+ # 1. Vérification finale des conflits
261
+ can_merge, conflicts, msg = check_pr_merge_status(repo_slug, user_id, pr_id)
262
+
263
+ if not can_merge:
264
+ return False, f"Impossible de fusionner en raison de conflits: {', '.join(conflicts)}"
265
+
266
+ # 2. Exécuter la fusion (Appel à la fonction de stockage - placeholder)
267
+ merge_message = f"Merge branch '{pr['source_branch']}' into '{pr['target_branch']}' (PR #{pr_id})"
268
+ success_merge, merge_msg = execute_merge_commit(
269
+ repo_slug,
270
+ user_id,
271
+ pr['source_branch'],
272
+ pr['target_branch'],
273
+ merge_message,
274
+ committer_id # L'utilisateur qui exécute la fusion
275
+ )
276
+
277
+ if not success_merge:
278
+ return False, f"Échec de la fusion Git: {merge_msg}"
279
+
280
+ # 3. Mettre à jour le statut de la PR
281
+ return update_pull_request_status(pr_id, repo_slug, user_id, "Merged")
282
+
283
+
284
+ def create_new_pr_branch(
285
+ user_id: str,
286
+ repo_slug: str,
287
+ new_branch_name: str
288
+ ) -> tuple[bool, str]:
289
+ """
290
+ Crée une nouvelle branche de PR en copiant le contenu du dépôt principal
291
+ vers le dépôt PRs sous un chemin isolé ({user_id}/{repo_slug}/{new_branch_name}).
292
+ """
293
+ if not new_branch_name:
294
+ return False, "Le nom de la nouvelle branche ne peut pas être vide."
295
+
296
+ # La branche est toujours créée à partir de 'main' dans ce contexte (target_branch)
297
+ # L'étape 1 est la copie des fichiers
298
+ # Appel à l'implémentation locale de 'copy_repo_to_new_branch_in_pr_repo'
299
+ success, message = copy_repo_to_new_branch_in_pr_repo(
300
+ user_id=user_id,
301
+ repo_slug=repo_slug,
302
+ new_branch_name=new_branch_name,
303
+ pr_repo_id=PULL_REQUESTS_HF_REPO_ID # Utilise la variable importée
304
+ )
305
+
306
+ if success:
307
+ return True, f"Branche de PR '{new_branch_name}' créée et initialisée avec les fichiers du dépôt principal."
308
+ else:
309
+ logger.error(f"Échec de la création de la branche de PR pour {repo_slug}/{new_branch_name}: {message}")
310
+ return False, f"Échec de la création de la branche : {message}"
311
+
312
+
313
+ def get_files_in_pr_branch(pr_id: str, repo_slug: str, user_id: str) -> tuple[List[str], str]:
314
+ """
315
+ Récupère la liste de tous les fichiers dans la branche source (source_branch)
316
+ d'une Pull Request spécifique.
317
+ Fonction métier pour le Front-end.
318
+ """
319
+ pr = get_pull_request_by_id(pr_id, repo_slug, user_id)
320
+ if not pr:
321
+ return [], f"Pull Request ID {pr_id} introuvable."
322
+
323
+ branch_name = pr['source_branch']
324
+
325
+ # 1. Utilise la fonction locale de gestion de Hugging Face
326
+ file_list, error_msg = list_files_in_pr_branch(
327
+ user_id=user_id,
328
+ repo_slug=repo_slug,
329
+ branch_name=branch_name,
330
+ pr_repo_id=PULL_REQUESTS_HF_REPO_ID # La constante importée de config
331
+ )
332
+
333
+ # 2. Ajoute une couche de gestion des erreurs si le manager retourne un message
334
+ if error_msg:
335
+ # On logge une erreur (c'est déjà fait dans le manager, mais on peut ici retourner un message
336
+ # plus général au Front-end si nécessaire. On retourne ici le message d'erreur du manager)
337
+ return [], error_msg
338
+
339
+ # 3. Retourne la liste des fichiers et un message vide
340
+ return file_list, ""
341
+
342
+
343
+ # --- CORRECTION D'INDENTATION : Cette fonction n'est plus imbriquée ---
344
+ def get_pr_file_content(pr_id: str, repo_slug: str, user_id: str, file_path: str) -> tuple[Optional[str], str]:
345
+ """
346
+ Récupère le contenu d'un fichier spécifique à partir de la branche source de la PR.
347
+ """
348
+ pr = get_pull_request_by_id(pr_id, repo_slug, user_id)
349
+ if not pr:
350
+ return None, f"Pull Request ID {pr_id} introuvable."
351
+
352
+ branch_name = pr['source_branch']
353
+
354
+ # Appel à la fonction locale
355
+ return get_file_content_from_pr_branch(
356
+ user_id=user_id,
357
+ repo_slug=repo_slug,
358
+ branch_name=branch_name,
359
+ file_path=file_path,
360
+ pr_repo_id=PULL_REQUESTS_HF_REPO_ID
361
+ )
362
+
363
+ # =========================================================================
364
+ # === NOUVELLES FONCTIONS DE GESTION DE BRANCHE (Autonomisation du Fichier)
365
+ # =========================================================================
366
+
367
+ # Le routeur backend devra appeler cette fonction lorsque
368
+ def copy_repo_to_new_branch_in_pr_repo(
369
+ user_id: str,
370
+ repo_slug: str,
371
+ new_branch_name: str,
372
+ pr_repo_id: Optional[str] = None # PULL_REQUESTS_HF_REPO_ID
373
+ ) -> tuple[bool, str]:
374
+ """
375
+ Copie récursivement tous les fichiers et dossiers d'un dépôt utilisateur/slug
376
+ vers un nouveau chemin dans le dépôt des Pull Requests.
377
+
378
+ Le chemin source est : HF_DATASET_REPO_ID / {user_id}/{repo_slug}
379
+ Le chemin cible est : PR_REPO_ID / {user_id}/{repo_slug}/{new_branch_name}
380
+ """
381
+ source_repo_id = HF_DATASET_REPO_ID
382
+ target_repo_id = pr_repo_id if pr_repo_id else PULL_REQUESTS_HF_REPO_ID
383
+
384
+ if not source_repo_id or not target_repo_id:
385
+ return False, "Erreur de configuration: Repository source ou cible Hugging Face non défini."
386
+
387
+ source_path_in_repo = f"{user_id}/{repo_slug}"
388
+ target_base_path = f"{source_path_in_repo}/{new_branch_name}"
389
+
390
+ # 1. Lister les fichiers dans le dépôt source
391
+ source_hf_path = f"datasets/{source_repo_id}/{source_path_in_repo}"
392
+
393
+ try:
394
+ # Utiliser HfFileSystem pour lister récursivement le contenu
395
+ # NOTE: Le chemin d'accès HfFileSystem nécessite le format 'hf://datasets/{repo_id}/...'
396
+ full_source_hf_path = f"hf://datasets/{source_repo_id}/{source_path_in_repo}"
397
+
398
+ all_items = fs.ls(full_source_hf_path, detail=True, recursive=True)
399
+
400
+ files_to_copy = [
401
+ item for item in all_items
402
+ if item.get('type') == 'file'
403
+ ]
404
+
405
+ if not files_to_copy:
406
+ return True, f"Aucun fichier trouvé à copier pour le dépôt '{repo_slug}'. La branche '{new_branch_name}' a été créée vide."
407
+
408
+ # Préparer les données pour le commit (liste d'opérations)
409
+ operations = []
410
+
411
+ for file_item in files_to_copy:
412
+ # item['name'] est le chemin complet HF. On a besoin du chemin RELATIF
413
+ # On retire le préfixe 'datasets/{repo_id}/' pour obtenir le chemin dans le dépôt
414
+ # Ex: 'datasets/repo_id/user_id/repo_slug/index.html' -> 'user_id/repo_slug/index.html'
415
+
416
+ # Pour un item listé par fs.ls(full_source_hf_path), 'name' est le chemin complet
417
+ # depuis la racine du repo hf://datasets/{source_repo_id}/
418
+ # Le chemin à enlever est 'hf://datasets/{source_repo_id}/'
419
+ prefix_to_remove = f"hf://datasets/{source_repo_id}/"
420
+ path_in_source_repo = file_item['name'].replace(prefix_to_remove, "", 1)
421
+
422
+ # Le chemin RELATIF à la base de la source est :
423
+ # path_in_source_repo est 'user_id/repo_slug/index.html'. On veut 'index.html'
424
+ relative_path_from_base = path_in_source_repo.split(source_path_in_repo)[-1].lstrip('/')
425
+
426
+ # Nouveau chemin cible dans le repo de PRs : {user_id}/{repo_slug}/{new_branch_name}/{index.html}
427
+ target_file_path = f"{target_base_path}/{relative_path_from_base}"
428
+
429
+ # Récupérer le contenu brut du fichier
430
+ try:
431
+ # Utiliser fs.open avec le chemin 'name' retourné par fs.ls
432
+ with fs.open(file_item['name'], "rb") as f:
433
+ file_content_bytes = f.read()
434
+
435
+ # Créer une opération d'ajout de fichier
436
+ operations.append(
437
+ CommitOperationAdd(
438
+ path_in_repo=target_file_path,
439
+ path_or_fileobj=BytesIO(file_content_bytes) # Le contenu doit être un objet File-like (BytesIO)
440
+ )
441
+ )
442
+
443
+ except Exception as e:
444
+ logger.error(f"Erreur lors de la lecture du fichier source {file_item['name']}: {e}")
445
+ # Continuer avec les autres fichiers
446
+ continue
447
+
448
+ # 2. Téléversement de tous les fichiers copiés en un seul commit atomique
449
+ commit_message = f"feat: Création de la branche '{new_branch_name}' à partir de main pour PR."
450
+
451
+ # Utiliser create_commit pour une opération atomique avec plusieurs ajouts
452
+ api.create_commit(
453
+ repo_id=target_repo_id,
454
+ operations=operations, # Utilisation de la liste des opérations
455
+ repo_type="dataset",
456
+ commit_message=commit_message,
457
+ )
458
+
459
+ message = f"Copie réussie de {len(files_to_copy)} fichiers vers la nouvelle branche '{new_branch_name}' dans le dépôt de PRs."
460
+ logger.info(message)
461
+ return True, message
462
+
463
+ except HfHubHTTPError as e:
464
+ logger.error(f"Erreur API Hugging Face lors de la copie pour {repo_slug}: {e}")
465
+ # Extrait la première ligne de la réponse d'erreur HTTP pour un message plus concis
466
+ error_detail = e.response.text.splitlines()[0] if e.response and e.response.text else str(e)
467
+ return False, f"Échec de la copie Hugging Face : {error_detail}"
468
+ except Exception as e:
469
+ logger.error(f"Erreur inconnue lors de la copie pour {repo_slug}: {e}")
470
+ return False, f"Erreur interne lors de la copie : {str(e)}"
471
+
472
+ def list_files_in_pr_branch(
473
+ user_id: str,
474
+ repo_slug: str,
475
+ branch_name: str,
476
+ pr_repo_id: str # Le ID du dépôt de PRs (PULL_REQUESTS_HF_REPO_ID)
477
+ ) -> tuple[List[str], str]:
478
+ """
479
+ Liste tous les chemins de fichiers (relatifs à la racine de la branche)
480
+ dans le dossier isolé qui représente une branche de Pull Request.
481
+
482
+ Retourne (liste_des_fichiers, message_d_erreur).
483
+ """
484
+ if not pr_repo_id:
485
+ return [], "Erreur de configuration: PULL_REQUESTS_HF_REPO_ID est manquant."
486
+
487
+ # Le chemin dans le repo de PRs est toujours "{user_id}/{repo_slug}/{branch_name}"
488
+ # Le préfixe "pr_data/" est ajouté par convention dans le fichier prs.json, mais
489
+ # le chemin dans le dépôt des PRs semble être "pr_data/{user_id}/{repo_slug}/{branch_name}"
490
+ # selon la fonction list_files_in_pr_branch (dans l'ancien manager)
491
+ branch_folder_path_in_repo = f"pr_data/{user_id}/{repo_slug}/{branch_name}"
492
+
493
+ try:
494
+ # Construit le chemin complet de l'API HfFileSystem
495
+ repo_fs_path = f"hf://datasets/{pr_repo_id}/{branch_folder_path_in_repo}"
496
+
497
+ # Liste récursivement tous les éléments dans le dossier de la branche
498
+ files_info = fs.ls(repo_fs_path, detail=True, recursive=True)
499
+
500
+ file_paths = []
501
+ for file_item in files_info:
502
+ if file_item.get('type') == 'file':
503
+ # Le 'name' de l'item est le chemin complet
504
+ prefix = f"hf://datasets/{pr_repo_id}/{branch_folder_path_in_repo}/"
505
+
506
+ # On veut le chemin relatif à la racine de la branche.
507
+ relative_path = file_item['name'].replace(prefix, "", 1)
508
+
509
+ # S'assurer qu'il ne s'agit pas d'un fichier de métadonnées interne si vous en utilisez
510
+ if relative_path and relative_path != "metadata.json":
511
+ file_paths.append(relative_path)
512
+
513
+ return file_paths, ""
514
+
515
+ except FileNotFoundError:
516
+ message = f"Dossier de branche PR '{branch_name}' non trouvé dans le dépôt de PRs."
517
+ logger.warning(message)
518
+ return [], message
519
+ except HfHubHTTPError as e:
520
+ message = f"Erreur API Hugging Face lors de la liste des fichiers pour la branche {branch_name}: {e}"
521
+ logger.error(message)
522
+ return [], message
523
+ except Exception as e:
524
+ message = f"Erreur inconnue lors de la liste des fichiers pour la branche {branch_name}: {e}"
525
+ logger.error(message)
526
+ return [], message
527
+
528
+ def get_file_content_from_pr_branch(
529
+ user_id: str,
530
+ repo_slug: str,
531
+ branch_name: str,
532
+ file_path: str, # Le chemin relatif du fichier (ex: index.html)
533
+ pr_repo_id: str
534
+ ) -> tuple[Optional[str], str]:
535
+ """
536
+ Récupère le contenu brut d'un fichier spécifique dans la branche isolée de la PR.
537
+ Retourne (contenu_du_fichier, message_d_erreur).
538
+ """
539
+ if not pr_repo_id:
540
+ return None, "Erreur de configuration: PULL_REQUESTS_HF_REPO_ID manquant."
541
+
542
+ # Construit le chemin complet du fichier dans le dépôt de PRs
543
+ # pr_data/{user_id}/{repo_slug}/{branch_name}/{file_path}
544
+ full_path_in_repo = f"pr_data/{user_id}/{repo_slug}/{branch_name}/{file_path}"
545
+
546
+ try:
547
+ # Chemin HfFileSystem
548
+ repo_fs_path = f"hf://datasets/{pr_repo_id}/{full_path_in_repo}"
549
+
550
+ # Lecture du contenu du fichier en bytes
551
+ file_bytes = fs.read_bytes(repo_fs_path)
552
+
553
+ # Tentative de décodage en UTF-8 pour le contenu texte
554
+ try:
555
+ content = file_bytes.decode('utf-8')
556
+ return content, ""
557
+ except UnicodeDecodeError:
558
+ return None, f"Le fichier '{file_path}' n'est pas un fichier texte standard (UTF-8). Contenu binaire non supporté pour l'édition."
559
+
560
+ except FileNotFoundError:
561
+ message = f"Fichier '{file_path}' non trouvé dans la branche PR '{branch_name}'."
562
+ logger.warning(message)
563
+ return None, message
564
+ except HfHubHTTPError as e:
565
+ message = f"Erreur API Hugging Face lors de la lecture du fichier pour la branche {branch_name}: {e}"
566
+ logger.error(message)
567
+ return None, message
568
+ except Exception as e:
569
+ message = f"Erreur inconnue lors de la lecture du fichier: {e}"
570
+ logger.error(message)
571
+ return None, message
572
+
573
+ def get_repo_branches(repo_slug: str, user_id: str) -> tuple[List[str], str]:
574
+ """
575
+ Récupère la liste de toutes les branches (Pull Requests ouvertes)
576
+ pour un dépôt utilisateur spécifique (user_id/repo_slug).
577
+
578
+ Dans le contexte Hugging Face, cela liste les branches créées par la
579
+ fonction `create_pull_request` dans le dépôt de PRs.
580
+
581
+ Retourne (liste_des_noms_de_branches, message_d_erreur).
582
+ """
583
+ # Dans votre architecture, la branche principale du dépôt est le 'repo_slug' lui-même.
584
+ # Les branches de PRs sont des sous-dossiers dans le dépôt de PRs.
585
+
586
+ # 1. Obtenir la liste des Pull Requests ouvertes (qui sont les branches de travail)
587
+ try:
588
+ # La branche par défaut (le dépôt "main") est le repo_slug
589
+ branches = [repo_slug]
590
+
591
+ # Charger la liste des PRs ouvertes (chaque PR correspond à une 'source_branch')
592
+ pr_list = load_all_prs_from_hf(repo_slug, user_id)
593
+
594
+ for pr in pr_list:
595
+ # Nous ajoutons toutes les 'source_branch' qui sont actuellement ouvertes
596
+ if pr['status'] == 'Open' and pr['source_branch'] not in branches:
597
+ branches.append(pr['source_branch'])
598
+
599
+ # Dans un système Git standard, on utiliserait api.list_repo_branches(repo_id).
600
+ # Ici, l'approche doit être hybride (Target Branch + Source Branches ouvertes).
601
+
602
+ return branches, ""
603
+
604
+ except Exception as e:
605
+ message = f"Erreur lors de la récupération des branches pour {repo_slug}: {e}"
606
+ logger.error(message)
607
+ return [repo_slug], message # Retourne au moins la branche par défaut en cas d'erreur
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/repo_settings_manager.py ADDED
@@ -0,0 +1,191 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # repo_settings_manager.py
2
+ import logging
3
+ from typing import Optional, Dict, List, Tuple
4
+
5
+ # Importation des fonctions nécessaires de huggingface_repo_manager
6
+ # Assurez-vous que huggingface_repo_manager.py est dans le même dossier ou accessible dans le PYTHONPATH
7
+ from huggingface_repo_manager import (
8
+ get_user_repo_metadata,
9
+ update_user_repo_metadata,
10
+ load_json_file_from_hf,
11
+ save_json_file_to_hf,
12
+ )
13
+
14
+ # Assurez-vous d'importer la variable de configuration si nécessaire
15
+ try:
16
+ from config import HF_DATASET_REPO_ID
17
+ except ImportError:
18
+ # Solution de repli, à adapter si config.py est essentiel
19
+ import os
20
+ HF_DATASET_REPO_ID = os.environ.get("HF_DATASET_REPO_ID")
21
+
22
+ logger = logging.getLogger(__name__)
23
+
24
+ # --- Constantes de configuration ---
25
+ SECRETS_FILE_NAME = "secrets.json"
26
+ VARIABLES_FILE_NAME = "variables.json"
27
+
28
+ def _get_config_file_path(repo_slug: str, config_type: str) -> str:
29
+ """Détermine le chemin du fichier JSON de configuration (secrets ou variables)
30
+ dans le chemin de l'utilisateur."""
31
+ if config_type == 'secrets':
32
+ file_name = SECRETS_FILE_NAME
33
+ elif config_type == 'variables':
34
+ file_name = VARIABLES_FILE_NAME
35
+ else:
36
+ raise ValueError(f"Type de configuration non supporté: {config_type}")
37
+
38
+ # Le chemin dans le repo de l'utilisateur est : repo_slug/secrets.json ou repo_slug/variables.json
39
+ return f"{repo_slug}/{file_name}"
40
+
41
+ # NOUVELLE FONCTION : Lecture des paramètres du dépôt (Nom, Description, Visibilité)
42
+ def get_repo_settings(user_id: str, repo_slug: str) -> Tuple[Optional[Dict], str]:
43
+ """
44
+ Charge le nom, la description, et la visibilité d'un dépôt spécifique
45
+ à partir du fichier metadata.json de l'utilisateur.
46
+ """
47
+
48
+ metadata, message = get_user_repo_metadata(user_id)
49
+ if metadata is None:
50
+ return None, f"Échec de la lecture des métadonnées utilisateur: {message}"
51
+
52
+ for repo in metadata.get("repos", []):
53
+ if repo.get('FIELD_DEPLOY_ID') == repo_slug:
54
+ return repo, "Paramètres du dépôt chargés avec succès."
55
+
56
+ return None, f"Dépôt '{repo_slug}' non trouvé dans les métadonnées de l'utilisateur."
57
+
58
+ # NOUVELLE FONCTION : Mise à jour des paramètres du dépôt (Nom, Description, Visibilité)
59
+ def update_repo_settings(user_id: str, repo_slug: str, new_data: Dict) -> Tuple[bool, str]:
60
+ """
61
+ Met à jour le nom, la description, et la visibilité du dépôt dans metadata.json
62
+ en utilisant la fonction update_user_repo_metadata.
63
+ """
64
+
65
+ # 1. Charger les métadonnées actuelles
66
+ current_metadata, message = get_user_repo_metadata(user_id)
67
+ if current_metadata is None:
68
+ logger.error(f"Impossible de charger les métadonnées pour {user_id}: {message}")
69
+ return False, f"Impossible de charger les métadonnées pour la mise à jour: {message}"
70
+
71
+ # 2. Trouver et mettre à jour l'entrée du dépôt
72
+ repos = current_metadata.get("repos", [])
73
+ repo_to_update = None
74
+
75
+ for repo in repos:
76
+ if repo.get('FIELD_DEPLOY_ID') == repo_slug:
77
+ repo_to_update = repo
78
+ break
79
+
80
+ if repo_to_update is None:
81
+ return False, f"Dépôt '{repo_slug}' non trouvé dans les métadonnées de l'utilisateur."
82
+
83
+ # Mettre à jour les données du dépôt
84
+ # On met à jour uniquement les clés fournies dans new_data
85
+ repo_to_update.update(new_data)
86
+
87
+ # 3. Sauvegarder le fichier de métadonnées mis à jour
88
+ # update_user_repo_metadata gère la logique de remplacement/mise à jour
89
+ success, message = update_user_repo_metadata(
90
+ user_id=user_id,
91
+ new_repo_data=repo_to_update,
92
+ repo_id=HF_DATASET_REPO_ID
93
+ )
94
+
95
+ if success:
96
+ logger.info(f"Paramètres du dépôt '{repo_slug}' mis à jour par l'utilisateur {user_id}.")
97
+ return True, "Paramètres du dépôt mis à jour avec succès."
98
+ else:
99
+ logger.error(f"Échec de la sauvegarde des métadonnées pour {user_id}/{repo_slug}: {message}")
100
+ return False, f"Échec de la mise à jour des paramètres du dépôt: {message}"
101
+
102
+ # NOUVELLE FONCTION : Lire la configuration complète (Secrets ou Variables)
103
+ def get_repo_config(user_id: str, repo_slug: str, config_type: str) -> Tuple[Optional[Dict], str]:
104
+ """
105
+ Charge la configuration complète (secrets ou variables) d'un dépôt
106
+ à partir du fichier JSON correspondant (secrets.json ou variables.json).
107
+ """
108
+
109
+ try:
110
+ # Construit le chemin du fichier JSON relatif au HF_DATASET_REPO_ID
111
+ file_path_in_repo = _get_config_file_path(repo_slug, config_type)
112
+ except ValueError as e:
113
+ return None, str(e)
114
+
115
+ # Le chemin complet pour les fonctions HF est user_id/repo_slug/config_file.json
116
+ full_path = f"{user_id}/{file_path_in_repo}"
117
+
118
+ current_config, message = load_json_file_from_hf(full_path, repo_id=HF_DATASET_REPO_ID)
119
+
120
+ if current_config is None:
121
+ # Si le fichier n'existe pas, on retourne une liste vide, ce qui est normal
122
+ if "non trouvé" in message.lower():
123
+ # Initialise avec une structure standard
124
+ return {"entries": []}, "Configuration chargée (fichier non existant, retourné vide)."
125
+ else:
126
+ return None, f"Échec du chargement de la configuration: {message}"
127
+
128
+ return current_config, "Configuration chargée avec succès."
129
+
130
+
131
+ # NOUVELLE FONCTION : Gérer l'ajout/modification/suppression d'une entrée (Secret ou Variable)
132
+ def manage_repo_config_entry(
133
+ user_id: str,
134
+ repo_slug: str,
135
+ config_type: str, # 'secrets' ou 'variables'
136
+ operation: str, # 'add', 'update', 'delete'
137
+ entry_name: str,
138
+ entry_data: Optional[Dict] = None # Contient 'name', 'description', 'value'
139
+ ) -> Tuple[bool, str]:
140
+ """
141
+ Ajoute, met à jour ou supprime une entrée de configuration (secret ou variable)
142
+ dans le fichier JSON correspondant et le sauvegarde sur Hugging Face.
143
+ """
144
+
145
+ if operation not in ['add', 'update', 'delete']:
146
+ return False, "Opération non reconnue."
147
+
148
+ # Validation des données pour add/update
149
+ if operation != 'delete' and (not entry_data or 'name' not in entry_data):
150
+ return False, "Les données d'entrée ou le nom de l'entrée sont manquants pour l'opération."
151
+
152
+ try:
153
+ file_path_in_repo = _get_config_file_path(repo_slug, config_type)
154
+ except ValueError as e:
155
+ return False, str(e)
156
+
157
+ full_path = f"{user_id}/{file_path_in_repo}"
158
+
159
+ # 1. Charger la configuration actuelle (ou initialiser si manquante)
160
+ current_config, _ = load_json_file_from_hf(full_path, repo_id=HF_DATASET_REPO_ID)
161
+ if current_config is None or "non trouvé" in _:
162
+ current_config = {"entries": []}
163
+
164
+ entries = current_config.get("entries", [])
165
+
166
+ # 2. Mettre à jour la liste
167
+ # Retirer l'ancienne entrée si elle existe (par le nom)
168
+ # Ceci gère la suppression et prépare l'ajout/mise à jour
169
+ entries = [e for e in entries if e.get('name') != entry_name]
170
+
171
+ if operation == 'add' or operation == 'update':
172
+ entries.append(entry_data)
173
+
174
+ current_config["entries"] = entries
175
+
176
+ # 3. Sauvegarder le fichier JSON mis à jour
177
+ commit_msg = f"{operation.capitalize()} {config_type} '{entry_name}' pour le dépôt {repo_slug}."
178
+
179
+ success, message = save_json_file_to_hf(
180
+ file_path=full_path,
181
+ data=current_config,
182
+ commit_message=commit_msg,
183
+ repo_id=HF_DATASET_REPO_ID
184
+ )
185
+
186
+ if success:
187
+ logger.info(f"Opération '{operation}' sur {config_type} '{entry_name}' réussie pour {repo_slug}.")
188
+ return True, message
189
+ else:
190
+ logger.error(f"Échec de l'opération '{operation}' sur {config_type} pour {repo_slug}: {message}")
191
+ return False, message
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/repo_settings_routes.py ADDED
@@ -0,0 +1,116 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # repo_settings_routes.py
2
+ from flask import Blueprint, request, jsonify, abort
3
+ from typing import Dict
4
+
5
+ settings_bp = Blueprint('settings', __name__, url_prefix='/api/settings')
6
+ # Assurez-vous que repo_settings_manager.py est accessible
7
+ from repo_settings_manager import (
8
+ get_repo_settings,
9
+ update_repo_settings,
10
+ get_repo_config,
11
+ manage_repo_config_entry
12
+ )
13
+
14
+
15
+
16
+ # --- Routes pour les Paramètres Généraux du Dépôt (Nom, Description, Visibilité) ---
17
+
18
+ # Route 1: Lire les paramètres du dépôt
19
+ @settings_bp.route('/<user_id>/repo/<repo_slug>', methods=['GET'])
20
+ def get_repo_settings_route(user_id, repo_slug):
21
+ """
22
+ Récupère le nom, la description, et la visibilité d'un dépôt.
23
+ GET /api/settings/<user_id>/repo/<repo_slug>
24
+ """
25
+ settings, message = get_repo_settings(user_id, repo_slug)
26
+
27
+ if settings is None:
28
+ # Retourne 404 si le dépôt n'est pas trouvé
29
+ return jsonify({"success": False, "message": message}), 404
30
+
31
+ return jsonify({"success": True, "data": settings}), 200
32
+
33
+ # Route 2: Mettre à jour les paramètres du dépôt (Nom, Description, Visibilité)
34
+ @settings_bp.route('/<user_id>/repo/<repo_slug>', methods=['PUT'])
35
+ def update_repo_settings_route(user_id, repo_slug):
36
+ """
37
+ Met à jour les paramètres d'un dépôt (name, description, visibility).
38
+ PUT /api/settings/<user_id>/repo/<repo_slug>
39
+ Corps: {'name': 'nouveau_nom', 'description': 'nouvelle_desc', 'visibility': 'public'}
40
+ """
41
+ data: Dict = request.json
42
+
43
+ if not data:
44
+ return jsonify({"success": False, "message": "Aucune donnée fournie."}), 400
45
+
46
+ success, message = update_repo_settings(user_id, repo_slug, data)
47
+
48
+ if not success:
49
+ return jsonify({"success": False, "message": message}), 500
50
+
51
+ return jsonify({"success": True, "message": message}), 200
52
+
53
+
54
+ # --- Routes pour la Configuration (Secrets et Variables) ---
55
+
56
+ # Route 3: Lire la configuration complète (Secrets ou Variables)
57
+ @settings_bp.route('/<user_id>/repo/<repo_slug>/config/<config_type>', methods=['GET'])
58
+ def get_repo_config_route(user_id, repo_slug, config_type):
59
+ """
60
+ Récupère la liste complète des secrets ou des variables.
61
+ GET /api/settings/<user_id>/repo/<repo_slug>/config/secrets
62
+ """
63
+ if config_type not in ['secrets', 'variables']:
64
+ return jsonify({"success": False, "message": "Type de configuration invalide. Utilisez 'secrets' ou 'variables'."}), 400
65
+
66
+ config_data, message = get_repo_config(user_id, repo_slug, config_type)
67
+
68
+ if config_data is None:
69
+ return jsonify({"success": False, "message": message}), 500
70
+
71
+ # config_data contiendra {"entries": []} si le fichier n'existe pas, ce qui est correct.
72
+ return jsonify({"success": True, "data": config_data}), 200
73
+
74
+
75
+ # Route 4: Gérer les Secrets/Variables (Ajout/Modification/Suppression d'une entrée)
76
+ @settings_bp.route('/<user_id>/repo/<repo_slug>/config/<config_type>', methods=['POST'])
77
+ def manage_repo_config_route(user_id, repo_slug, config_type):
78
+ """
79
+ Ajoute, met à jour ou supprime un secret/variable spécifique.
80
+ POST /api/settings/<user_id>/repo/<repo_slug>/config/secrets
81
+ Corps: {'operation': 'add'/'update'/'delete', 'name': 'NOM_CLE', 'entry_data': {...}}
82
+ """
83
+ data: Dict = request.json
84
+
85
+ if config_type not in ['secrets', 'variables']:
86
+ return jsonify({"success": False, "message": "Type de configuration invalide. Utilisez 'secrets' ou 'variables'."}), 400
87
+
88
+ entry_name = data.get('name')
89
+ operation = data.get('operation') # 'add', 'update', 'delete'
90
+ entry_data = data.get('entry_data') # Contient 'name', 'description', 'value'
91
+
92
+ # Validation minimale
93
+ if not entry_name or not operation:
94
+ return jsonify({"success": False, "message": "Données manquantes ('name' ou 'operation')."}), 400
95
+
96
+ if operation != 'delete' and not entry_data:
97
+ return jsonify({"success": False, "message": f"Données d'entrée ('entry_data') manquantes pour l'opération '{operation}'."}), 400
98
+
99
+ # L'entrée 'name' dans entry_data doit correspondre à entry_name pour la cohérence
100
+ if entry_data and entry_data.get('name') != entry_name:
101
+ return jsonify({"success": False, "message": "Incohérence: 'name' dans entry_data doit correspondre à 'name' au niveau supérieur."}), 400
102
+
103
+
104
+ success, message = manage_repo_config_entry(
105
+ user_id=user_id,
106
+ repo_slug=repo_slug,
107
+ config_type=config_type,
108
+ operation=operation,
109
+ entry_name=entry_name,
110
+ entry_data=entry_data # Sera None pour 'delete'
111
+ )
112
+
113
+ if not success:
114
+ return jsonify({"success": False, "message": message}), 500
115
+
116
+ return jsonify({"success": True, "message": message}), 200
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/requirements.txt ADDED
@@ -0,0 +1,13 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ flask
2
+ bcrypt
3
+ requests
4
+ gunicorn
5
+ Flask-CORS
6
+ python-dotenv
7
+ stripe
8
+ dnspython
9
+ werkzeug
10
+ flask-socketio
11
+ eventlet
12
+ huggingface_hub
13
+ google-genai
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/user_routes.py ADDED
@@ -0,0 +1,453 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # user_routes.py (Version SSR - Rendu Côté Serveur)
2
+
3
+ from datetime import datetime # <-- AJOUTER CECI
4
+ import logging # <-- NOUVEL IMPORT
5
+ from flask import Blueprint, request, jsonify, session, redirect, url_for, flash, render_template
6
+ import uuid
7
+ from decorators import login_required
8
+ from auth_backend import (
9
+ register_user,
10
+ login_user,
11
+ reset_password_via_security_question,
12
+ get_user_by_id,
13
+ update_user_profile,
14
+ # Assurez-vous d'importer toute autre fonction nécessaire ici (ex: is_email_unique)
15
+ )
16
+
17
+ from decorators import api_session_required
18
+ from huggingface_repo_manager import (
19
+ create_empty_repo_folder_on_hf,
20
+ update_user_repo_metadata,
21
+ get_user_repo_metadata,
22
+ upload_files_to_repo_backend,
23
+ # NOUVEAUX IMPORTS
24
+ list_repo_files_from_hf, # <-- DÉJÀ EXISTANT DANS LE FICHIER FOURNI
25
+ get_file_content_from_hf, # <-- NOUVELLE FONCTION AJOUTÉE
26
+ )
27
+ logger = logging.getLogger(__name__) # <-- AJOUTER CETTE LIGNE
28
+ # Création du Blueprint 'user_bp'
29
+ user_bp = Blueprint('user_bp', __name__)
30
+
31
+ # ----------------------------------------------------------------------
32
+ # ENDPOINTS PAGES SÉCURISÉES (Rendu Côté Serveur)
33
+ # Les pages sensibles sont protégées par @login_required.
34
+ # ----------------------------------------------------------------------
35
+
36
+ # Liste des pages sensibles à protéger.
37
+ SECURE_PAGES = [
38
+ # "dashboard.html", # <--- RETIRÉ car géré par la route spécifique dashboard()
39
+ # "profile.html", # <--- RETIRÉ car géré par la route spécifique profile()
40
+ # "nouveau_project.html", # <--- RETIRÉ car géré par la route spécifique profile()
41
+ "html_launcher.html",
42
+ "create_new_file.html",
43
+ "checkout.html",
44
+ # Ajoutez toutes les autres pages sensibles ici
45
+ ]
46
+
47
+ def create_secure_page_route(page_name):
48
+ """
49
+ Fonction d'usine pour créer dynamiquement une fonction de vue unique
50
+ et garantir un nom d'endpoint unique pour chaque page sécurisée.
51
+ """
52
+
53
+ # Création d'un nom d'endpoint unique (ex: secure_page_nouveau_project_html)
54
+ endpoint_name = f"secure_page_{page_name.replace('.', '_')}"
55
+
56
+ @login_required
57
+ def secure_page_view():
58
+ # La variable 'page_name' est correctement capturée dans la closure
59
+ # Rendu simple de tous les templates sécurisés
60
+ return render_template(page_name)
61
+
62
+ # --- MODIFICATION ICI : On retire l'extension .html du chemin de la route ---
63
+ route_path_without_ext = page_name.replace('.html', '')
64
+
65
+ # Enregistrement de la règle d'URL avec le nom d'endpoint unique
66
+ user_bp.add_url_rule(
67
+ f"/mindus/nexus/{route_path_without_ext}", # <-- NOUVEAU CHEMIN SANS EXTENSION
68
+ endpoint=endpoint_name,
69
+ view_func=secure_page_view,
70
+ methods=['GET'] # Par défaut, ces routes sont généralement GET
71
+ )
72
+
73
+ # Création dynamique des routes sécurisées
74
+ for page in SECURE_PAGES:
75
+ create_secure_page_route(page)
76
+
77
+
78
+ # Route spécifique pour le Profil car elle gère aussi un formulaire POST
79
+ @user_bp.route("/mindus/nexus/profile", methods=['GET', 'POST'])
80
+ @login_required
81
+ def profile():
82
+ """
83
+ Page de profil. Gère la mise à jour via POST et sert la page via GET (SSR).
84
+ """
85
+ user_id = session.get('user_id')
86
+
87
+ if request.method == 'POST':
88
+ # 1. Récupération des données du formulaire POST
89
+ username = request.form.get('username')
90
+ email = request.form.get('email')
91
+ new_password = request.form.get('new_password')
92
+ confirm_password = request.form.get('confirm_password')
93
+
94
+ # 2. Validation et mise à jour
95
+ if not username or not email:
96
+ flash("Le nom d'utilisateur et l'e-mail sont obligatoires.", "error")
97
+ elif new_password and new_password != confirm_password:
98
+ flash("Le nouveau mot de passe et la confirmation ne correspondent pas.", "error")
99
+ else:
100
+ password_to_update = new_password if new_password and new_password == confirm_password else None
101
+
102
+ success, message = update_user_profile(user_id, username, email, password_to_update)
103
+
104
+ if success:
105
+ flash(message, "success")
106
+ return redirect(url_for('user_bp.profile')) # Redirection POST/Redirect/GET
107
+ else:
108
+ flash(message, "error")
109
+
110
+ # Logique pour la méthode GET ou après un échec POST
111
+ # On passe l'objet utilisateur si nécessaire pour pré-remplir le formulaire
112
+ # NOTE: Une alternative est d'utiliser l'API GET /api/profile côté JS dans le template
113
+ user_data = get_user_by_id(user_id) # Récupérer les données utilisateur pour le template
114
+
115
+ return render_template('profile.html', user=user_data)
116
+
117
+
118
+ @user_bp.route("/mindus/nexus/dashboard")
119
+ @login_required
120
+ def dashboard():
121
+ """
122
+ Page du tableau de bord. Gère le message de succès de paiement (Phase 4).
123
+ """
124
+ payment_status = request.args.get('payment')
125
+
126
+ # Si succès de paiement, flasher et rediriger pour nettoyer l'URL
127
+ if payment_status == 'success':
128
+ flash("Félicitations ! Votre abonnement a été activé avec succès.", "success")
129
+ # Utiliser la route sans argument pour nettoyer l'URL
130
+ # NOTE: url_for('user_bp.dashboard') pointe vers la fonction actuelle
131
+ return redirect(url_for('user_bp.dashboard'))
132
+
133
+ return render_template('dashboard.html')
134
+
135
+
136
+ # ----------------------------------------------------------------------
137
+ # ENDPOINTS D'AUTHENTIFICATION (API JSON) - CONSERVÉS
138
+ # ----------------------------------------------------------------------
139
+ # Ces routes restent des APIs JSON
140
+ # ATTENTION: Il faut ajouter 'api_session_required' au profil API POST/GET comme dans l'original.
141
+
142
+ @user_bp.route("/api/register", methods=['POST'])
143
+ def register_user_api():
144
+ """Endpoint API pour l'inscription. Attend JSON, retourne JSON."""
145
+ data = request.get_json()
146
+
147
+ if not data:
148
+ return jsonify({"success": False, "message": "Données JSON manquantes."}), 400
149
+
150
+ username = data.get("username")
151
+ email = data.get("email")
152
+ password = data.get("password")
153
+ confirm_password = data.get("confirm_password")
154
+ security_question = data.get("security_question")
155
+ security_answer = data.get("security_answer")
156
+
157
+ # Logique d'inscription
158
+ user_id, message, _ = register_user(username, email, password, confirm_password, security_question, security_answer)
159
+
160
+ if user_id:
161
+ # Rediriger vers la page de connexion (web_bp.connexion_page)
162
+ return jsonify({"success": True, "message": message, "redirect": url_for('web_bp.connexion_page')})
163
+ else:
164
+ return jsonify({"success": False, "message": message}), 400
165
+
166
+
167
+ @user_bp.route("/api/login", methods=['POST'])
168
+ def login_user_api():
169
+ """Endpoint API pour la connexion. Attend JSON, retourne JSON."""
170
+ data = request.get_json()
171
+
172
+ if not data:
173
+ return jsonify({"success": False, "message": "Données JSON manquantes."}), 400
174
+
175
+ email = data.get("email")
176
+ password = data.get("password")
177
+
178
+ # Logique de connexion
179
+ user_id, message, user_data = login_user(email, password)
180
+
181
+ if user_id:
182
+ session['user_id'] = user_id
183
+ # Redirige vers la nouvelle route du dashboard sécurisé
184
+ # NOTE: Utilisation du nom de la fonction 'dashboard' qui est l'endpoint de cette route.
185
+ return jsonify({"success": True, "message": message, "redirect": url_for('user_bp.dashboard')})
186
+ else:
187
+ return jsonify({"success": False, "message": message}), 401
188
+
189
+
190
+ @user_bp.route("/api/logout", methods=['POST'])
191
+ def logout_user_api():
192
+ """Endpoint API pour la déconnexion. Détruit la session."""
193
+ session.pop('user_id', None)
194
+ # Redirige vers la page de connexion
195
+ return jsonify({"success": True, "message": "Déconnexion réussie.", "redirect": url_for('web_bp.connexion_page')})
196
+
197
+
198
+ @user_bp.route("/api/profile", methods=['GET'])
199
+ @api_session_required # <--- AJOUT DU DÉCORATEUR
200
+ def get_profile_api(client_user): # <--- Accepte l'objet injecté
201
+ """Endpoint API pour récupérer les informations du profil de l'utilisateur connecté."""
202
+ # Les données de l'utilisateur sont déjà récupérées par api_session_required
203
+ user = client_user
204
+
205
+ # On ne retourne pas le hash du mot de passe ou la réponse de sécurité
206
+ user_info = {
207
+ 'username': user.get('username'),
208
+ 'email': user.get('email'),
209
+ 'plan': user.get('current_plan'),
210
+ 'joined_at': user.get('join_date'),
211
+ }
212
+ return jsonify({"success": True, "user": user_info})
213
+
214
+
215
+ @user_bp.route("/api/profile", methods=['POST'])
216
+ @api_session_required # <--- AJOUT DU DÉCORATEUR
217
+ def update_profile_api(client_user): # <--- Accepte l'objet injecté
218
+ """Endpoint API pour la mise à jour du profil (username, email, password)."""
219
+ user_id = client_user['uuid'] # Utilise l'ID de l'objet utilisateur
220
+ data = request.get_json()
221
+
222
+ if not data:
223
+ return jsonify({"success": False, "message": "Données JSON manquantes."}), 400
224
+
225
+ username = data.get("username")
226
+ email = data.get("email")
227
+ new_password = data.get("new_password")
228
+ confirm_password = data.get("confirm_password")
229
+
230
+ password_to_update = None
231
+ message_password_error = ""
232
+
233
+ # 1. Validation du mot de passe s'il est fourni
234
+ if new_password or confirm_password:
235
+ if new_password != confirm_password:
236
+ message_password_error = "Le nouveau mot de passe et la confirmation ne correspondent pas."
237
+ elif len(new_password) < 8:
238
+ message_password_error = "Le nouveau mot de passe est trop court (min 8 caractères)."
239
+ else:
240
+ password_to_update = new_password
241
+
242
+ if message_password_error:
243
+ return jsonify({"success": False, "message": message_password_error}), 400
244
+
245
+ # 2. Appel de la fonction de mise à jour du backend
246
+ success, message = update_user_profile(user_id, username, email, password_to_update)
247
+
248
+ if success:
249
+ return jsonify({"success": True, "message": message})
250
+ else:
251
+ # Échec de la mise à jour (ex: email déjà pris)
252
+ return jsonify({"success": False, "message": message}), 400
253
+
254
+
255
+ @user_bp.route("/mindus/nexus/editor", methods=['GET'])
256
+ @login_required
257
+ # MODIFICATION: Retire repo_slug de la signature de la fonction.
258
+ def editor_page():
259
+ """
260
+ Page de l'éditeur de code.
261
+ Nécessite le repo_slug pour définir le contexte du dépôt Hugging Face.
262
+ """
263
+ user_id = session.get('user_id')
264
+
265
+ # NOUVEAU: Récupère le repo_slug à partir des paramètres de requête (?repo_slug=...)
266
+ repo_slug = request.args.get('repo_slug')
267
+
268
+ user_data = get_user_by_id(user_id) # On récupère les données utilisateur (nécessaire pour le template)
269
+
270
+ # AJOUT DE VÉRIFICATION
271
+ if not repo_slug:
272
+ flash("Le slug du dépôt est manquant dans l'URL.", "error")
273
+ return redirect(url_for('user_bp.dashboard'))
274
+
275
+ if not user_data:
276
+ flash("Utilisateur non trouvé.", "error")
277
+ return redirect(url_for('web_bp.connexion_page'))
278
+
279
+ # Vous pouvez ajouter ici une logique pour vérifier si le repo_slug
280
+ # appartient bien à l'utilisateur, ou pour récupérer les métadonnées du dépôt.
281
+
282
+ # Par exemple, pour l'afficher dans le template (même si vous ne l'utilisez pas directement maintenant)
283
+ context = {
284
+ 'user': user_data,
285
+ 'repo_slug': repo_slug, # Passage du slug au template
286
+ # Vous pourriez ajouter ici les données du dépôt récupérées via get_user_repo_metadata
287
+ }
288
+
289
+ return render_template('editor.html', **context)
290
+
291
+ # MODIFICATION: Ajout du paramètre conversation_id (optionnel) dans l'URL
292
+ @user_bp.route("/mindus/nexus/gitforge_copilot", methods=['GET'])
293
+ @user_bp.route("/mindus/nexus/gitforge_copilot/<conversation_id>", methods=['GET']) # Nouvelle route dynamique
294
+ @login_required
295
+ def gemini_chat_page(conversation_id=None): # Le paramètre est maintenant accepté
296
+ """
297
+ Affiche la page de chat Gemini et passe l'ID de conversation (s'il existe) au template.
298
+ """
299
+
300
+ context = {
301
+ # Passe None ou l'ID au template pour que le front-end sache quelle discussion charger
302
+ 'conversation_id': conversation_id
303
+ }
304
+
305
+ # Assurez-vous que votre template peut utiliser 'conversation_id'
306
+ return render_template('gitforge_copilot.html', **context)
307
+
308
+
309
+ # Route spécifique pour les paramètres de dépôt
310
+ @user_bp.route("/mindus/nexus/settings", methods=['GET'])
311
+ @login_required
312
+ def settings_page():
313
+ """
314
+ Affiche la page des paramètres du dépôt.
315
+ Nécessite le repo_slug passé en paramètre de requête (?repo_slug=...).
316
+ """
317
+ user_id = session.get('user_id')
318
+
319
+ # Récupère le repo_slug à partir des paramètres de requête (?repo_slug=...)
320
+ repo_slug = request.args.get('repo_slug')
321
+
322
+ user_data = get_user_by_id(user_id) # On récupère les données utilisateur
323
+
324
+ # AJOUT DE VÉRIFICATION
325
+ if not repo_slug:
326
+ flash("Le slug du dépôt est manquant dans l'URL. Impossible d'afficher les paramètres.", "error")
327
+ return redirect(url_for('user_bp.dashboard'))
328
+
329
+ if not user_data:
330
+ flash("Utilisateur non trouvé.", "error")
331
+ return redirect(url_for('web_bp.connexion_page'))
332
+
333
+ # Le template settings.html doit utiliser 'repo_slug' pour construire ses appels API JS
334
+ context = {
335
+ 'user': user_data,
336
+ 'repo_slug': repo_slug, # Passage du slug au template
337
+ }
338
+
339
+ return render_template('settings.html', **context)
340
+
341
+ # Route pour afficher la page de l'instance de déploiement (Logs/Events)
342
+ @user_bp.route("/mindus/nexus/dynamic_and_static", methods=['GET'])
343
+ @login_required
344
+ def deployment_instance_page():
345
+ """
346
+ Affiche la page de l'instance de déploiement (logs, events, etc.).
347
+ Nécessite le repo_slug passé en paramètre de requête (?repo_slug=...).
348
+ Le template est 'dynamic_and_static.html'.
349
+ """
350
+ user_id = session.get('user_id')
351
+
352
+ # 1. Récupère le repo_slug à partir des paramètres de requête (?repo_slug=...)
353
+ repo_slug = request.args.get('repo_slug')
354
+
355
+ user_data = get_user_by_id(user_id) # Récupère les données utilisateur pour le template
356
+
357
+ # 2. Vérification obligatoire du repo_slug
358
+ if not repo_slug:
359
+ flash("Le slug du dépôt est manquant dans l'URL. Impossible d'afficher l'instance.", "error")
360
+ return redirect(url_for('user_bp.dashboard'))
361
+
362
+ if not user_data:
363
+ flash("Utilisateur non trouvé.", "error")
364
+ return redirect(url_for('web_bp.connexion_page'))
365
+
366
+ # 3. Préparation du contexte
367
+ context = {
368
+ 'user': user_data,
369
+ 'repo_slug': repo_slug, # Passage du slug au template (utilisé par le JS)
370
+ # Vous pouvez ajouter d'autres données ici si nécessaire pour le rendu SSR
371
+ }
372
+
373
+ # 4. Rendu du template
374
+ return render_template('dynamic_and_static.html', **context)
375
+
376
+
377
+ @user_bp.route("/mindus/nexus/new_branch", methods=['GET'])
378
+ @login_required
379
+ def new_branch_page():
380
+ """
381
+ Affiche la page de création d'une nouvelle branche.
382
+ Nécessite le repo_slug passé en paramètre de requête (?repo_slug=...).
383
+ Le template est 'new_branch.html'.
384
+ """
385
+ user_id = session.get('user_id')
386
+
387
+ # 1. Récupère le repo_slug à partir des paramètres de requête (?repo_slug=...)
388
+ repo_slug = request.args.get('repo_slug')
389
+
390
+ user_data = get_user_by_id(user_id) # Récupère les données utilisateur
391
+
392
+ # 2. Vérification obligatoire du repo_slug
393
+ if not repo_slug:
394
+ flash("Le slug du dépôt est manquant dans l'URL. Impossible de créer une nouvelle branche.", "error")
395
+ return redirect(url_for('user_bp.dashboard'))
396
+
397
+ if not user_data:
398
+ flash("Utilisateur non trouvé.", "error")
399
+ return redirect(url_for('web_bp.connexion_page'))
400
+
401
+ # 3. Extraction du nom du dépôt (repo_name) à partir du repo_slug
402
+ # Ceci est utilisé par le templating Jinja2 dans le header: user / repo
403
+ repo_name = repo_slug.split('/')[-1]
404
+
405
+ # 4. Préparation du contexte
406
+ context = {
407
+ 'user': user_data, # Contient user.username pour le Jinja2
408
+ 'repo_slug': repo_slug, # Le slug complet (e.g., user/repo)
409
+ 'repo_name': repo_name, # Juste le nom du dépôt (e.g., repo)
410
+ }
411
+
412
+ # 5. Rendu du template
413
+ # Assurez-vous que le nom de votre fichier est bien 'new_branch.html'
414
+ return render_template('new_branch.html', **context)
415
+
416
+
417
+ @user_bp.route("/mindus/nexus/repo_files_branch", methods=['GET'])
418
+ @login_required
419
+ def repo_files_page():
420
+ user_id = session.get('user_id')
421
+
422
+ # 1. Récupère le repo_slug
423
+ repo_slug = request.args.get('repo_slug')
424
+
425
+ # 2. Récupère le nom de la branche sélectionnée
426
+ current_branch = request.args.get('branch', 'main')
427
+
428
+ # *** AJOUT POUR LE DIAGNOSTIC (Cible) ***
429
+ logger.info(f"Navigation vers le dépôt: repo_slug='{repo_slug}', branch='{current_branch}' pour user_id={user_id}")
430
+
431
+ # 3. Vérifications (repo_slug est obligatoire)
432
+ if not repo_slug:
433
+ flash("Le slug du dépôt est manquant.", "error")
434
+ return redirect(url_for('user_bp.dashboard'))
435
+
436
+ if not user_data:
437
+ flash("Utilisateur non trouvé.", "error")
438
+ return redirect(url_for('web_bp.connexion_page'))
439
+
440
+ # 4. Extraction du nom du dépôt
441
+ repo_name = repo_slug.split('/')[-1]
442
+
443
+ # 5. Préparation du contexte
444
+ context = {
445
+ 'user': user_data,
446
+ 'repo_slug': repo_slug,
447
+ 'repo_name': repo_name,
448
+ # *** PARAMÈTRE CLÉ AJOUTÉ AU CONTEXTE ***
449
+ 'current_branch': current_branch
450
+ }
451
+
452
+ # 6. Rendu du template (le frontend utilisera 'current_branch' pour ses appels API)
453
+ return render_template('repo_files_branch.html', **context)
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/mayproject/web_routes.py ADDED
@@ -0,0 +1,210 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # web_routes.py (Version SSR - Ajout des routes publiques et conservation des APIs)
2
+ from decorators import api_session_required, login_required
3
+ import shutil
4
+ # AJOUT DE RENDER_TEMPLATE ET URL_FOR
5
+ from flask import Blueprint, request, jsonify, send_from_directory, current_app, session, render_template, redirect, url_for
6
+ from werkzeug.utils import secure_filename
7
+ import os
8
+ import uuid
9
+ import json
10
+ from auth_backend import get_plan_details
11
+ from baserow_storage import get_health_status, update_user_deployment_data, get_deployment_by_id, save_new_repository, delete_deployment_by_id, save_new_repository, get_all_user_repositories
12
+ import huggingface_storage
13
+ from huggingface_repo_manager import (
14
+ create_empty_repo_folder_on_hf,
15
+ list_repo_files_from_hf
16
+ )
17
+ from datetime import datetime
18
+
19
+ # NOUVEAU : Fonction pour vérifier les extensions autorisées pour le déploiement statique
20
+ def allowed_static_file(filename):
21
+ """Vérifie si le fichier a une extension autorisée (HTML, CSS, JS, Images)."""
22
+ STATIC_ALLOWED_EXTENSIONS = {'html', 'htm', 'css', 'js', 'jpg', 'jpeg', 'png', 'gif', 'svg'}
23
+ return '.' in filename and \
24
+ filename.rsplit('.', 1)[1].lower() in STATIC_ALLOWED_EXTENSIONS
25
+
26
+ # Création du Blueprint 'web_bp'
27
+ web_bp = Blueprint('web_bp', __name__)
28
+
29
+ # ----------------------------------------------------------------------
30
+ # ROUTES D'AFFICHAGE STATIQUE/DE PAGES (SSR - Rendu Côté Serveur)
31
+ # ----------------------------------------------------------------------
32
+
33
+ # Mapping pour les noms de route standards pour les redirections
34
+ PAGE_ROUTE_MAPPING = {
35
+ "index": "index.html",
36
+ "connexion_page": "connexion.html",
37
+ "inscription_page": "inscription.html",
38
+ "mot_de_passe_oublie_page": "mot_de_passe_oublie.html",
39
+ "tarifs_page": "tarifs.html",
40
+ "documentation_page": "documentation.html",
41
+ "support_page": "support.html",
42
+ "a_propos_page": "a_propos.html",
43
+ "mentions_legales_page": "mentions_legales.html",
44
+ "politique_confidentialite_page": "politique_confidentialite.html",
45
+ "conditions_utilisation_page": "conditions_utilisation.html",
46
+ # Ajoutez d'autres pages non sécurisées ici
47
+ }
48
+
49
+ # Liste des fichiers HTML non sécurisés
50
+ PUBLIC_PAGES = [
51
+ "index.html",
52
+ "connexion.html",
53
+ "inscription.html",
54
+ "mot_de_passe_oublie.html",
55
+ "tarifs.html",
56
+ "documentation.html",
57
+ "support.html",
58
+ "a_propos.html",
59
+ "mentions_legales.html",
60
+ "politique_confidentialite.html",
61
+ "conditions_utilisation.html",
62
+ "blog.html",
63
+ "careers.html",
64
+ "resources.html",
65
+ "devsecops.html",
66
+ "devops.html",
67
+ "customers_stories.html",
68
+ "all_stories.html",
69
+ "form_gitforge.html",
70
+ ]
71
+
72
+ for page in PUBLIC_PAGES:
73
+ # Nom de la fonction basé sur le nom du fichier pour les url_for
74
+ route_name = page.replace('.html', '_page').replace('-', '_')
75
+
76
+ # --- MODIFICATION ICI : On retire l'extension .html du chemin de la route ---
77
+ route_path = f"/mindus/nexus/{page.replace('.html', '')}" # Exemple: /mindus/nexus/connexion
78
+
79
+ @web_bp.route(route_path, endpoint=route_name)
80
+ def public_page_renderer(page=page):
81
+ # Toutes les pages publiques sont servies avec render_template
82
+ # Le nom du template reste 'connexion.html' (page), mais l'URL est 'connexion' (route_path)
83
+ return render_template(page)
84
+
85
+
86
+ # Route racine de l'application
87
+ @web_bp.route("/")
88
+ def home():
89
+ # Redirige vers la page d'accueil principale /mindus/nexus/index (sans .html)
90
+ # url_for utilise le nom d'endpoint, qui pointe désormais vers l'URL sans extension.
91
+ return redirect(url_for('web_bp.index_page'))
92
+
93
+
94
+ @web_bp.route('/api/create_repository', methods=['POST'])
95
+ @api_session_required # ⬅️ CHANGEMENT CLÉ : Utiliser le décorateur API basé sur la session
96
+ def create_repository(client_user): # ⬅️ CHANGEMENT CLÉ : Accepter l'objet utilisateur injecté
97
+ """
98
+ Point API pour créer un nouveau dépôt utilisateur.
99
+ L'utilisateur est authentifié et fourni par le décorateur @api_session_required via la session.
100
+ """
101
+
102
+ # 1. Récupération de l'ID utilisateur à partir de l'objet injecté
103
+ # L'authentification (vérification de la session) est gérée par le décorateur.
104
+ user_id = client_user['uuid']
105
+
106
+ data = request.get_json()
107
+
108
+ # L'ancienne vérification 'if not user_id' est désormais gérée par le décorateur.
109
+
110
+ if not data or 'repo-name' not in data or 'visibility' not in data:
111
+ return jsonify({"success": False, "message": "Nom et visibilité du dépôt requis."}), 400
112
+
113
+ repo_name = data.get('repo-name').strip()
114
+ # Créer un slug simple pour le chemin HF et l'URL
115
+ # secure_filename doit être importé de werkzeug.utils
116
+ repo_slug = secure_filename(repo_name).lower().replace('-', '_')
117
+
118
+ if not repo_slug:
119
+ return jsonify({"success": False, "message": "Nom de dépôt invalide."}), 400
120
+
121
+ # Validation basique des données
122
+ visibility = data.get('visibility')
123
+ if visibility not in ['public', 'private']:
124
+ return jsonify({"success": False, "message": "Visibilité invalide."}), 400
125
+
126
+ # 1. Vérification des limites de plan (À implémenter plus tard si besoin)
127
+ # limit = get_plan_limit(client_user.get('user_plan'))
128
+
129
+ # 2. Vérification de l'existence du slug (pour s'assurer que l'utilisateur ne crée pas de doublon)
130
+ existing_repos = get_all_user_repositories(user_id)
131
+ if any(repo['repo_slug'] == repo_slug for repo in existing_repos):
132
+ return jsonify({"success": False, "message": f"Un dépôt avec le nom '{repo_name}' existe déjà."}), 409
133
+
134
+ # 3. Préparation des données du nouveau dépôt
135
+ repo_id = str(uuid.uuid4()) # ID unique pour le dépôt
136
+ new_repo_data = {
137
+ "repo_id": repo_id,
138
+ "repo_name": repo_name,
139
+ "repo_slug": repo_slug,
140
+ "user_id": user_id, # ⬅️ ID utilisateur récupéré et correctement utilisé
141
+ "visibility": visibility,
142
+ "license": data.get('license', 'None'),
143
+ "description": data.get('description', ''),
144
+ "created_at": datetime.now().isoformat()
145
+ }
146
+
147
+ try:
148
+ # 4. Enregistrement dans Baserow (Base de Données)
149
+ success_db, message_db = save_new_repository(user_id, new_repo_data)
150
+
151
+ if not success_db:
152
+ return jsonify({"success": False, "message": f"Échec de l'enregistrement du dépôt: {message_db}"}), 500
153
+
154
+ # 5. Création du dossier initial sur Hugging Face (Stockage de fichiers)
155
+ success_hf, message_hf = create_empty_repo_folder_on_hf(repo_slug, str(user_id))
156
+
157
+ if not success_hf:
158
+ # On log l'erreur et on retourne quand même un succès BDD, mais un avertissement
159
+ current_app.logger.error(f"Échec de l'initialisation HF pour {repo_slug}: {message_hf}")
160
+ return jsonify({
161
+ "success": True,
162
+ "message": f"Dépôt créé dans la BDD. Avertissement: Échec de l'initialisation du dossier sur Hugging Face ({message_hf}).",
163
+ "repo_slug": repo_slug
164
+ }), 201
165
+
166
+ # 6. Succès
167
+ return jsonify({
168
+ "success": True,
169
+ "message": "Dépôt créé avec succès.",
170
+ "repo_slug": repo_slug
171
+ }), 201
172
+
173
+ except Exception as e:
174
+ # current_app doit être importé de flask
175
+ current_app.logger.error(f"Erreur inattendue lors de la création du dépôt: {e}")
176
+ return jsonify({"success": False, "message": "Erreur serveur inattendue."}), 500
177
+
178
+ @web_bp.route('/api/repository_files/<repo_slug>', methods=['GET'])
179
+ @login_required
180
+ def get_repository_files(repo_slug):
181
+ """
182
+ Point API pour retourner tous les fichiers du dépôt spécifié par son slug,
183
+ en listant le contenu du Dataset Hugging Face.
184
+ """
185
+ user_id = session.get('user_id')
186
+
187
+ if not user_id:
188
+ return jsonify({"success": False, "message": "Session utilisateur requise."}), 401
189
+
190
+ # 1. Vérification rapide de l'existence du dépôt dans la BDD
191
+ existing_repos = get_all_user_repositories(user_id)
192
+ repo_info = next((repo for repo in existing_repos if repo['repo_slug'] == repo_slug), None)
193
+
194
+ if not repo_info:
195
+ return jsonify({"success": False, "message": "Dépôt non trouvé ou accès non autorisé."}), 404
196
+
197
+ # 2. Récupération des fichiers depuis Hugging Face
198
+ file_list, message = list_repo_files_from_hf(repo_slug, str(user_id))
199
+
200
+ if file_list is not None:
201
+ # Succès (même si la liste est vide)
202
+ return jsonify({
203
+ "success": True,
204
+ "message": message,
205
+ "repo_info": repo_info,
206
+ "files": file_list
207
+ }), 200
208
+ else:
209
+ # Échec de la récupération (ex: erreur de connexion HF)
210
+ return jsonify({"success": False, "message": message}), 500