ernestmindres commited on
Commit
54b24de
·
verified ·
1 Parent(s): 62a3c25

feat: Initialisation du nouveau dépôt 'gitforge-x' à partir de 'gitforge'.

Browse files
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/Dockerfile ADDED
@@ -0,0 +1,67 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # ÉTAPE 1: Image de base
2
+ FROM python:3.11-slim
3
+
4
+ # ÉTAPE 2: Configuration et Dossier de travail
5
+ # Nous laissons Render injecter le port via $PORT
6
+ ENV FLASK_APP app.py
7
+ # Suppression des variables GUNICORN_WORKERS et GUNICORN_THREADS car elles sont gérées
8
+ # de manière plus efficace et simple dans entrypoint.sh avec Eventlet.
9
+
10
+ # Création et utilisation du répertoire /app
11
+ WORKDIR /app
12
+
13
+ # ÉTAPE 3: Installation des dépendances (OPTIMISATION CACHING)
14
+ # Copie uniquement de requirements.txt pour mettre en cache l'installation
15
+ COPY requirements.txt .
16
+ RUN pip install --no-cache-dir -r requirements.txt \
17
+ && rm requirements.txt
18
+
19
+ # ÉTAPE 4: Copie de l'Application et des Fichiers
20
+ # CORRECTION MAJEURE : Ajout du dossier templates
21
+ COPY templates /app/templates
22
+
23
+ # Copie des autres fichiers (y compris app.py, votre point d'entrée)
24
+ COPY app.py .
25
+ COPY config.py .
26
+ COPY user_routes.py .
27
+ COPY web_routes.py .
28
+ COPY decorators.py .
29
+ COPY billing_routes.py .
30
+ COPY auth_backend.py .
31
+ COPY baserow_storage.py .
32
+ COPY huggingface_storage.py .
33
+ COPY pr_routes.py .
34
+ COPY pull_request_backend.py .
35
+ COPY issues_backend.py .
36
+ COPY issue_routes.py .
37
+ COPY project_routes.py .
38
+ COPY huggingface_repo_manager.py .
39
+ COPY hf_deploy_manager.py .
40
+ COPY deployment_routes.py .
41
+ COPY gemini_functions.py .
42
+ COPY gemini_routes.py .
43
+ COPY repo_settings_routes.py .
44
+ COPY repo_settings_manager.py .
45
+
46
+
47
+ # Copie du script d'entrée
48
+ COPY entrypoint.sh .
49
+
50
+ # NOUVEAU: CORRECTION DES FINS DE LIGNE (Résout 'exec ./entrypoint.sh: no such file or directory')
51
+ # Supprime le caractère de retour chariot (\r)
52
+ RUN sed -i 's/\r$//' entrypoint.sh
53
+
54
+ # Le rendre exécutable
55
+ RUN chmod +x entrypoint.sh
56
+
57
+ # ÉTAPE 5: Sécurité et Exécution
58
+ # Création et bascule vers l'utilisateur non-root ('user') pour la sécurité
59
+ RUN useradd -ms /bin/bash user
60
+ RUN chown -R user:user /app
61
+ USER user
62
+
63
+ # Indique à Docker que le conteneur écoute sur ce port
64
+ EXPOSE $PORT
65
+
66
+ # Lance l'application via le script d'entrée
67
+ CMD ["./entrypoint.sh"]
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/README.md ADDED
@@ -0,0 +1,5 @@
 
 
 
 
 
 
1
+ # Dépôt gitforge
2
+
3
+ Bienvenue sur votre dépôt GitForge, hébergé sur Mailix.
4
+
5
+ Commencez par ajouter ou créer des fichiers.
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/app.py ADDED
@@ -0,0 +1,377 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # app.py
2
+ import requests
3
+ import json
4
+ import os
5
+ import sys
6
+ import io
7
+ import uuid
8
+ from functools import wraps
9
+ from datetime import datetime
10
+ from flask import Flask, request, jsonify, Response, session
11
+ from flask_cors import CORS
12
+ import baserow_storage # Assurez-vous que ceci est présent
13
+ import shutil
14
+ from flask_socketio import SocketIO
15
+ import huggingface_storage # <-- NOUVEL IMPORT
16
+ import huggingface_storage # <-- NOUVEL IMPORT
17
+ # NOUVEL IMPORT POUR LA GESTION DU TERMINAL
18
+
19
+ # Importation des modules backend
20
+ from auth_backend import (
21
+ get_user_by_id,
22
+ login_user,
23
+ register_user,
24
+ generate_api_key,
25
+ get_plan_limit,
26
+ reset_password_via_security_question,
27
+ generate_password_hash,
28
+ )
29
+ from decorators import api_key_required # <-- NOUVEL IMPORT
30
+ from flask_cors import CORS # <--- S'assurer que l'importation est là
31
+ from project_routes import project_bp # Si vous nommez le nouveau Blueprint 'project_bp'
32
+ from web_routes import web_bp
33
+ from user_routes import user_bp
34
+ from billing_routes import billing_bp
35
+ from pr_routes import pr_bp # <-- NOUVEL IMPORT
36
+ from issue_routes import issue_bp # <-- NOUVEL IMPORT
37
+ from baserow_storage import check_critical_fields_existence
38
+ from deployment_routes import hf_deploy_bp # <-- IMPORT CRITIQUE
39
+ from gemini_routes import gemini_bp
40
+ from repo_settings_routes import settings_bp # Assurez-vous du chemin correct
41
+ DEFAULT_MAX_CONTENT_LENGTH = 16 * 1024 * 1024
42
+
43
+ # Dossier pour le stockage temporaire des fichiers HTML uploadés
44
+ # Nous utilisons un dossier 'temp_uploads' à la racine de l'application
45
+ UPLOAD_FOLDER = os.path.join(os.path.dirname(os.path.abspath(__file__)), 'temp_uploads')
46
+ if not os.path.exists(UPLOAD_FOLDER):
47
+ os.makedirs(UPLOAD_FOLDER) # Créer le dossier s'il n'existe pas
48
+
49
+ # Extensions de fichiers autorisées (très important pour la sécurité)
50
+ ALLOWED_EXTENSIONS = {'html', 'htm'}
51
+
52
+ # --- Initialisation de l'Application Flask (DÉPLACÉ ICI pour corriger le NameError) ---
53
+ app = Flask(__name__)
54
+
55
+ app.config['HF_DATASET_REPO_ID'] = os.environ.get('HF_DATASET_REPO_ID')
56
+
57
+ # Maintenant, 'app' est défini et on peut lui appliquer des configurations
58
+ app.config['UPLOAD_FOLDER'] = UPLOAD_FOLDER
59
+ app.config['ALLOWED_EXTENSIONS'] = ALLOWED_EXTENSIONS
60
+
61
+ from werkzeug.middleware.proxy_fix import ProxyFix
62
+ app.wsgi_app = ProxyFix(app.wsgi_app, x_for=1, x_proto=1, x_host=1, x_port=1, x_prefix=1)
63
+ # ------------------------------------------------------------------
64
+
65
+ # car Hugging Face utilise souvent Gunicorn avec ces workers.
66
+ socketio = SocketIO(app, cors_allowed_origins="*")
67
+
68
+
69
+ # Configuration
70
+ app.secret_key = os.environ.get("FLASK_SECRET_KEY", "super_secret_dev_key")
71
+ app.config['MAX_CONTENT_LENGTH'] = DEFAULT_MAX_CONTENT_LENGTH
72
+
73
+ # Permettre les requêtes cross-origin (CORS)
74
+ CORS(app, supports_credentials=True, origins="*", allow_headers=["Content-Type", "X-User-API-Key"])
75
+
76
+
77
+ # Permettre les requêtes cross-origin pour l'API
78
+ CORS(app)
79
+
80
+ app.register_blueprint(hf_deploy_bp) # <-- ENREGISTREZ LE NOUVEAU BLUEPRINT
81
+ app.register_blueprint(web_bp)
82
+ app.register_blueprint(user_bp)
83
+ app.register_blueprint(billing_bp)
84
+ app.register_blueprint(pr_bp) # <-- NOUVEL ENREGISTREMENT
85
+ app.register_blueprint(issue_bp) # <-- NOUVEL ENREGISTREMENT
86
+ app.register_blueprint(project_bp)
87
+ app.register_blueprint(settings_bp)
88
+ app.register_blueprint(gemini_bp)
89
+
90
+ # --- Décorateurs d'Authentification (Correction) ---
91
+ def login_required(f):
92
+ @wraps(f)
93
+ def decorated_function(*args, **kwargs):
94
+ user_id = session.get('user_id')
95
+
96
+ if not user_id:
97
+ # Redirection HTTP 302 vers la page de connexion pour les requêtes non-API
98
+ if not request.path.startswith('/api/'):
99
+ from flask import redirect, url_for
100
+ # NOTE: Il se peut que 'user_bp.connexion' ne soit pas la bonne route.
101
+ # Si c'est dans web_bp, utilisez web_bp.connexion_page comme dans user_routes.py
102
+ return redirect(url_for('web_bp.connexion_page')) # CORRECTION POTENTIELLE DE LA REDIRECTION
103
+ # Réponse JSON pour les API
104
+ return jsonify({"status": "Error", "message": "Accès non autorisé. Veuillez vous connecter.", "code": "AUTH_REQUIRED"}), 401
105
+
106
+ # 1. Récupérer les données utilisateur
107
+ user = get_user_by_id(user_id)
108
+
109
+ if not user:
110
+ # Si l'ID est dans la session mais l'utilisateur n'existe plus en DB
111
+ session.pop('user_id', None)
112
+ from flask import redirect, url_for
113
+ return redirect(url_for('web_bp.connexion_page')) # Rediriger l'utilisateur déconnecté
114
+
115
+ # 2. Injecter les données utilisateur dans la fonction de vue
116
+ return f(user=user, *args, **kwargs) # <--- CORRECTION CLÉ : Ajout de user=user
117
+ return decorated_function
118
+
119
+
120
+ # --- Routes d'Authentification (API - Conservées) ---
121
+
122
+ @app.route("/api/register", methods=["POST"])
123
+ def register():
124
+ data = request.get_json()
125
+ username = data.get("username")
126
+ email = data.get("email")
127
+ password = data.get("password")
128
+ confirm_password = data.get("confirm_password")
129
+ security_question = data.get("security_question")
130
+ security_answer = data.get("security_answer")
131
+
132
+ # CORRECTION ICI: Déballage des 3 valeurs retournées par register_user
133
+ user_id, message, new_user_data = register_user(username, email, password, confirm_password, security_question, security_answer)
134
+
135
+ if user_id and new_user_data: # Vérifier l'ID et les données pour s'assurer du succès
136
+ session['user_id'] = user_id
137
+
138
+ # Réponse JSON pour l'API, incluant la clé API
139
+ return jsonify({
140
+ "message": message,
141
+ "status": "Success",
142
+ "user_id": user_id,
143
+ # On récupère la clé API directement des données utilisateur
144
+ "api_key": new_user_data.get("api_key")
145
+ }), 201
146
+ else:
147
+ # Échec de l'inscription (message d'erreur de register_user)
148
+ return jsonify({"message": message, "status": "Error"}), 400
149
+
150
+
151
+
152
+ @app.route("/api/login", methods=["POST"])
153
+ def login():
154
+ """
155
+ Route de connexion de l'utilisateur principal.
156
+ Prend le nom d'utilisateur/email et le mot de passe.
157
+ """
158
+ data = request.get_json()
159
+ username = data.get("username")
160
+ password = data.get("password")
161
+
162
+ # CORRECTION DE L'ERREUR :
163
+ # Nous déballons maintenant 3 valeurs (ID, Message, Données Utilisateur)
164
+ # car la fonction login_user() dans auth_backend.py a été modifiée pour
165
+ # retourner les 3 valeurs.
166
+ user_id, message, user_data = login_user(username, password)
167
+
168
+ # Note: user_data est la 3ème valeur (Dict des données utilisateur ou None)
169
+ if user_id and user_data:
170
+ # La connexion est réussie
171
+ session['user_id'] = user_id
172
+
173
+ # Réponse API avec la clé API de l'utilisateur pour les futures requêtes
174
+ return jsonify({
175
+ "message": message,
176
+ "status": "Success",
177
+ "user_id": user_id,
178
+ # On utilise les données utilisateur (user_data) que nous avons déjà récupérées
179
+ "api_key": user_data.get("api_key")
180
+ }), 200
181
+ else:
182
+ # La connexion a échoué (identifiants invalides ou autre erreur)
183
+ return jsonify({"message": message, "status": "Error"}), 401
184
+
185
+ @app.route("/api/logout", methods=["POST"])
186
+ def logout():
187
+ session.pop('user_id', None)
188
+ return jsonify({"message": "Déconnexion réussie.", "status": "Success"}), 200
189
+
190
+ @app.route("/api/forgot-password", methods=["POST"])
191
+ def forgot_password_api(): # Renommée pour éviter conflit avec la route HTML
192
+ data = request.get_json()
193
+ username_or_email = data.get("username_or_email")
194
+ security_answer = data.get("security_answer")
195
+ new_password = data.get("new_password")
196
+
197
+ if not username_or_email or not security_answer or not new_password:
198
+ return jsonify({"message": "Champs manquants.", "status": "Error"}), 400
199
+
200
+ success, message = reset_password_via_security_question(username_or_email, security_answer, new_password)
201
+
202
+ if success:
203
+ return jsonify({
204
+ "message": message,
205
+ "status": "Success"
206
+ }), 200
207
+ else:
208
+ return jsonify({
209
+ "message": message,
210
+ "status": "Error"
211
+ }), 400
212
+
213
+
214
+ # --- Routes de Gestion de Compte (API - Conservées) ---
215
+
216
+ @app.route("/api/user/generate-key", methods=["POST"])
217
+ @login_required
218
+ def generate_user_api_key():
219
+ user_id = session.get('user_id')
220
+
221
+ new_api_key = create_dynamic_api_key()
222
+
223
+ success, message = update_user_data(user_id, {"api_key": new_api_key})
224
+
225
+ if success:
226
+ return jsonify({
227
+ "message": "Clé API utilisateur générée et sauvegardée. Conservez-la en lieu sûr. **Utilisez-la via URL simple ('api_key=...') ou en-tête 'X-User-API-Key'.**",
228
+ "status": "Success",
229
+ "api_key": new_api_key
230
+ }), 200
231
+ else:
232
+ return jsonify({
233
+ "message": f"Erreur lors de la génération de la clé : {message}",
234
+ "status": "Error"
235
+ }), 500
236
+
237
+ @app.route("/api/user/update-info", methods=["POST"])
238
+ @login_required
239
+ def update_user_info():
240
+ user_id = session.get('user_id')
241
+ data = request.get_json()
242
+
243
+ updates = {}
244
+ if 'username' in data:
245
+ updates['username'] = data['username']
246
+ if 'email' in data:
247
+ updates['email'] = data['email']
248
+ if 'plan' in data:
249
+ updates['plan'] = data['plan']
250
+
251
+ if not updates:
252
+ return jsonify({
253
+ "message": "Aucune information à mettre à jour fournie.",
254
+ "status": "Error"
255
+ }), 400
256
+
257
+ success, message = update_user_data(user_id, updates)
258
+
259
+ if success:
260
+ return jsonify({
261
+ "message": message,
262
+ "status": "Success"
263
+ }), 200
264
+ else:
265
+ return jsonify({
266
+ "message": f"Échec de la mise à jour : {message}",
267
+ "status": "Error"
268
+ }), 400
269
+
270
+
271
+
272
+ @app.route("/api/user-info", methods=["GET"])
273
+ @api_key_required
274
+ def api_user_info(client_user):
275
+ """
276
+ Route API pour récupérer les informations de l'utilisateur principal (client)
277
+ à partir de la clé API fournie.
278
+ Le 'client_user' est injecté par le décorateur api_key_required.
279
+ """
280
+ # client_user est l'objet utilisateur complet injecté par le décorateur
281
+
282
+ # Sécurité : créer une copie et supprimer les données sensibles avant l'envoi
283
+ user_info_safe = client_user.copy()
284
+ user_info_safe.pop('password_hash', None)
285
+ user_info_safe.pop('security_answer_hash', None)
286
+
287
+ return jsonify({
288
+ "message": "Informations utilisateur récupérées avec succès.",
289
+ "status": "Success",
290
+ "user": user_info_safe
291
+ }), 200
292
+
293
+
294
+
295
+ @app.route("/api/health", methods=["GET"])
296
+ def health_check():
297
+ """Vérifie l'état du service en utilisant le statut Baserow."""
298
+
299
+ # 1. Tenter d'obtenir le statut Baserow réel
300
+ try:
301
+ # Appelle la fonction de baserow_storage pour vérifier l'état
302
+ health_status = baserow_storage.get_health_status()
303
+
304
+ # Le statut 'data_storage' est la clé pour le frontend
305
+ db_status_message = health_status.get('data_storage', 'Unknown')
306
+
307
+ # Si la DB est 'operational', on envoie 'Ready'
308
+ if db_status_message == 'operational':
309
+ data_status = "Ready"
310
+ else:
311
+ data_status = f"Failed (Baserow: {db_status_message})"
312
+
313
+ except Exception as e:
314
+ # Erreur générale, Baserow inaccessible ou problème de configuration critique
315
+ data_status = f"Failed (Exception: {str(e)})"
316
+
317
+ return jsonify({
318
+ "status": "Online",
319
+ "data_storage": data_status
320
+ }), 200
321
+
322
+ @app.route("/", methods=["GET"])
323
+ def read_root():
324
+ """Endpoint racine pour le Health Check (Flask version)."""
325
+
326
+ if baserow_storage.is_baserow_up():
327
+ # Statut OK (200) avec le message
328
+ return jsonify({"status": "ok", "message": "Backend and Baserow API are reachable."}), 200
329
+ else:
330
+ # Statut de service non disponible (503) avec le message d'erreur
331
+ return jsonify({"detail": "Baserow service unavailable (Health Check failed)."}), 503
332
+
333
+
334
+
335
+ def perform_startup_checks():
336
+ """
337
+ Exécute des vérifications critiques au démarrage (Baserow et Hugging Face)
338
+ pour que les problèmes de configuration soient visibles dans les logs de Render.
339
+ """
340
+ print("\n--- DÉBUT DES VÉRIFICATIONS DE DÉMARRAGE CRITIQUES ---", file=sys.stderr)
341
+
342
+ # --- 1. VÉRIFICATION BASEROW (Connexion et Champs) ---
343
+ baserow_config_status = baserow_storage.check_baserow_connection()
344
+
345
+ if baserow_config_status != "operational":
346
+ print(f"CRITIQUE: Configuration Baserow ÉCHOUÉE: {baserow_config_status}", file=sys.stderr)
347
+ else:
348
+ print("SUCCÈS: Configuration Baserow (Tokens/IDs) trouvée.", file=sys.stderr)
349
+
350
+ # 1.1 VÉRIFICATION DE L'ÉTAT DU SERVICE BASEROW
351
+ if not baserow_storage.is_baserow_up():
352
+ print("CRITIQUE: Baserow est configuré mais le Health Check API a ÉCHOUÉ (Vérifiez la connexion ou le token).", file=sys.stderr)
353
+ else:
354
+ print("SUCCÈS: Connexion Baserow API OK.", file=sys.stderr)
355
+
356
+ # NOUVEAU: 1.2 VÉRIFICATION DE L'EXISTENCE DES CHAMPS CRITIQUES
357
+ fields_check_status = baserow_storage.check_critical_fields_existence()
358
+ if fields_check_status != "operational":
359
+ print(f"CRITIQUE: Vérification des Champs Baserow ÉCHOUÉE: {fields_check_status}", file=sys.stderr)
360
+ else:
361
+ print("SUCCÈS: Tous les champs critiques de la table Baserow sont présents.", file=sys.stderr)
362
+
363
+ # --- 2. VÉRIFICATION HUGGING FACE (Stockage de Dépôt) ---
364
+ hf_repo_id = os.environ.get("HF_DATASET_REPO_ID")
365
+ hf_token = os.environ.get("HF_TOKEN")
366
+
367
+ if not hf_repo_id:
368
+ print("CRITIQUE: HF_DATASET_REPO_ID est MANQUANT. Impossible de créer un dépôt.", file=sys.stderr)
369
+ elif not hf_token:
370
+ print("ATTENTION: HF_TOKEN est MANQUANT. Les opérations Hugging Face pourraient échouer sans jeton dans l'environnement.", file=sys.stderr)
371
+ else:
372
+ print(f"SUCCÈS: Configuration Hugging Face (Repo ID: {hf_repo_id}) trouvée.", file=sys.stderr)
373
+
374
+ print("--- FIN DES VÉRIFICATIONS DE DÉMARRAGE CRITIQUES ---\n", file=sys.stderr)
375
+
376
+ # Exécutez les vérifications au démarrage de Gunicorn
377
+ perform_startup_checks()
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/auth_backend.py ADDED
@@ -0,0 +1,371 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # auth_backend.py
2
+
3
+ import json
4
+ import uuid
5
+ import secrets
6
+ import string
7
+ import sys # Nécessaire pour print(..., file=sys.stderr)
8
+ from datetime import datetime
9
+ from werkzeug.security import generate_password_hash, check_password_hash
10
+ from huggingface_repo_manager import initialize_user_hf_folder # <--- AJOUTEZ CET IMPORT
11
+ # Ces fonctions sont maintenant implémentées dans baserow_storage.py
12
+ from baserow_storage import (
13
+ # Fonctions de lecture/écriture pour les utilisateurs principaux (simulant l'ancienne API)
14
+ get_client_user_by_api_key,
15
+ load_primary_user_data,
16
+ save_primary_user_data,
17
+ # Fonctions de recherche indexées (nouvelles et plus efficaces)
18
+ get_user_by_email,
19
+ get_client_user_by_api_key,
20
+ FIELD_USER_TYPE,
21
+ FIELD_CLIENT_ID,
22
+ )
23
+
24
+ from config import PLANS_CONFIG
25
+ from typing import Optional, Dict
26
+
27
+ # ----------------------------------------------------------------------
28
+ # --- Fonctions Utilitaires et de Configuration ---
29
+ # ----------------------------------------------------------------------
30
+
31
+ def get_plan_limit(plan: str) -> float:
32
+ """Retourne la limite de compte pour un plan donné."""
33
+ return PLANS_CONFIG.get(plan, {}).get("limit", PLANS_CONFIG["free"]["limit"])
34
+
35
+ def get_plan_details(plan_id: str) -> Optional[Dict]:
36
+ """Retourne les détails complets d'un plan à partir de son ID."""
37
+ return PLANS_CONFIG.get(plan_id)
38
+
39
+ def generate_api_key(length: int = 32) -> str:
40
+ """Génère une clé API sécurisée."""
41
+ chars = string.ascii_letters + string.digits
42
+ return ''.join(secrets.choice(chars) for _ in range(length))
43
+
44
+ # ----------------------------------------------------------------------
45
+ # --- Fonctions d'Authentification WEB (Primary Users) ---
46
+ # ----------------------------------------------------------------------
47
+
48
+
49
+ def register_user(username: str, email: str, password: str, confirm_password: str, security_question: str, security_answer: str) -> tuple[Optional[str], str, Optional[Dict]]:
50
+ """
51
+ Tente d'enregistrer un nouvel utilisateur principal.
52
+ Retourne l'ID utilisateur (str), un message (str), et les données utilisateur complètes (Dict) ou None.
53
+ """
54
+ email = email.lower().strip()
55
+
56
+ # Validation du formulaire
57
+ if not all([username, email, password, confirm_password, security_question, security_answer]):
58
+ # Retourne (ID, message, Data)
59
+ return None, "Tous les champs sont requis.", None
60
+
61
+ if password != confirm_password:
62
+ return None, "Les mots de passe ne correspondent pas.", None
63
+
64
+ if len(password) < 8:
65
+ return None, "Le mot de passe est trop court (min 8 caractères).", None
66
+
67
+ # 1. Vérification de l'existence de l'utilisateur par email
68
+ if get_user_by_email(email):
69
+ return None, "Un compte avec cette adresse e-mail existe déjà.", None
70
+
71
+ # 2. Hachage des données
72
+ password_hash = generate_password_hash(password)
73
+ security_answer_hash = generate_password_hash(security_answer.lower())
74
+
75
+ # 3. Création des données utilisateur
76
+ user_id = str(uuid.uuid4())
77
+ # Ligne optimisée: on génère les 5 clés en une seule liste
78
+ api_keys = [generate_api_key() for _ in range(5)]
79
+
80
+ new_user = {
81
+ 'user_id': user_id,
82
+ 'username': username,
83
+ 'email': email,
84
+ 'password_hash': password_hash,
85
+ # ASSIGNATION DES 5 CLÉS API AUX CHAMPS CORRESPONDANTS
86
+ 'api_key': api_keys[0],
87
+ 'api_key_2': api_keys[1],
88
+ 'api_key_3': api_keys[2],
89
+ 'api_key_4': api_keys[3],
90
+ 'api_key_5': api_keys[4],
91
+ 'security_question': security_question,
92
+ 'security_answer_hash': security_answer_hash,
93
+ 'plan_id': PLANS_CONFIG['free']['baserow_value'],
94
+ 'stripe_subscription_id': None, # Pas d'abonnement Stripe au début
95
+ 'date_creation': datetime.now().isoformat(),
96
+ 'date_plan_start': datetime.now().isoformat(),
97
+ 'api_calls_month': 0,
98
+ 'status': 'Active',
99
+ 'baserow_row_id': None, # Sera rempli par la fonction save_primary_user_data si c'est une création
100
+ # Note: D'autres champs pourraient être nécessaires ici, selon les besoins non-vus
101
+ }
102
+
103
+ # 4. Sauvegarde dans Baserow
104
+ # La fonction save_primary_user_data mettra à jour 'baserow_row_id' dans new_user si la création est réussie.
105
+ success = save_primary_user_data(new_user, commit_msg=f"feat: Création de l'utilisateur {user_id} ({email})")
106
+
107
+ if success:
108
+ # Retourne : ID utilisateur, message de succès, Dictionnaire utilisateur complet
109
+ return user_id, "Inscription réussie. Vous pouvez maintenant vous connecter.", new_user
110
+ else:
111
+ # Échec de l'écriture dans la BDD (Baserow)
112
+ # Retourne : None, message d'erreur, None
113
+ return None, "Erreur interne lors de l'enregistrement de l'utilisateur.", None
114
+
115
+ def login_user(username_or_email: str, password: str) -> tuple[Optional[str], str, Optional[Dict]]: # <-- NOUVEAU: Ajout de Optional[Dict] dans le type hint
116
+ """
117
+ Tente de connecter un utilisateur principal.
118
+ Retourne l'ID utilisateur (str), un message (str) et les données utilisateur (Dict).
119
+ """
120
+ username_or_email = username_or_email.lower().strip()
121
+
122
+ # 1. Recherche de l'utilisateur par email (Utilisation de la nouvelle fonction rapide Baserow)
123
+ user = get_user_by_email(username_or_email)
124
+
125
+ if user:
126
+ # 2. Vérification du mot de passe
127
+ if check_password_hash(user['password_hash'], password):
128
+ # CORRECTION : Retourne 3 valeurs : ID, Message, Données Utilisateur
129
+ return user['user_id'], "Connexion réussie.", user
130
+
131
+ # CORRECTION : Retourne 3 valeurs : None ID, Message, None Data
132
+ return None, "Email/Nom d'utilisateur ou mot de passe invalide.", None
133
+
134
+
135
+ def get_user_by_id(user_id: str) -> Optional[Dict]:
136
+ """
137
+ Récupère un utilisateur principal par son ID.
138
+ Utilise la fonction load_primary_user_data (qui est get_user_by_id dans Baserow).
139
+ """
140
+ return load_primary_user_data(user_id)
141
+
142
+ def get_user_by_api_key(api_key: str) -> Optional[Dict]:
143
+ """
144
+ Récupère un utilisateur principal par sa Clé API (utilisé par le décorateur).
145
+ Utilise la nouvelle fonction indexée et rapide de Baserow.
146
+ """
147
+ return get_client_user_by_api_key(api_key)
148
+
149
+
150
+ def reset_password_via_security_question(username_or_email: str, question: str, answer: str, new_password: str) -> tuple[bool, str]:
151
+ """Réinitialise le mot de passe via la question de sécurité."""
152
+ username_or_email = username_or_email.lower().strip()
153
+
154
+ # Validation du mot de passe
155
+ if len(new_password) < 8:
156
+ return False, "Le nouveau mot de passe est trop court (min 8 caractères)."
157
+
158
+ # 1. Recherche de l'utilisateur
159
+ user = get_user_by_email(username_or_email)
160
+
161
+ if not user:
162
+ return False, "Utilisateur introuvable."
163
+
164
+ # 2. Vérification de la question/réponse
165
+ if user.get('security_question') != question:
166
+ return False, "Question de sécurité incorrecte."
167
+
168
+ if not check_password_hash(user.get('security_answer_hash', ''), answer.lower()):
169
+ return False, "Réponse de sécurité incorrecte."
170
+
171
+ # 3. Hachage du nouveau mot de passe
172
+ new_hashed_password = generate_password_hash(new_password)
173
+
174
+ # 4. Mise à jour et sauvegarde en BDD (Baserow)
175
+ user['password_hash'] = new_hashed_password
176
+
177
+ success = save_primary_user_data(user, commit_msg=f"feat: Réinitialisation MDP utilisateur {user['user_id']}")
178
+
179
+ if success:
180
+ return True, "Mot de passe réinitialisé avec succès."
181
+ else:
182
+ return False, "Erreur interne lors de la mise à jour du mot de passe."
183
+
184
+
185
+ def update_user_plan(user_id: str, new_plan_id: str, stripe_subscription_id: Optional[str]) -> bool:
186
+ """Met à jour le plan et l'ID d'abonnement Stripe pour un utilisateur."""
187
+
188
+ user = get_user_by_id(user_id)
189
+
190
+ if not user:
191
+ print(f"Erreur: Utilisateur {user_id} non trouvé pour la mise à jour du plan.", file=sys.stderr)
192
+ return False
193
+
194
+ user['plan_id'] = new_plan_id
195
+ user['stripe_subscription_id'] = stripe_subscription_id
196
+ user['date_plan_start'] = datetime.now().isoformat()
197
+
198
+ success = save_primary_user_data(user, commit_msg=f"feat: Mise à jour du plan pour {user_id} vers {new_plan_id}")
199
+
200
+ return success
201
+
202
+
203
+ def update_user_profile(user_id: str, username: str, email: str, new_password: Optional[str] = None) -> tuple[bool, str]:
204
+ """
205
+ Met à jour le profil de l'utilisateur principal (client).
206
+ user_id: L'UUID de l'utilisateur.
207
+ username: Le nouveau nom d'utilisateur.
208
+ email: Le nouvel email.
209
+ new_password: Le nouveau mot de passe (si fourni et non vide).
210
+ """
211
+
212
+ # 1. Chargement des données existantes
213
+ user_data = load_primary_user_data(user_id)
214
+ if not user_data:
215
+ return False, "Erreur critique : Utilisateur introuvable pour la mise à jour."
216
+
217
+ original_email = user_data.get('email')
218
+
219
+ # 2. Validation et mise à jour de l'email
220
+ if email and email != original_email:
221
+ # Vérification si le nouvel email n'est pas déjà utilisé par un autre utilisateur
222
+ # Note: get_user_by_email retourne l'objet utilisateur, pas juste l'ID.
223
+ existing_user_by_email = get_user_by_email(email)
224
+
225
+ # S'il trouve un utilisateur ET que son ID ne correspond pas à l'utilisateur actuel,
226
+ # l'email est déjà pris.
227
+ if existing_user_by_email and existing_user_by_email.get('user_id') != user_id:
228
+ return False, "Cet email est déjà utilisé par un autre compte."
229
+
230
+ # Mise à jour de l'email si la validation passe
231
+ user_data['email'] = email
232
+
233
+ # 3. Mise à jour du nom d'utilisateur (pas de validation d'unicité assumée ici)
234
+ user_data['username'] = username
235
+
236
+ # 4. Mise à jour du mot de passe (si un nouveau est fourni)
237
+ if new_password:
238
+ if len(new_password) < 8:
239
+ # Assurez-vous que cette limite est cohérente avec la fonction register_user
240
+ return False, "Le nouveau mot de passe est trop court (min 8 caractères)."
241
+
242
+ user_data['password_hash'] = generate_password_hash(new_password)
243
+
244
+ # 5. Sauvegarde des données
245
+ # Le row_id est stocké dans l'objet utilisateur après la première sauvegarde.
246
+ baserow_row_id = user_data.get('baserow_row_id')
247
+
248
+ if baserow_row_id is None:
249
+ return False, "Erreur de configuration : ID de ligne Baserow manquant."
250
+
251
+ if save_primary_user_data(user_data, commit_msg=f"feat: Mise à jour du profil utilisateur {user_id}"):
252
+ return True, "Votre profil a été mis à jour avec succès."
253
+ else:
254
+ return False, "Une erreur s'est produite lors de la sauvegarde du profil."
255
+
256
+ def register_end_user(client_id: str, username: str, email: str, password: str, confirm_password: str) -> tuple[Optional[str], str, Optional[Dict]]:
257
+ """
258
+ Enregistre un nouvel utilisateur final (End User) lié à un utilisateur client (Primary User).
259
+ """
260
+ if password != confirm_password:
261
+ return None, "Les mots de passe ne correspondent pas.", None
262
+ if len(password) < 8:
263
+ return None, "Le mot de passe doit contenir au moins 8 caractères.", None
264
+
265
+ # Vérification de l'unicité de l'email UNIQUEMENT pour ce client et pour le type 'End'
266
+ existing_user_by_email = load_primary_user_data(
267
+ filters={
268
+ FIELD_EMAIL: email,
269
+ FIELD_USER_TYPE: 'End',
270
+ FIELD_CLIENT_ID: client_id
271
+ }
272
+ )
273
+ if existing_user_by_email:
274
+ return None, "Cet email est déjà utilisé pour votre service.", None
275
+
276
+ # 1. Création des données de l'utilisateur final
277
+ user_id = str(uuid.uuid4())
278
+ password_hash = generate_password_hash(password)
279
+
280
+ new_user_data = {
281
+ FIELD_ID: user_id,
282
+ FIELD_EMAIL: email,
283
+ FIELD_USERNAME: username,
284
+ FIELD_PASSWORD_HASH: password_hash,
285
+ FIELD_DATE_CREATION: datetime.now().isoformat(),
286
+ FIELD_USER_TYPE: 'End', # <-- IMPORTANT: Marquer comme utilisateur final
287
+ FIELD_CLIENT_ID: client_id, # <-- IMPORTANT: Lier au client principal
288
+ FIELD_PLAN: PLANS_CONFIG['free']['baserow_value'], # Plan par défaut
289
+ }
290
+
291
+ # 2. Sauvegarde dans Baserow (dans la même table)
292
+ success, row_id = save_primary_user_data(new_user_data, is_new=True)
293
+
294
+ if success:
295
+ new_user_data['baserow_row_id'] = row_id
296
+ return user_id, "Inscription réussie !", new_user_data
297
+ else:
298
+ return None, f"Erreur lors de l'enregistrement dans la base de données. ID: {user_id}", None
299
+
300
+ def login_end_user(client_id: str, email: str, password: str) -> tuple[Optional[str], str, Optional[Dict]]:
301
+ """
302
+ Connecte un utilisateur final (End User) lié à un client donné.
303
+ """
304
+ user_data_list = load_primary_user_data(
305
+ filters={
306
+ FIELD_EMAIL: email,
307
+ FIELD_USER_TYPE: 'End', # Filtrer uniquement les utilisateurs finaux
308
+ FIELD_CLIENT_ID: client_id # Filtrer par l'ID du client
309
+ }
310
+ )
311
+
312
+ if not user_data_list:
313
+ return None, "Email ou mot de passe invalide.", None
314
+
315
+ user_data = user_data_list[0]
316
+
317
+ if check_password_hash(user_data.get(FIELD_PASSWORD_HASH), password):
318
+ return user_data.get(FIELD_ID), "Connexion réussie.", user_data
319
+ else:
320
+ return None, "Email ou mot de passe invalide.", None
321
+
322
+ def reset_end_user_password(client_id: str, email: str, new_password: str, confirm_password: str) -> tuple[bool, str]:
323
+ """
324
+ Réinitialise le mot de passe d'un utilisateur final (End User) lié à un client donné.
325
+ """
326
+ if new_password != confirm_password:
327
+ return False, "Les mots de passe ne correspondent pas."
328
+ if len(new_password) < 8:
329
+ return False, "Le nouveau mot de passe est trop court (min 8 caractères)."
330
+
331
+ user_data_list = load_primary_user_data(
332
+ filters={
333
+ FIELD_EMAIL: email,
334
+ FIELD_USER_TYPE: 'End',
335
+ FIELD_CLIENT_ID: client_id
336
+ }
337
+ )
338
+
339
+ if not user_data_list:
340
+ return False, "Utilisateur non trouvé."
341
+
342
+ user_data = user_data_list[0]
343
+
344
+ # Mise à jour du mot de passe
345
+ user_data[FIELD_PASSWORD_HASH] = generate_password_hash(new_password)
346
+
347
+ baserow_row_id = user_data.get('baserow_row_id')
348
+
349
+ if baserow_row_id is None:
350
+ return False, "Erreur de configuration: ID de ligne Baserow manquant."
351
+
352
+ success, _ = save_primary_user_data(user_data, commit_to_baserow=True)
353
+
354
+ if success:
355
+ return True, "Votre mot de passe a été réinitialisé avec succès."
356
+ else:
357
+ return False, "Une erreur s'est produite lors de la réinitialisation du mot de passe."
358
+
359
+ def get_client_user_by_uuid(user_uuid: str) -> Optional[Dict]:
360
+ """
361
+ Récupère les données d'un utilisateur principal (Client) par son UUID/ID.
362
+
363
+ Ceci est un alias pour satisfaire l'appel de fonction dans decorators.py
364
+ sans avoir à modifier ce dernier fichier.
365
+
366
+ Elle suppose que la fonction 'get_user_by_id' est déjà définie
367
+ dans ce module et gère la logique de récupération de données.
368
+ """
369
+ # Assurez-vous que get_user_by_id est bien définie avant cet alias.
370
+ # get_user_by_id doit retourner les données utilisateur ou None.
371
+ return get_user_by_id(user_uuid)
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/baserow_storage.py ADDED
@@ -0,0 +1,791 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # baserow_storage.py (Version Modifiée)
2
+
3
+ import os
4
+ import requests
5
+ import json
6
+ import sys
7
+ from datetime import datetime
8
+ from typing import Optional, Dict
9
+ import logging
10
+ # Configuration du logger (ajoutez ceci en haut du fichier)
11
+ logger = logging.getLogger(__name__)
12
+ # --- Configuration Baserow (Doit être défini dans les secrets) ---
13
+ HEALTH_CHECK_URL = "https://api.baserow.io/api/database/rows/table/"
14
+
15
+ # 2. URL de BASE CORRECTE pour la construction des requêtes de données (connexion, inscription, etc.)
16
+ DATA_BASE_URL = "https://api.baserow.io/api/database/rows/"
17
+ API_TOKEN = os.environ.get("BASEROW_API_TOKEN")
18
+
19
+ # Les IDs de table seront récupérés depuis les variables d'environnement
20
+ PRIMARY_USERS_TABLE_ID = os.environ.get("PRIMARY_USERS_TABLE_ID")
21
+ END_USERS_TABLE_ID = os.environ.get("END_USERS_TABLE_ID")
22
+ # NOUVEL ID DE TABLE POUR LES DÉPLOIEMENTS (Projets)
23
+ DEPLOYMENTS_TABLE_ID = os.environ.get("DEPLOYMENTS_TABLE_ID")
24
+
25
+ # Headers pour l'authentification
26
+ HEADERS = {
27
+ "Authorization": f"Token {API_TOKEN}",
28
+ "Content-Type": "application/json"
29
+ }
30
+
31
+
32
+ FIELD_ID = 'ID' # Correspond à 'user_id' dans le code
33
+ FIELD_EMAIL = 'Email' # Correspond à 'email'
34
+ FIELD_USERNAME = 'Nom d\'utilisateur' # Correspond à 'username'
35
+ FIELD_PASSWORD_HASH = 'Hachage Mot de Passe' # Correspond à 'password_hash'
36
+ FIELD_API_KEY = 'Clé API' # Correspond à 'api_key'
37
+ FIELD_API_KEY_2 = 'Clé API 2'
38
+ FIELD_API_KEY_3 = 'Clé API 3'
39
+ FIELD_API_KEY_4 = 'Clé API 4'
40
+ FIELD_API_KEY_5 = 'Clé API 5'
41
+ FIELD_SECURITY_Q = 'Question de Sécurité'
42
+ FIELD_SECURITY_A_HASH = 'Hachage Réponse Secrète'
43
+ FIELD_PLAN_ID = 'Plan ID'
44
+ FIELD_STRIPE_SUB_ID = 'ID Abonnement Stripe'
45
+ FIELD_DATE_CREATION = 'Date Création'
46
+ FIELD_DATE_PLAN_START = 'Date Plan Start'
47
+ FIELD_API_CALLS_MONTH = 'API Calls Month' # À vérifier avec votre nom exact dans Baserow!
48
+ FIELD_STATUS = 'Status'
49
+ FIELD_END_USER_ID = 'ID Utilisateur Final' # Correspond à 'end_user_id'
50
+ FIELD_END_USER_IDENTIFIER = 'Identifiant' # Correspond à 'identifier'
51
+ FIELD_END_USER_METADATA = 'Métadonnées' # Correspond à 'metadata'
52
+ FIELD_CLIENT_ID_LINK = 'ID Client Principal' # Lien vers Primary_Users
53
+ FIELD_USER_TYPE = 'UserType' # Ex: 'Primary' pour les clients, 'End' pour leurs utilisateurs
54
+ FIELD_CLIENT_ID = 'ClientID' # L'ID de l'utilisateur 'Primary' qui possède cet utilisateur 'End'
55
+
56
+ # ----------------------------------------------------------------------
57
+ # --- Noms de Colonnes pour la Table des Utilisateurs Finaux (End Users) ---
58
+ # ----------------------------------------------------------------------
59
+ # Ces champs sont spécifiques à la table END_USERS
60
+ FIELD_END_USER_ID = 'ID Utilisateur Final'
61
+ FIELD_END_USER_IDENTIFIER = 'Identifiant' # Champ pour compatibilité ou recherche
62
+ FIELD_END_USER_EMAIL = 'Email' # NOUVEAU
63
+ FIELD_END_USER_USERNAME = 'Nom d\'utilisateur' # NOUVEAU
64
+ FIELD_END_USER_SECURITY_Q = 'Question de Sécurité' # NOUVEAU (Peut être différent de Primary)
65
+ FIELD_END_USER_SECURITY_A_HASH = 'Hachage Réponse Secrète' # NOUVEAU
66
+ FIELD_END_USER_STATUS = 'Statut' # NOUVEAU
67
+ FIELD_END_USER_METADATA = 'Métadonnées'
68
+ FIELD_PASSWORD_HASH_END_USER = 'Hachage Mot de Passe End User' # Renommer pour éviter le conflit si possible
69
+ FIELD_CLIENT_ID_LINK = 'ID Client Principal'
70
+
71
+ def _get_table_url(table_id: str) -> str:
72
+ """Construit l'URL d'API pour une table donnée (avec le bon endpoint)."""
73
+ return f"{DATA_BASE_URL}table/{table_id}/"
74
+
75
+ def _baserow_record_to_user(record: Dict, is_end_user: bool) -> Dict:
76
+ """
77
+ Convertit un enregistrement Baserow (avec noms de champs utilisateur)
78
+ en format de dictionnaire Python attendu par le backend.
79
+ """
80
+
81
+
82
+
83
+ # LOGIQUE POUR L'UTILISATEUR PRINCIPAL (PRIMARY USER)
84
+
85
+ # 1. Récupération des champs individuels
86
+ user_data = {
87
+ # Champs communs / Primary Users
88
+ 'baserow_row_id': record['id'], # ID interne de la ligne Baserow (pour les mises à jour)
89
+ 'date_creation': record.get(FIELD_DATE_CREATION),
90
+
91
+ # Primary User specific fields
92
+ 'user_id': record.get(FIELD_ID),
93
+ 'email': record.get(FIELD_EMAIL),
94
+ 'username': record.get(FIELD_USERNAME),
95
+ 'password_hash': record.get(FIELD_PASSWORD_HASH),
96
+
97
+ # Récupération des 5 clés individuelles (pour l'authentification par clé)
98
+ 'api_key': record.get(FIELD_API_KEY),
99
+ 'api_key_2': record.get(FIELD_API_KEY_2),
100
+ 'api_key_3': record.get(FIELD_API_KEY_3),
101
+ 'api_key_4': record.get(FIELD_API_KEY_4),
102
+ 'api_key_5': record.get(FIELD_API_KEY_5),
103
+
104
+ 'security_question': record.get(FIELD_SECURITY_Q),
105
+ 'security_answer_hash': record.get(FIELD_SECURITY_A_HASH),
106
+ 'plan_id': record.get(FIELD_PLAN_ID),
107
+ 'stripe_subscription_id': record.get(FIELD_STRIPE_SUB_ID),
108
+ 'date_plan_start': record.get(FIELD_DATE_PLAN_START),
109
+ }
110
+
111
+ # 2. ÉTAPE CRUCIALE AJOUTÉE : Création de la liste 'api_keys' pour l'affichage
112
+ # Cette liste est nécessaire pour que la boucle dans api_key.html fonctionne correctement.
113
+ user_data['api_keys'] = [
114
+ user_data['api_key'],
115
+ user_data['api_key_2'],
116
+ user_data['api_key_3'],
117
+ user_data['api_key_4'],
118
+ user_data['api_key_5'],
119
+ ]
120
+
121
+ # Nettoyage des clés None ou non-pertinentes
122
+ return {k: v for k, v in user_data.items() if v is not None}
123
+
124
+
125
+ def _user_to_baserow_data(user_data: Dict, is_end_user: bool) -> Dict:
126
+ """
127
+ Convertit le format de dictionnaire Python du backend en format
128
+ JSON attendu par l'API Baserow (avec noms de champs utilisateur).
129
+ """
130
+ if is_end_user:
131
+ # End User fields (Ajout des NOUVEAUX champs)
132
+ baserow_data = {
133
+ FIELD_END_USER_ID: user_data.get('end_user_id'),
134
+ FIELD_END_USER_IDENTIFIER: user_data.get('identifier'),
135
+ FIELD_END_USER_EMAIL: user_data.get('email'), # NOUVEAU
136
+ FIELD_END_USER_USERNAME: user_data.get('username'), # NOUVEAU
137
+ FIELD_END_USER_SECURITY_Q: user_data.get('security_question'), # NOUVEAU
138
+ FIELD_END_USER_SECURITY_A_HASH: user_data.get('security_answer_hash'), # NOUVEAU
139
+ FIELD_END_USER_STATUS: user_data.get('status'), # NOUVEAU
140
+
141
+ # CORRECTION CRUCIALE : Utilisation du nom de champ correct pour l'End User
142
+ FIELD_PASSWORD_HASH_END_USER: user_data.get('password_hash'),
143
+
144
+ FIELD_END_USER_METADATA: user_data.get('metadata'),
145
+ FIELD_DATE_CREATION: user_data.get('date_creation'),
146
+ # Le lien vers Primary_Users est géré dans save_end_user_data
147
+ }
148
+ else:
149
+ # Primary User fields
150
+ baserow_data = {
151
+ FIELD_ID: user_data.get('user_id'),
152
+ FIELD_EMAIL: user_data.get('email'),
153
+ FIELD_USERNAME: user_data.get('username'),
154
+ FIELD_PASSWORD_HASH: user_data.get('password_hash'),
155
+ FIELD_API_KEY: user_data.get('api_key'),
156
+ FIELD_API_KEY_2: user_data.get('api_key_2'),
157
+ FIELD_API_KEY_3: user_data.get('api_key_3'),
158
+ FIELD_API_KEY_4: user_data.get('api_key_4'),
159
+ FIELD_API_KEY_5: user_data.get('api_key_5'),
160
+ FIELD_SECURITY_Q: user_data.get('security_question'),
161
+ FIELD_SECURITY_A_HASH: user_data.get('security_answer_hash'),
162
+ FIELD_PLAN_ID: user_data.get('plan_id'),
163
+ FIELD_STRIPE_SUB_ID: user_data.get('stripe_subscription_id'),
164
+ FIELD_DATE_CREATION: user_data.get('date_creation'),
165
+ FIELD_DATE_PLAN_START: user_data.get('date_plan_start'),
166
+ FIELD_API_CALLS_MONTH: user_data.get('api_calls_month', 0),
167
+ FIELD_STATUS: user_data.get('status', 'Active') # Assurez-vous que 'Active' est une option valide dans Baserow
168
+ }
169
+
170
+ # Suppression des clés non-valorisées (None)
171
+ return {k: v for k, v in baserow_data.items() if v is not None}
172
+
173
+
174
+ def _get_single_user_record(table_id: str, field_name: str, value: str, is_end_user: bool) -> Optional[Dict]:
175
+ """Fonction générique pour rechercher un seul enregistrement par un champ (filtrage Baserow)."""
176
+ url = _get_table_url(table_id)
177
+ # Utilisation du paramètre de filtre de Baserow pour une recherche indexée (plus rapide)
178
+ filter_param = f"filter__{field_name}__equal={value}"
179
+
180
+ try:
181
+ response = requests.get(
182
+ f"{url}?user_field_names=true&{filter_param}",
183
+ headers=HEADERS
184
+ )
185
+ response.raise_for_status()
186
+
187
+ data = response.json()
188
+ if data and data.get('results'):
189
+ # On ne prend que le premier résultat (car ID/Email/API Key sont uniques)
190
+ return _baserow_record_to_user(data['results'][0], is_end_user)
191
+ return None
192
+
193
+ except requests.exceptions.RequestException as e:
194
+ print(f"Erreur de Baserow lors de la recherche par filtre {field_name}: {e}", file=sys.stderr)
195
+ return None
196
+
197
+ # ----------------------------------------------------------------------
198
+ # --- Fonctions CRUD Primary_Users (Nouveau et Remplacement) ---
199
+ # ----------------------------------------------------------------------
200
+
201
+ def get_user_by_email(email: str) -> Optional[Dict]:
202
+ """Recherche un utilisateur principal par son adresse Email."""
203
+ return _get_single_user_record(PRIMARY_USERS_TABLE_ID, FIELD_EMAIL, email, is_end_user=False)
204
+
205
+ API_KEY_FIELDS = [
206
+ FIELD_API_KEY, # Clé API
207
+ FIELD_API_KEY_2,
208
+ FIELD_API_KEY_3,
209
+ FIELD_API_KEY_4,
210
+ FIELD_API_KEY_5,
211
+ ]
212
+
213
+ # baserow_storage.py - à partir de la ligne ~180 (ou autour de la fonction get_client_user_by_api_key)
214
+
215
+ def get_client_user_by_api_key(api_key: str) -> Optional[Dict]:
216
+ """
217
+ Recherche un utilisateur principal dans Baserow en vérifiant la clé API
218
+ dans chacun des cinq champs de clé API de la table.
219
+ """
220
+ if not api_key:
221
+ logger.debug("get_client_user_by_api_key: Clé API est None ou vide.")
222
+ return None
223
+
224
+ # Construction de l'URL de base pour la table
225
+ url = f"{DATA_BASE_URL}table/{PRIMARY_USERS_TABLE_ID}/"
226
+
227
+ # Recherche large dans la table (jusqu'à 100 lignes)
228
+ # NOTE: L'API Baserow utilise `search` pour une recherche FULL TEXT dans tous les champs.
229
+ # C'est la source potentielle de l'inexactitude qui nécessite un filtrage manuel.
230
+ params = {'search': api_key, 'size': 100}
231
+
232
+ try:
233
+ # CORRECTION 1: Utilisation de la fonction _make_baserow_request
234
+ # (Cette fonction est maintenant définie à la fin du fichier)
235
+ # On utilise log_response=True ici pour avoir un log détaillé si la requête échoue
236
+ response = _make_baserow_request("GET", url, params=params, log_response=True)
237
+
238
+ if response.status_code == 200:
239
+ data = response.json()
240
+
241
+ # NOUVEAU LOG : Afficher combien de résultats ont été renvoyés par la recherche Baserow
242
+ num_results = len(data.get('results', []))
243
+ logger.info(f"BASEROW SEARCH: Clé API: {api_key[:8]}... | URL: {url} | Résultats Baserow: {num_results}")
244
+
245
+ if data and 'results' in data and num_results > 0:
246
+ # Filtrage manuel des résultats pour vérifier la clé exacte
247
+ for row in data['results']:
248
+ # Vérifier si la clé API correspond à l'un des 5 champs
249
+ if any(row.get(field) == api_key for field in API_KEY_FIELDS):
250
+ # NOUVEAU LOG : SUCCÈS - L'utilisateur a été trouvé
251
+ logger.info(f"BASEROW SUCCESS: Utilisateur trouvé avec la clé API {api_key[:8]}... dans un des 5 champs.")
252
+ try:
253
+ # On suppose que _baserow_record_to_user existe et prend un booléen
254
+ return _baserow_record_to_user(row, is_end_user=False)
255
+ except NameError:
256
+ logger.error("_baserow_record_to_user non définie. Erreur critique.")
257
+ return None
258
+
259
+ # NOUVEAU LOG : ÉCHEC DU FILTRAGE
260
+ logger.warning(f"BASEROW FILTER FAIL: {num_results} ligne(s) trouvée(s) par 'search' Baserow, mais aucune ne correspondait exactement à la clé API: {api_key[:8]}...")
261
+ return None
262
+
263
+ # Aucune ligne trouvée dans Baserow (num_results est 0)
264
+ logger.debug(f"BASEROW NO RESULT: Aucune ligne trouvée par la recherche Baserow pour la clé API: {api_key[:8]}...")
265
+ return None
266
+
267
+ # Traiter les erreurs HTTP de Baserow (log déjà dans _make_baserow_request)
268
+ return None
269
+
270
+ except Exception as e:
271
+ # Erreur inattendue pendant le traitement
272
+ logger.error(f"Erreur CRITIQUE lors du traitement de la recherche par clé API: {e}", exc_info=True)
273
+ return None
274
+
275
+ # Remplacement de l'ancien load_primary_user_data(user_id)
276
+ def load_primary_user_data(user_id: str) -> Optional[Dict]:
277
+ """Recherche un utilisateur principal par son ID (user_id)."""
278
+ return _get_single_user_record(PRIMARY_USERS_TABLE_ID, FIELD_ID, user_id, is_end_user=False)
279
+
280
+
281
+ def save_primary_user_data(user_data: Dict, commit_msg: str = "") -> bool:
282
+ """Crée ou met à jour un utilisateur principal, avec détection d'erreur ultra-précise."""
283
+ row_id = user_data.get('baserow_row_id')
284
+
285
+ # Définition de l'URL de base pour la table des utilisateurs principaux
286
+ url = _get_table_url(PRIMARY_USERS_TABLE_ID)
287
+
288
+ # 1. Conversion des données
289
+ baserow_data = _user_to_baserow_data(user_data, is_end_user=False)
290
+
291
+ # 2. Suppression des champs en lecture seule (comme dans la correction précédente)
292
+ if baserow_data.pop(FIELD_ID, None):
293
+ print(f"DEBUG: Suppression du champ '{FIELD_ID}' (UUID auto) avant l'envoi { 'POST' if not row_id else 'PATCH'}.", file=sys.stderr)
294
+
295
+ try:
296
+ # Détermination de l'action (PATCH ou POST)
297
+ if row_id:
298
+ action = "PATCH" # ⬅️ CORRECTION: Définition de 'action'
299
+ # MISE À JOUR (PATCH)
300
+ response = requests.patch(
301
+ f"{url}{row_id}/?user_field_names=true",
302
+ headers=HEADERS,
303
+ json=baserow_data
304
+ )
305
+ else:
306
+ action = "POST" # ⬅️ CORRECTION: Définition de 'action'
307
+ # CRÉATION (POST)
308
+ response = requests.post(
309
+ f"{url}?user_field_names=true", # ⬅️ CORRECTION: Utilise l'URL de table 'url'
310
+ headers=HEADERS,
311
+ json=baserow_data
312
+ )
313
+
314
+ # Déclenche une exception requests.exceptions.HTTPError pour les statuts 4xx/5xx
315
+ response.raise_for_status()
316
+
317
+ # Succès
318
+ if not row_id:
319
+ new_record = response.json()
320
+ # 1. Mettre à jour l'ID de ligne Baserow
321
+ user_data['baserow_row_id'] = new_record.get('id')
322
+ # 2. Mettre à jour l'UUID de l'utilisateur (généré par Baserow)
323
+ user_data['user_id'] = new_record.get(FIELD_ID)
324
+
325
+ print(f"DEBUG: UUID de l'utilisateur généré par Baserow et enregistré: {user_data['user_id']}", file=sys.stderr)
326
+
327
+ print(f"DEBUG: Baserow Primary User action '{action}' réussie. Row ID: {user_data.get('baserow_row_id')}. Message: {commit_msg}", file=sys.stderr)
328
+ return True
329
+
330
+ except requests.exceptions.RequestException as e:
331
+ # --- BLOC DE DÉTECTION D'ERREUR PRÉCISE (Ultra-Complet) ---
332
+
333
+ # Note: 'action' est définie dans le bloc try/except, mais si l'erreur survient
334
+ # AVANT la définition de 'action', nous devons la gérer.
335
+ # Pour être sûr, nous allons la définir ici par défaut si elle n'existe pas.
336
+ if 'action' not in locals():
337
+ action = "INCONNU"
338
+
339
+ error_message = f"🚨 ÉCHEC: Erreur lors de la sauvegarde/mise à jour du Primary User dans Baserow. Requête: {action}"
340
+ error_details = ""
341
+
342
+ if hasattr(e, 'response') and e.response is not None:
343
+ # 1. Statut HTTP et URL
344
+ error_details += f"\n -> STATUT HTTP: {e.response.status_code} ({e.response.reason})"
345
+ error_details += f"\n -> URL de la requête: {e.response.url}"
346
+
347
+ # 2. Tenter de décoder le corps de la réponse en JSON (contient les erreurs Baserow)
348
+ try:
349
+ response_json = e.response.json()
350
+ error_details += f"\n\n -> ERREUR BASEROW DÉTAILLÉE (JSON):\n{json.dumps(response_json, indent=4)}"
351
+
352
+ # Optionnel: Synthèse des erreurs de validation de champ
353
+ if isinstance(response_json, dict):
354
+ validation_errors = {k: v for k, v in response_json.items() if isinstance(v, list) and k != 'detail'}
355
+ if validation_errors:
356
+ error_details += "\n -> SYNTHÈSE DES CHAMPS INVALIDES (Vérifiez les noms de colonnes/IDs de table!):"
357
+ for field_name, errors in validation_errors.items():
358
+ error_details += f"\n - Champ '{field_name}': {', '.join([err.get('error', 'Erreur inconnue') for err in errors])}"
359
+
360
+ except json.JSONDecodeError:
361
+ # 3. Si le corps de la réponse n'est pas du JSON
362
+ error_details += f"\n\n -> ERREUR BRUTE (Réponse non-JSON):\n{e.response.text[:500]}..."
363
+
364
+ # 4. Afficher les données que nous avons tenté d'envoyer (après la suppression de l'ID si c'était une création)
365
+ error_details += f"\n\n -> DONNÉES ENVOYÉES À BASEROW:\n{json.dumps(baserow_data, indent=4)}"
366
+
367
+ # Log complet de l'erreur
368
+ print(error_message + error_details, file=sys.stderr)
369
+
370
+ return False
371
+
372
+
373
+ # ----------------------------------------------------------------------
374
+ # --- Fonctions CRUD End_Users (Remplacement) ---
375
+ # ----------------------------------------------------------------------
376
+
377
+ # baserow_storage.py : Dans la section CRUD End_Users
378
+
379
+
380
+ def _get_client_baserow_row_id(client_user_id: str) -> Optional[int]:
381
+ """Récupère l'ID de ligne interne Baserow du client principal pour le lien."""
382
+ client_user = load_primary_user_data(client_user_id) # utilise la fonction déjà créée
383
+ return client_user.get('baserow_row_id') if client_user else None
384
+
385
+
386
+ def check_baserow_connection() -> str:
387
+ """
388
+ Vérifie l'état de connexion de la base de données Baserow.
389
+ Retourne 'operational' ou 'outage'.
390
+ """
391
+ # Liste des IDs de tables critiques à vérifier
392
+ CRITICAL_TABLE_IDS = [
393
+ PRIMARY_USERS_TABLE_ID,
394
+ END_USERS_TABLE_ID
395
+ ]
396
+
397
+ if not API_TOKEN:
398
+ # Si le token API n'est pas défini, échec immédiat
399
+ print("DEBUG: BASEROW_API_TOKEN manquant.", file=sys.stderr)
400
+ return "outage"
401
+
402
+ for table_id in CRITICAL_TABLE_IDS:
403
+ if not table_id:
404
+ # Si un des IDs de table critiques n'est pas défini, échec
405
+ print(f"DEBUG: Un ID de table critique Baserow est manquant (ID: {table_id}).", file=sys.stderr)
406
+ return "outage"
407
+
408
+ # Tenter de faire un appel très léger (récupérer la première ligne)
409
+ # On utilise page_size=1 pour minimiser la charge
410
+ url = f"{DATA_BASE_URL}table/{table_id}/?page_size=1"
411
+
412
+ try:
413
+ response = requests.get(url, headers=HEADERS, timeout=5)
414
+
415
+ if response.status_code != 200:
416
+ # Si un 404, 403, ou autre erreur est retournée par Baserow pour CETTE table
417
+ print(f"DEBUG: Baserow check failed for table {table_id} with status code {response.status_code}", file=sys.stderr)
418
+ return "outage"
419
+
420
+ except requests.exceptions.RequestException as e:
421
+ # Erreur de réseau (timeout, DNS, etc.)
422
+ print(f"DEBUG: Baserow connection error for table {table_id}: {e}", file=sys.stderr)
423
+ return "outage"
424
+
425
+ # Si toutes les tables critiques ont été vérifiées avec succès
426
+ return "operational"
427
+
428
+
429
+ def get_health_status() -> Dict:
430
+ """
431
+ Collecte l'état de santé de tous les services pour la page /statut.
432
+ """
433
+
434
+ db_status = check_baserow_connection()
435
+
436
+ # L'état de l'authentification et de l'API principale sont
437
+ # généralement liés à l'état de la DB pour une application simple.
438
+ # Si la DB est HS, l'auth est HS. Sinon, ils sont OK.
439
+
440
+ auth_status = db_status # Lié à la DB (pour charger les utilisateurs)
441
+ api_endpoint_status = "operational" # L'endpoint Flask lui-même est considéré comme OK s'il tourne
442
+
443
+ # Version du service (pour information)
444
+ service_version = os.environ.get("SERVICE_VERSION", "1.0.0 (Baserow)")
445
+
446
+
447
+ return {
448
+ # Ces valeurs correspondent aux attributs 'data-status' dans statut.html
449
+ "auth": auth_status,
450
+ "data_storage": db_status,
451
+ "api_endpoint": api_endpoint_status,
452
+ "version": service_version,
453
+ "last_update": datetime.now().strftime("%Y-%m-%d %H:%M:%S UTC")
454
+ }
455
+
456
+ def is_baserow_up() -> bool:
457
+ """
458
+ Vérifie l'état de Baserow en utilisant l'URL qui garantit un statut 100% fonctionnel
459
+ sur Hugging Face, SANS utiliser la fonction de construction d'URL de table.
460
+ """
461
+ try:
462
+ # Envoie une requête GET à l'URL qui répond positivement pour le health check.
463
+ response = requests.get(
464
+ HEALTH_CHECK_URL,
465
+ headers=HEADERS,
466
+ timeout=5
467
+ )
468
+ # On vérifie si la réponse est un succès (code 200).
469
+ return response.status_code == 200
470
+ except requests.exceptions.RequestException as e:
471
+ print(f"DEBUG: Baserow health check failed: {e}")
472
+ return False
473
+
474
+ def _make_baserow_request(method: str, url: str, params: Optional[Dict] = None, data: Optional[Dict] = None, log_response: bool = True):
475
+ """
476
+ Fonction utilitaire pour effectuer des appels API à Baserow et journaliser
477
+ les requêtes et les réponses dans les logs du Space Hugging Face.
478
+ """
479
+ # 1. Journalisation de la requête
480
+ logger.info(f"BASEROW REQUEST: {method} {url}")
481
+ # ATTENTION: Ne pas logger le token API complet!
482
+ logged_headers = {k: v.replace(API_TOKEN, '[TOKEN_MASKED]') if k == 'Authorization' else v for k, v in HEADERS.items()}
483
+ logger.debug(f"BASEROW REQUEST Headers: {logged_headers}")
484
+ if data:
485
+ # Pour les requêtes POST/PUT, logger les données (sans le hash du mot de passe si possible)
486
+ logged_data = data.copy() if isinstance(data, dict) else data
487
+ # 'Hachage Mot de Passe' est le nom du champ dans _user_to_baserow_data
488
+ if isinstance(logged_data, dict) and FIELD_PASSWORD_HASH in logged_data:
489
+ logged_data[FIELD_PASSWORD_HASH] = '[PASSWORD_HASH_MASKED]'
490
+ # Le nom du champ n'était pas le même dans l'ancienne version, on utilise la constante
491
+ if isinstance(logged_data, dict) and 'Hachage du mot de passe' in logged_data:
492
+ logged_data['Hachage du mot de passe'] = '[PASSWORD_HASH_MASKED]'
493
+ logger.debug(f"BASEROW REQUEST Body: {logged_data}")
494
+
495
+ # 2. Exécution de la requête
496
+ try:
497
+ # NOTE IMPORTANTE: Utilisation des HEADERS globaux et des 'params' pour GET
498
+ if method == "GET":
499
+ response = requests.get(url, headers=HEADERS, params=params)
500
+ elif method == "POST":
501
+ response = requests.post(url, headers=HEADERS, json=data)
502
+ elif method == "PUT":
503
+ response = requests.put(url, headers=HEADERS, json=data)
504
+ elif method == "DELETE":
505
+ response = requests.delete(url, headers=HEADERS)
506
+ elif method == "PATCH": # Ajout de la méthode PATCH pour la complétude
507
+ response = requests.patch(url, headers=HEADERS, json=data)
508
+ else:
509
+ raise ValueError(f"Méthode HTTP non supportée: {method}")
510
+
511
+ # 3. Journalisation de la réponse
512
+ if log_response:
513
+ logger.info(f"BASEROW RESPONSE: Status {response.status_code}")
514
+ # Journaliser le contenu pour les erreurs
515
+ if response.status_code >= 400:
516
+ logger.error(f"BASEROW ERROR RESPONSE Body: {response.text}")
517
+
518
+ # 4. Retourner la réponse
519
+ return response
520
+
521
+ except requests.exceptions.RequestException as e:
522
+ logger.error(f"BASEROW CONNECTION ERROR: {e}")
523
+ # Retourne un objet Response factice pour l'utiliser dans la fonction appelante
524
+ return requests.Response()
525
+
526
+ # --- NOUVELLES FONCTIONS POUR LES DÉPLOIEMENTS (Projets) ---
527
+
528
+
529
+
530
+ def update_user_deployment_data(
531
+ user_baserow_row_id: int,
532
+ deploy_id: str,
533
+ user_link: str, # Utilisera l'ID interne de l'utilisateur
534
+ hf_repo_path: str
535
+ ) -> tuple[bool, str]:
536
+ """
537
+ Met à jour la ligne de l'utilisateur principal (PRIMARY_USERS_TABLE_ID)
538
+ avec les données de déploiement du projet (ID, Repo, etc.).
539
+ """
540
+ if not PRIMARY_USERS_TABLE_ID:
541
+ return False, "Erreur de configuration: ID de la table utilisateur principal manquant."
542
+
543
+ url = f"{DATA_BASE_URL}table/{PRIMARY_USERS_TABLE_ID}/{user_baserow_row_id}/"
544
+
545
+ # Les données à mettre à jour
546
+ data = {
547
+ FIELD_DEPLOY_ID: deploy_id,
548
+ FIELD_USER_REF: user_link,
549
+ FIELD_HF_REPO_PATH: hf_repo_path
550
+ }
551
+
552
+ # Utiliser PATCH pour mettre à jour seulement les champs spécifiés
553
+ response = _baserow_request(url, method="PATCH", data=data)
554
+
555
+ if response.status_code == 200:
556
+ logger.info(f"Déploiement ID {deploy_id} enregistré sur l'utilisateur Row ID {user_baserow_row_id}.")
557
+ return True, "Données de déploiement enregistrées avec succès sur le compte utilisateur."
558
+ else:
559
+ logger.error(f"Échec de la mise à jour du déploiement Baserow pour l'utilisateur {user_baserow_row_id}. Status: {response.status_code}, Body: {response.text}")
560
+ return False, f"Échec de la mise à jour Baserow: {response.status_code}"
561
+
562
+
563
+ # ----------------------------------------------------------------------
564
+ # --- MODIFICATION DE FONCTION : Récupérer le déploiement par ID ---
565
+ # La recherche doit maintenant se faire dans la table utilisateur.
566
+ # ----------------------------------------------------------------------
567
+ def get_deployment_by_id(deploy_id: str) -> Optional[Dict]:
568
+ """
569
+ Récupère les détails du déploiement (la ligne de l'utilisateur) par son ID unique (le nom du dossier HF).
570
+ """
571
+ if not PRIMARY_USERS_TABLE_ID:
572
+ return None
573
+
574
+ # Utiliser un filtre Baserow pour chercher par l'ID de déploiement dans la table utilisateur
575
+ url = f"{DATA_BASE_URL}table/{PRIMARY_USERS_TABLE_ID}/"
576
+
577
+ # Construction du filtre Baserow: filter__Deployment ID__equal={deploy_id}
578
+ filter_param = f"filter__{FIELD_DEPLOY_ID}__equal"
579
+ params = {
580
+ filter_param: deploy_id
581
+ }
582
+
583
+ response = _baserow_request(url, method="GET", params=params)
584
+
585
+ if response.status_code == 200:
586
+ results = response.json().get('results', [])
587
+ if results:
588
+ # Retourne les données de l'utilisateur contenant les données de déploiement
589
+ # Notez que cela renvoie la ligne utilisateur complète.
590
+ return results[0]
591
+ else:
592
+ return None
593
+ else:
594
+ logger.error(f"Échec de la récupération du déploiement Baserow. Status: {response.status_code}, Body: {response.text}")
595
+ return None
596
+
597
+ def save_new_repository(
598
+ user_id: int,
599
+ repo_data: Dict
600
+ ) -> tuple[bool, str]:
601
+ """
602
+ Ajoute un nouveau dépôt à la liste 'FIELD_REPOS_DATA' de l'utilisateur.
603
+ Ceci remplace l'ancienne approche 'save_new_deployment' qui supposait un seul déploiement par utilisateur.
604
+ """
605
+
606
+ user_record = load_primary_user_data(filters={FIELD_ID: user_id}, single_record=True)
607
+ if not user_record:
608
+ logger.error(f"Utilisateur ID '{user_id}' non trouvé pour l'enregistrement du dépôt.")
609
+ return False, "Utilisateur non trouvé."
610
+
611
+ row_id = user_record.get('id')
612
+ if not row_id:
613
+ return False, f"Erreur critique: ID de ligne Baserow manquant pour l'utilisateur '{user_id}'."
614
+
615
+ # 1. Récupérer et désérialiser la liste des dépôts existants
616
+ repos_json = user_record.get(FIELD_REPOS_DATA)
617
+ try:
618
+ # Baserow renvoie 'None' ou une chaîne vide si le champ est vide
619
+ existing_repos = json.loads(repos_json) if repos_json and isinstance(repos_json, str) else []
620
+ except json.JSONDecodeError:
621
+ logger.warning(f"Champs Repositories Data corrompu pour l'utilisateur {user_id}. Réinitialisation.")
622
+ existing_repos = []
623
+
624
+ # 2. Ajouter le nouveau dépôt
625
+ existing_repos.append(repo_data)
626
+
627
+ # 3. Sérialiser la liste mise à jour
628
+ updated_repos_json = json.dumps(existing_repos)
629
+
630
+ # 4. Mettre à jour Baserow
631
+ url = f"{DATA_BASE_URL}table/{PRIMARY_USERS_TABLE_ID}/{row_id}/"
632
+ data = {
633
+ FIELD_REPOS_DATA: updated_repos_json
634
+ }
635
+
636
+ response = _make_baserow_request(
637
+ method="PATCH",
638
+ url=url,
639
+ data=data,
640
+ log_response=True
641
+ )
642
+
643
+ if response.status_code == 200:
644
+ logger.info(f"Nouveau dépôt '{repo_data['repo_name']}' enregistré pour l'utilisateur ID {user_id}.")
645
+ return True, "Dépôt enregistré avec succès."
646
+ else:
647
+ # Gérer l'échec de la mise à jour (ex: données trop volumineuses ou erreur API)
648
+ error_message = response.text
649
+ logger.error(f"Échec de l'enregistrement du dépôt pour l'utilisateur {user_id}: {error_message}")
650
+ return False, f"Échec de la mise à jour Baserow: {error_message}"
651
+
652
+ # Nouvelle fonction pour récupérer la liste de tous les dépôts d'un utilisateur
653
+ def get_all_user_repositories(user_id: int) -> list:
654
+ """Récupère tous les dépôts d'un utilisateur depuis le champ JSON."""
655
+ user_record = load_primary_user_data(filters={FIELD_ID: user_id}, single_record=True)
656
+ if not user_record:
657
+ return []
658
+
659
+ repos_json = user_record.get(FIELD_REPOS_DATA)
660
+ try:
661
+ return json.loads(repos_json) if repos_json and isinstance(repos_json, str) else []
662
+ except json.JSONDecodeError:
663
+ logger.warning(f"Champs Repositories Data corrompu pour l'utilisateur {user_id}.")
664
+ return []
665
+
666
+
667
+ def delete_deployment_by_id(deploy_id: str) -> tuple[bool, str]:
668
+ """
669
+ Supprime l'enregistrement d'un déploiement (la ligne utilisateur)
670
+ dans la table PRIMARY_USERS_TABLE_ID par le Deployment ID.
671
+
672
+ Note: Cela supprime la ligne utilisateur complète. Si la structure
673
+ change (1 utilisateur -> plusieurs déploiements), cela devra être adapté.
674
+ Pour l'instant, on suppose 1 utilisateur = 1 ligne = 1 déploiement.
675
+
676
+ Version modifiée pour mettre à NULL les champs de déploiement au lieu de supprimer la ligne utilisateur.
677
+ """
678
+ # 1. Récupérer l'enregistrement de l'utilisateur par l'ID de déploiement (le dossier HF)
679
+ user_record = get_deployment_by_id(deploy_id)
680
+
681
+ if not user_record:
682
+ logger.warning(f"Tentative de suppression de déploiement échouée: ID '{deploy_id}' non trouvé dans Baserow.")
683
+ return True, "Déploiement non trouvé dans Baserow (considéré comme déjà supprimé)."
684
+
685
+ # 2. Récupérer l'ID de ligne Baserow pour la mise à jour
686
+ row_id = user_record.get('id')
687
+
688
+ if not row_id:
689
+ return False, f"Erreur critique: ID de ligne Baserow manquant pour le déploiement '{deploy_id}'."
690
+
691
+ # 3. Mettre à jour les champs de déploiement à NULL (ou vide) au lieu de supprimer la ligne utilisateur
692
+ # Note: On suppose que la suppression de déploiement réinitialise ces champs.
693
+ url = f"{DATA_BASE_URL}table/{PRIMARY_USERS_TABLE_ID}/{row_id}/"
694
+ data = {
695
+ FIELD_DEPLOY_ID: None,
696
+ FIELD_USER_REF: None,
697
+ FIELD_HF_REPO_PATH: None
698
+ }
699
+
700
+ response = _make_baserow_request(
701
+ method="PATCH",
702
+ url=url,
703
+ data=data,
704
+ log_response=True
705
+ )
706
+
707
+ if response.status_code == 200:
708
+ logger.info(f"Déploiement ID {deploy_id} supprimé (champs mis à NULL) sur l'utilisateur Row ID {row_id}.")
709
+ return True, "Déploiement supprimé de la base de données avec succès."
710
+ else:
711
+ logger.error(f"Échec de la suppression du déploiement Baserow (PATCH à NULL) pour l'utilisateur Row ID {row_id}. Status: {response.status_code}, Body: {response.text}")
712
+ return False, f"Échec de la suppression Baserow: {response.status_code}"
713
+
714
+ # baserow_storage.py - NOUVELLES FONCTIONS DE VÉRIFICATION DE CHAMPS
715
+
716
+ # --- Liste des Champs Critiques pour la Table Primary Users (pour la vérification) ---
717
+ # Ces champs sont nécessaires pour le fonctionnement global de l'app (Connexion, Profil, Déploiement)
718
+ CRITICAL_PRIMARY_USER_FIELDS = [
719
+ # Primary User Fields (Fonctions Utilisateur)
720
+ FIELD_ID,
721
+ FIELD_EMAIL,
722
+ FIELD_USERNAME,
723
+ FIELD_PASSWORD_HASH,
724
+ FIELD_API_KEY,
725
+ FIELD_API_KEY_2,
726
+ FIELD_API_KEY_3,
727
+ FIELD_API_KEY_4,
728
+ FIELD_API_KEY_5,
729
+ FIELD_SECURITY_Q,
730
+ FIELD_SECURITY_A_HASH,
731
+ FIELD_PLAN_ID,
732
+ FIELD_STRIPE_SUB_ID,
733
+ FIELD_DATE_CREATION,
734
+ FIELD_DATE_PLAN_START,
735
+ FIELD_API_CALLS_MONTH,
736
+ FIELD_STATUS,
737
+ ]
738
+
739
+ def _get_table_fields_url(table_id: str) -> str:
740
+ """Construit l'URL d'API pour lister les champs (colonnes) d'une table."""
741
+ # L'endpoint pour lister les champs est généralement /api/database/fields/table/{table_id}/
742
+ return f"https://api.baserow.io/api/database/fields/table/{table_id}/"
743
+
744
+ def check_critical_fields_existence() -> str:
745
+ """
746
+ Vérifie que tous les champs critiques requis sont présents dans la table PRIMARY_USERS_TABLE_ID.
747
+ Retourne "operational" ou un message d'erreur listant les champs manquants.
748
+ """
749
+ if not API_TOKEN or not PRIMARY_USERS_TABLE_ID:
750
+ return "Configuration Baserow incomplète (Token ou ID de Table Manquant)."
751
+
752
+ table_id = PRIMARY_USERS_TABLE_ID
753
+ url = _get_table_fields_url(table_id)
754
+
755
+ try:
756
+ # Assurez-vous d'utiliser une fonction de requête qui gère l'authentification (e.g., _make_baserow_request si elle existe)
757
+ # Ici, nous utilisons directement requests pour un exemple clair.
758
+ response = requests.get(url, headers=HEADERS, timeout=10)
759
+ response.raise_for_status() # Lève une exception pour les codes d'erreur HTTP (4xx, 5xx)
760
+
761
+ fields_data = response.json().get('results', [])
762
+
763
+ # 1. Obtenir les noms des champs existants
764
+ existing_field_names = {field.get('name') for field in fields_data if 'name' in field}
765
+
766
+ # 2. Identifier les champs manquants
767
+ missing_fields = [
768
+ field_name for field_name in CRITICAL_PRIMARY_USER_FIELDS
769
+ if field_name not in existing_field_names
770
+ ]
771
+
772
+ if missing_fields:
773
+ missing_str = ", ".join(missing_fields)
774
+ logger.error(f"Champs Baserow Manquants dans la table {table_id}: {missing_str}")
775
+ return f"CHAMPS BASEROW MANQUANTS: {missing_str}. Veuillez les créer."
776
+
777
+ logger.info(f"SUCCÈS: Tous les {len(CRITICAL_PRIMARY_USER_FIELDS)} champs critiques Baserow sont trouvés.")
778
+ return "operational"
779
+
780
+ except requests.exceptions.HTTPError as e:
781
+ # Gérer l'erreur 404 si la table n'existe pas, ou 401/403 si le token est invalide
782
+ logger.error(f"Échec de l'API Baserow lors de la vérification des champs pour la table {table_id}: {e}")
783
+ return f"ÉCHEC API LORS DE LA VÉRIFICATION DES CHAMPS (Statut: {e.response.status_code}). Le token ou l'ID de table est probablement incorrect."
784
+ except requests.exceptions.RequestException as e:
785
+ logger.error(f"Erreur de connexion lors de la vérification des champs Baserow: {e}")
786
+ return f"ERREUR RÉSEAU/TIMEOUT lors de la vérification des champs Baserow: {e}"
787
+ except Exception as e:
788
+ logger.error(f"Erreur inattendue lors de la vérification des champs Baserow: {e}")
789
+ return f"ERREUR INATTENDUE: {e}"
790
+
791
+
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/billing_routes.py ADDED
@@ -0,0 +1,137 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # billing_routes.py
2
+
3
+ import os
4
+ import stripe
5
+ import json
6
+ from flask import Blueprint, request, jsonify, Response, session, current_app, url_for
7
+ from decorators import login_required
8
+ from auth_backend import get_user_by_id, get_plan_details, update_user_plan
9
+ import traceback
10
+
11
+ # Initialisation de Stripe avec la clé secrète
12
+ # La clé sera lue depuis les variables d'environnement (secrets HF)
13
+ stripe.api_key = os.environ.get("STRIPE_SECRET_KEY")
14
+
15
+ # Création du Blueprint 'billing_bp'
16
+ billing_bp = Blueprint('billing_bp', __name__)
17
+
18
+ # --- Route API pour créer la session de paiement (Phase 3) ---
19
+ @billing_bp.route("/api/create-checkout-session", methods=["POST"])
20
+ @login_required
21
+ def create_checkout_session():
22
+ """
23
+ Crée une session de checkout Stripe pour un plan donné.
24
+ """
25
+ data = request.get_json()
26
+ # Le plan_id doit être l'ID complet (ex: 'standard_monthly' ou 'illimited_annual')
27
+ final_plan_id = data.get('plan_id')
28
+ user_id = session.get('user_id')
29
+
30
+ plan_details = get_plan_details(final_plan_id)
31
+
32
+ # Détermination de l'ID de prix Stripe (utilise monthly ou annual selon ce qui est défini)
33
+ price_id = plan_details.get('price_id_monthly') or plan_details.get('price_id_annual')
34
+
35
+ # Vérification de l'existence du plan et de l'ID de prix Stripe
36
+ if not plan_details or not price_id:
37
+ if final_plan_id == 'free':
38
+ return jsonify({"message": "Ce plan est gratuit, pas de session de paiement requise.", "url": url_for('user_bp.dashboard')}), 200
39
+
40
+ # Logique de sécurité/erreur si l'ID de prix est manquant pour un plan payant
41
+ current_app.logger.error(f"Erreur: ID de prix Stripe manquant pour le plan {final_plan_id}.")
42
+ return jsonify({"message": "Erreur de configuration du plan.", "status": "Error"}), 500
43
+
44
+ try:
45
+ # Création de la session de paiement Stripe
46
+ checkout_session = stripe.checkout.Session.create(
47
+ # Type de paiement pour les abonnements récurrents
48
+ mode='subscription',
49
+ # Les IDs de prix Stripe
50
+ line_items=[
51
+ {
52
+ 'price': price_id,
53
+ 'quantity': 1
54
+ }
55
+ ],
56
+ # URLs de redirection après paiement/annulation
57
+ # _external=True est crucial pour que Stripe puisse rediriger correctement
58
+ success_url=url_for('user_bp.dashboard', payment='success', _external=True),
59
+ cancel_url=url_for('web_bp.checkout', plan=final_plan_id, payment='cancel', _external=True),
60
+
61
+ # Informations personnalisées CRITIQUES pour le Webhook
62
+ metadata={
63
+ 'user_id': user_id,
64
+ 'plan_id': final_plan_id, # L'ID de plan complet (e.g. 'standard_monthly')
65
+ },
66
+ # Laisse Stripe pré-remplir l'email du client (si on le souhaite)
67
+ # customer_email=get_user_by_id(user_id).get('email'),
68
+ )
69
+
70
+ # Retourne l'URL de la session Stripe au frontend
71
+ return jsonify({'url': checkout_session.url}), 200
72
+
73
+ except stripe.error.StripeError as e:
74
+ current_app.logger.error(f"Erreur Stripe lors de la création de session: {e}")
75
+ return jsonify({"message": f"Une erreur Stripe est survenue: {e.user_message}", "status": "Error"}), 400
76
+ except Exception as e:
77
+ # Log toutes les autres erreurs pour le diagnostic
78
+ current_app.logger.error(f"Erreur inattendue lors de la création de session: {e}\n{traceback.format_exc()}")
79
+ return jsonify({"message": "Erreur interne du serveur lors de la création de la session.", "status": "Error"}), 500
80
+
81
+
82
+ # --- Route Webhook Stripe (Phase 4) ---
83
+ @billing_bp.route('/webhook/stripe', methods=['POST'])
84
+ def stripe_webhook():
85
+ """
86
+ Gère les événements envoyés par Stripe pour mettre à jour l'abonnement de l'utilisateur.
87
+ """
88
+ payload = request.data
89
+ sig_header = request.headers.get('stripe-signature')
90
+ endpoint_secret = os.environ.get("STRIPE_WEBHOOK_SECRET")
91
+
92
+ # 1. Vérification que le secret est bien configuré
93
+ if not endpoint_secret:
94
+ current_app.logger.error("Erreur de configuration: STRIPE_WEBHOOK_SECRET est manquant.")
95
+ return jsonify({'message': 'Erreur de configuration serveur.'}), 500
96
+
97
+ try:
98
+ # 2. Validation de la signature du Webhook
99
+ event = stripe.Webhook.construct_event(
100
+ payload, sig_header, endpoint_secret
101
+ )
102
+ except Exception as e:
103
+ current_app.logger.error(f"Erreur Webhook Stripe (Validation): {e}")
104
+ # Retourne 400 pour que Stripe sache qu'il ne doit pas retenter cet événement
105
+ return 'Invalid payload or signature', 400
106
+
107
+ # 3. Traitement des événements
108
+ if event['type'] == 'checkout.session.completed':
109
+ session_data = event['data']['object']
110
+
111
+ # Récupération des métadonnées CRITIQUES
112
+ user_id = session_data.get('metadata', {}).get('user_id')
113
+ plan_id = session_data.get('metadata', {}).get('plan_id') # L'ID de plan complet (e.g. 'standard_monthly')
114
+ subscription_id = session_data.get('subscription') # L'ID d'abonnement Stripe
115
+
116
+ if user_id and plan_id and subscription_id:
117
+ # Appel à la fonction de mise à jour de la base de données (Phase 4)
118
+ success = update_user_plan(user_id, plan_id, subscription_id)
119
+
120
+ if success:
121
+ current_app.logger.info(f"SUCCESS: Utilisateur {user_id} mis à jour au plan {plan_id} (Sub ID: {subscription_id})")
122
+ else:
123
+ # Le paiement a eu lieu, mais la BDD n'a pas été mise à jour: CRITIQUE
124
+ current_app.logger.error(f"FAILURE: Échec de la mise à jour Git pour l'utilisateur {user_id} après paiement Stripe. Plan: {plan_id}")
125
+ else:
126
+ # Manque d'infos critiques dans le webhook
127
+ current_app.logger.error(f"FAILURE: Données critiques manquantes dans le webhook. Session ID: {session_data.get('id')}. User ID: {user_id}. Plan ID: {plan_id}")
128
+ # Retourne 200 pour éviter une boucle de ré-envoi par Stripe
129
+ return jsonify({'message': 'Données utilisateur critiques manquantes dans la session Stripe.'}), 200
130
+
131
+ # Vous pouvez ajouter d'autres événements si nécessaire (ex: 'customer.subscription.deleted')
132
+ # elif event['type'] == 'customer.subscription.deleted':
133
+ # current_app.logger.info(f"INFO: Abonnement Stripe supprimé. ID de souscription: {event['data']['object'].get('id')}")
134
+
135
+
136
+ # Retourne une réponse pour accuser réception de l'événement (très important)
137
+ return jsonify({'status': 'success'}), 200
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/config.py ADDED
@@ -0,0 +1,122 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # config.py
2
+
3
+ # Fichier de configuration pour le backend ErnestMind 2.5
4
+ import os
5
+
6
+ # --- Configuration Baserow (Nouveau) ---
7
+ # Clés à définir dans les secrets d'environnement Hugging Face Space
8
+ BASEROW_DATABASE_ID = os.environ.get("BASEROW_DATABASE_ID")
9
+ PRIMARY_USERS_TABLE_ID = os.environ.get("PRIMARY_USERS_TABLE_ID")
10
+ END_USERS_TABLE_ID = os.environ.get("END_USERS_TABLE_ID")
11
+ # Le token d'accès API
12
+ BASEROW_API_TOKEN = os.environ.get("BASEROW_API_TOKEN")
13
+
14
+ # --- Configuration Stripe (Paiement) ---
15
+ # Clés à définir dans les secrets d'environnement Hugging Face Space
16
+ STRIPE_SECRET_KEY = os.environ.get("STRIPE_SECRET_KEY")
17
+ STRIPE_WEBHOOK_SECRET = os.environ.get("STRIPE_WEBHOOK_SECRET")
18
+ # Clé Publique (utilisée par le Frontend, mais stockée ici pour référence)
19
+ STRIPE_PUBLIC_KEY = os.environ.get("STRIPE_PUBLIC_KEY")
20
+ # --- Configuration Hugging Face (NOUVEAU: PRs) ---
21
+ HF_DATASET_REPO_ID = os.environ.get("HF_DATASET_REPO_ID") # Déjà existant
22
+ # NOUVELLE VARIABLE pour le dépôt des métadonnées de Pull Requests
23
+ PULL_REQUESTS_HF_REPO_ID = os.environ.get("PULL_REQUESTS_HF_REPO_ID")
24
+ # NOUVELLE VARIABLE pour le dépôt des métadonnées des Issues
25
+ ISSUES_HF_REPO_ID = os.environ.get("ISSUES_HF_REPO_ID")
26
+ GEMINI_API_KEY = os.environ.get("GEMINI_API_KEY")
27
+ HF_TOKEN = os.environ.get("HF_TOKEN")
28
+ GRMINI_HF_REPO_ID = os.environ.get("GEMINI_HF_REPO_ID")
29
+ # ID du Dataset Hugging Face dédié au stockage d'images
30
+ IMAGE_STORAGE_HF_REPO_ID = os.environ.get("IMAGE_STORAGE_HF_REPO_ID")
31
+ # Les 'price_id' doivent correspondre aux IDs créés dans Stripe.
32
+ PLANS_CONFIG = {
33
+ # Plan Gratuit
34
+ "free": {
35
+ "title": "Gratuit",
36
+ "baserow_value": "Free", # <--- NOUVEAU: Mettre la valeur EXACTE attendue par Baserow (ex: GRATUIT, Free, etc.)
37
+ "description": "Idéal pour les tests et les petits projets.",
38
+ "limit": 500,
39
+ "price_monthly": 0.0,
40
+ "price_annual": 0.0,
41
+ "price_id_monthly": None,
42
+ "price_id_annual": None,
43
+ "currency": "EUR"
44
+ },
45
+ # Plan Standard - Mensuel
46
+ "standard_monthly": {
47
+ "title": "Standard (Mensuel)",
48
+ "description": "Pour les utilisateurs réguliers. Paiement mensuel.",
49
+ "limit": 1000,
50
+ "price_monthly": 19.99,
51
+ "price_annual": 0.0,
52
+ "price_id_monthly": "price_1OvXXXXXXX", # REMPLACER PAR VOTRE VRAI ID STRIPE
53
+ "price_id_annual": None,
54
+ "currency": "EUR"
55
+ },
56
+ # Plan Standard - Annuel
57
+ "standard_annual": {
58
+ "title": "Standard (Annuel)",
59
+ "description": "Pour les utilisateurs réguliers. Économisez 20% en payant à l'année.",
60
+ "limit": 1000,
61
+ "price_monthly": 0.0,
62
+ "price_annual": 199.90,
63
+ "price_id_monthly": None,
64
+ "price_id_annual": "price_1OwYYYYYYY", # REMPLACER PAR VOTRE VRAI ID STRIPE
65
+ "currency": "EUR"
66
+ },
67
+ # Plan Pro - Mensuel
68
+ "pro_monthly": {
69
+ "title": "Pro (Mensuel)",
70
+ "description": "Pour les professionnels et les projets importants. Paiement mensuel.",
71
+ "limit": 2000,
72
+ "price_monthly": 49.99,
73
+ "price_annual": 0.0,
74
+ "price_id_monthly": "price_1OxZZZZZZZ", # REMPLACER PAR VOTRE VRAI ID STRIPE
75
+ "price_id_annual": None,
76
+ "currency": "EUR"
77
+ },
78
+ # Plan Pro - Annuel
79
+ "pro_annual": {
80
+ "title": "Pro (Annuel)",
81
+ "description": "Pour les professionnels et les projets importants. Économisez 20% en payant à l'année.",
82
+ "limit": 2000,
83
+ "price_monthly": 0.0,
84
+ "price_annual": 499.90,
85
+ "price_id_monthly": None,
86
+ "price_id_annual": "price_1OyAAAAAAA", # REMPLACER PAR VOTRE VRAI ID STRIPE
87
+ "currency": "EUR"
88
+ },
89
+ # Plan Illimité - Mensuel
90
+ "illimited_monthly": {
91
+ "title": "Illimité (Mensuel)",
92
+ "description": "Sans aucune restriction, pour les grandes entreprises. Paiement mensuel.",
93
+ "limit": float('inf'),
94
+ "price_monthly": 99.99,
95
+ "price_annual": 0.0,
96
+ "price_id_monthly": "price_1OzBBBBBBB", # REMPLACER PAR VOTRE VRAI ID STRIPE
97
+ "price_id_annual": None,
98
+ "currency": "EUR"
99
+ },
100
+ # Plan Illimité - Annuel
101
+ "illimited_annual": {
102
+ "title": "Illimité (Annuel)",
103
+ "description": "Sans aucune restriction, pour les grandes entreprises. Économisez 20% en payant à l'année.",
104
+ "limit": float('inf'),
105
+ "price_monthly": 0.0,
106
+ "price_annual": 999.90,
107
+ "price_id_monthly": None,
108
+ "price_id_annual": "price_1OzAACCCCC", # REMPLACER PAR VOTRE VRAI ID STRIPE
109
+ "currency": "EUR"
110
+ },
111
+ # Plan Spécial pour les End-users (pas listé sur la page de prix)
112
+ "end_user": {
113
+ "title": "End-User",
114
+ "description": "Compte utilisateur créé par un client.",
115
+ "limit": 0,
116
+ "price_monthly": 0.0,
117
+ "price_annual": 0.0,
118
+ "price_id_monthly": None,
119
+ "price_id_annual": None,
120
+ "currency": "EUR"
121
+ },
122
+ }
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/data_processing.py ADDED
@@ -0,0 +1,366 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import pandas as pd
2
+ import numpy as np
3
+ import streamlit as st
4
+ import io
5
+ import json
6
+ import hashlib
7
+ import os
8
+ import matplotlib.pyplot as plt
9
+ import seaborn as sns
10
+ import tempfile
11
+ from sklearn.preprocessing import LabelEncoder, StandardScaler, MinMaxScaler
12
+ from sklearn.impute import KNNImputer
13
+ from collections import Counter
14
+ from wordcloud import WordCloud
15
+ import spacy
16
+ import matplotlib.colors as mcolors
17
+ import plotly.express as px
18
+ from sklearn.cluster import KMeans
19
+ from sklearn.ensemble import IsolationForest
20
+
21
+ from translations import txt, set_language, slugify
22
+
23
+
24
+ def _get_themes_file_path():
25
+ """
26
+ Retourne le chemin du fichier JSON pour les thèmes.
27
+ """
28
+ # Utilise un répertoire temporaire ou le répertoire de l'application Streamlit
29
+ return os.path.join(tempfile.gettempdir(), 'app_themes.json')
30
+
31
+ def save_theme_preferences(theme_name, theme_data):
32
+ """
33
+ Sauvegarde un thème nommé dans un fichier JSON.
34
+ """
35
+ themes_path = _get_themes_file_path()
36
+ try:
37
+ if os.path.exists(themes_path):
38
+ with open(themes_path, 'r', encoding='utf-8') as f:
39
+ saved_themes = json.load(f)
40
+ else:
41
+ saved_themes = {}
42
+
43
+ saved_themes[theme_name] = theme_data
44
+
45
+ with open(themes_path, 'w', encoding='utf-8') as f:
46
+ json.dump(saved_themes, f, ensure_ascii=False, indent=4)
47
+
48
+ return True, txt("theme_saved_success")
49
+ except Exception as e:
50
+ return False, f"{txt('error_saving_theme')} : {e}"
51
+
52
+ def get_saved_themes():
53
+ """
54
+ Récupère les thèmes sauvegardés depuis le fichier JSON.
55
+ """
56
+ themes_path = _get_themes_file_path()
57
+ try:
58
+ if os.path.exists(themes_path):
59
+ with open(themes_path, 'r', encoding='utf-8') as f:
60
+ return json.load(f)
61
+ return {}
62
+ except Exception:
63
+ return {}
64
+
65
+ def delete_theme_preferences(theme_name):
66
+ """
67
+ Supprime un thème nommé du fichier JSON.
68
+ """
69
+ themes_path = _get_themes_file_path()
70
+ try:
71
+ if os.path.exists(themes_path):
72
+ with open(themes_path, 'r', encoding='utf-8') as f:
73
+ saved_themes = json.load(f)
74
+
75
+ if theme_name in saved_themes:
76
+ del saved_themes[theme_name]
77
+ with open(themes_path, 'w', encoding='utf-8') as f:
78
+ json.dump(saved_themes, f, ensure_ascii=False, indent=4)
79
+ return True, txt("theme_deleted_success")
80
+ return False, txt("theme_not_found")
81
+ except Exception as e:
82
+ return False, f"{txt('error_deleting_theme')} : {e}"
83
+
84
+ def update_theme(theme_data):
85
+ """
86
+ Applique le thème sélectionné en mettant à jour le fichier de configuration de Streamlit.
87
+ """
88
+ st.session_state['theme'] = theme_data
89
+ # Note: Streamlit doit être relancé pour que le thème s'applique complètement
90
+ st.rerun()
91
+
92
+ def read_data_file(file_path, delimiter=','):
93
+ """
94
+ Reads a file from a given path and returns a pandas DataFrame.
95
+ Supports CSV, TXT, JSON, and Excel formats.
96
+ """
97
+ try:
98
+ file_extension = os.path.splitext(file_path)[1].lower()
99
+ if file_extension in ['.csv', '.txt']:
100
+ # Essayer différentes encodages si le premier échoue
101
+ try:
102
+ df = pd.read_csv(file_path, delimiter=delimiter, encoding='utf-8')
103
+ except UnicodeDecodeError:
104
+ df = pd.read_csv(file_path, delimiter=delimiter, encoding='latin1')
105
+ elif file_extension == '.json':
106
+ df = pd.read_json(file_path)
107
+ elif file_extension in ['.xls', '.xlsx']:
108
+ df = pd.read_excel(file_path)
109
+ elif file_extension == '.parquet': # Ajout de support pour Parquet
110
+ df = pd.read_parquet(file_path)
111
+ elif file_extension == '.orc': # Ajout de support pour ORC
112
+ df = pd.read_orc(file_path)
113
+ elif file_extension == '.feather': # Ajout de support pour Feather
114
+ df = pd.read_feather(file_path)
115
+ elif file_extension == '.dta': # Ajout de support pour Stata
116
+ df = pd.read_stata(file_path)
117
+ elif file_extension == '.sas7bdat': # Ajout de support pour SAS
118
+ df = pd.read_sas(file_path)
119
+ else:
120
+ return None, txt("unsupported_file_type")
121
+ return df, txt("file_read_success")
122
+ except Exception as e:
123
+ return None, f"{txt('error_reading_file')} : {e}"
124
+
125
+ def get_data_overview(df):
126
+ """
127
+ Aperçu général du DataFrame.
128
+ """
129
+ return {
130
+ "rows": df.shape[0],
131
+ "cols": df.shape[1],
132
+ "column_types": df.dtypes.to_dict()
133
+ }
134
+
135
+ def get_missing_values_summary(df):
136
+ """
137
+ Résumé des valeurs manquantes.
138
+ """
139
+ missing_data = df.isnull().sum()
140
+ missing_data = missing_data[missing_data > 0].sort_values(ascending=False)
141
+ missing_percent = (missing_data / len(df)) * 100
142
+ missing_summary = pd.DataFrame({'Total': missing_data, 'Pourcentage': missing_percent})
143
+ return missing_summary
144
+
145
+ def generate_multicolor_plots(df):
146
+ """
147
+ Génère 6 visualisations multicolores pour l'analyse des données.
148
+ """
149
+ st.subheader(txt("auto_generated_visualizations_title"))
150
+
151
+ numeric_cols = df.select_dtypes(include=np.number).columns.tolist()
152
+ categorical_cols = df.select_dtypes(include=['object', 'category']).columns.tolist()
153
+
154
+ # Définir une palette de couleurs dynamique
155
+ colors = px.colors.qualitative.Plotly # Utiliser une palette Plotly
156
+
157
+ # 1. Histogramme de distribution pour une colonne numérique clé (ex: Prix ou première numérique)
158
+ if numeric_cols:
159
+ col = 'Prix' if 'Prix' in numeric_cols else numeric_cols[0]
160
+ fig = px.histogram(df, x=col, title=txt("dist_of").format(col=col), color_discrete_sequence=[colors[0]])
161
+ st.plotly_chart(fig, use_container_width=True)
162
+
163
+ # 2. Bar plot pour la fréquence d'une colonne catégorielle clé (ex: Type_Propriete ou première catégorielle)
164
+ if categorical_cols:
165
+ col = 'Type_Propriete' if 'Type_Propriete' in categorical_cols else categorical_cols[0]
166
+ if not df[col].empty:
167
+ value_counts_df = df[col].value_counts().reset_index(name='count')
168
+ fig = px.bar(value_counts_df, x=value_counts_df.columns[0], y='count', title=txt("freq_of").format(col=col),
169
+ color='count', color_continuous_scale=px.colors.sequential.Viridis)
170
+ st.plotly_chart(fig, use_container_width=True)
171
+
172
+ # 3. Scatter plot entre deux colonnes numériques (ex: Surface_m2 vs Prix)
173
+ if 'Surface_m2' in numeric_cols and 'Prix' in numeric_cols:
174
+ fig = px.scatter(df, x='Surface_m2', y='Prix', title=txt("scatter_surface_price"),
175
+ color='Type_Propriete' if 'Type_Propriete' in categorical_cols else None,
176
+ color_discrete_sequence=colors)
177
+ st.plotly_chart(fig, use_container_width=True)
178
+ elif len(numeric_cols) >= 2:
179
+ fig = px.scatter(df, x=numeric_cols[0], y=numeric_cols[1], title=txt("scatter_generic").format(col1=numeric_cols[0], col2=numeric_cols[1]),
180
+ color=df.columns[0] if df.columns[0] in categorical_cols else None, # Utilise une colonne catégorielle pour la couleur si disponible
181
+ color_discrete_sequence=colors)
182
+ st.plotly_chart(fig, use_container_width=True)
183
+
184
+ # 4. Box plot pour une colonne numérique par catégorie (ex: Prix par Localisation)
185
+ if 'Prix' in numeric_cols and 'Localisation' in categorical_cols:
186
+ fig = px.box(df, x='Localisation', y='Prix', title=txt("box_price_by_location"), color_discrete_sequence=colors)
187
+ st.plotly_chart(fig, use_container_width=True)
188
+ elif numeric_cols and categorical_cols:
189
+ fig = px.box(df, x=categorical_cols[0], y=numeric_cols[0], title=txt("box_generic").format(num_col=numeric_cols[0], cat_col=categorical_cols[0]), color_discrete_sequence=colors)
190
+ st.plotly_chart(fig, use_container_width=True)
191
+
192
+ # 5. Matrice de corrélation
193
+ num_df_for_corr = df.select_dtypes(include=np.number)
194
+ if num_df_for_corr.shape[1] > 1:
195
+ corr_matrix = num_df_for_corr.corr()
196
+ fig = px.imshow(corr_matrix, text_auto=True, aspect="auto",
197
+ color_continuous_scale=px.colors.sequential.RdBu,
198
+ title=txt("correlation_matrix_title"))
199
+ st.plotly_chart(fig, use_container_width=True)
200
+
201
+ # 6. Sunburst chart pour la hiérarchie catégorielle ou simple pie chart
202
+ if len(categorical_cols) >= 2:
203
+ # Créer une hiérarchie fictive pour l'exemple si possible
204
+ path = [categorical_cols[0], categorical_cols[1]]
205
+ fig = px.sunburst(df, path=path, title=txt("sunburst_hierarchical"),
206
+ color_discrete_sequence=colors)
207
+ st.plotly_chart(fig, use_container_width=True)
208
+ elif categorical_cols:
209
+ col = categorical_cols[0]
210
+ fig = px.pie(df, names=col, title=txt("pie_chart_of").format(col=col),
211
+ color_discrete_sequence=colors)
212
+ st.plotly_chart(fig, use_container_width=True)
213
+
214
+
215
+ def generate_data_quality_visualizations(df):
216
+ """
217
+ Génère des visualisations pour l'analyse de la qualité des données.
218
+ Cette fonction est désormais un wrapper pour generate_multicolor_plots et wordcloud.
219
+ """
220
+ generate_multicolor_plots(df) # Appelle la nouvelle fonction pour les 6 graphiques
221
+
222
+ st.subheader(txt("word_cloud_title"))
223
+ text_cols = df.select_dtypes(include=['object']).columns
224
+ if len(text_cols) > 0:
225
+ st.info(txt("word_cloud_info"))
226
+ selected_text_col = st.selectbox(txt("select_text_column"), text_cols)
227
+ text = " ".join(review for review in df[selected_text_col].astype(str).dropna())
228
+ if text:
229
+ wordcloud = WordCloud(
230
+ width=800,
231
+ height=400,
232
+ background_color='white'
233
+ ).generate(text)
234
+
235
+ fig, ax = plt.subplots()
236
+ ax.imshow(wordcloud, interpolation='bilinear')
237
+ ax.axis('off')
238
+ st.pyplot(fig)
239
+ else:
240
+ st.warning(txt("no_text_data_for_wordcloud"))
241
+ else:
242
+ st.write(txt("no_text_columns"))
243
+
244
+ def generate_ai_report_visualizations(df, shap_values_data, X_test_data):
245
+ """
246
+ Generates SHAP visualizations for the AI report section.
247
+ """
248
+ if shap_values_data is not None and X_test_data is not None:
249
+ try:
250
+ st.markdown("### Importance des Caractéristiques (SHAP)")
251
+ st.info("Les valeurs SHAP sont calculées pour expliquer l'impact de chaque caractéristique sur la prédiction du modèle. Un graphique récapitulatif est généré pour montrer l'importance globale et la direction de l'impact.")
252
+
253
+ # Convert SHAP values and X_test_data to the correct format for the plot
254
+ shap_values = shap_values_data
255
+ # Assurez-vous d'avoir les noms de colonnes réels si possible, sinon utilisez des génériques
256
+ if isinstance(X_test_data, pd.DataFrame):
257
+ X_test_display = X_test_data
258
+ else:
259
+ X_test_display = pd.DataFrame(X_test_data, columns=[f'col_{i}' for i in range(X_test_data.shape[1])])
260
+
261
+ # SHAP Summary Plot
262
+ fig, ax = plt.subplots()
263
+ shap.summary_plot(shap_values, X_test_display, show=False)
264
+ st.pyplot(fig)
265
+ except Exception as e:
266
+ st.error(f"Erreur lors de la génération du graphique SHAP : {e}")
267
+
268
+ def get_theme_preferences(theme_name):
269
+ """
270
+ Récupère un thème spécifique.
271
+ """
272
+ themes_path = _get_themes_file_path()
273
+ try:
274
+ if os.path.exists(themes_path):
275
+ with open(themes_path, 'r', encoding='utf-8') as f:
276
+ saved_themes = json.load(f)
277
+ return saved_themes.get(theme_name, {})
278
+ return {}
279
+ except Exception:
280
+ return {}
281
+
282
+ def impute_missing_values(df, method="mean"):
283
+ """
284
+ Impute les valeurs manquantes.
285
+ """
286
+ df_copy = df.copy()
287
+ num_cols = df_copy.select_dtypes(include=np.number).columns
288
+ if method == "mean":
289
+ df_copy[num_cols] = df_copy[num_cols].fillna(df_copy[num_cols].mean())
290
+ elif method == "median":
291
+ df_copy[num_cols] = df_copy[num_cols].fillna(df_copy[num_cols].median())
292
+ elif method == "knn":
293
+ imputer = KNNImputer(n_neighbors=5)
294
+ df_copy[num_cols] = imputer.fit_transform(df_copy[num_cols])
295
+ return df_copy
296
+
297
+ def scale_features(df, method="standard"):
298
+ """
299
+ Met à l'échelle les caractéristiques numériques.
300
+ """
301
+ df_copy = df.copy()
302
+ num_cols = df_copy.select_dtypes(include=np.number).columns
303
+ if method == "standard":
304
+ scaler = StandardScaler()
305
+ elif method == "minmax":
306
+ scaler = MinMaxScaler()
307
+ df_copy[num_cols] = scaler.fit_transform(df_copy[num_cols])
308
+ return df_copy
309
+
310
+ def create_polynomial_features(df, degree):
311
+ """
312
+ Crée des caractéristiques polynômiales.
313
+ """
314
+ # Placeholder pour l'exemple
315
+ return df
316
+
317
+ def create_interaction_term(df, col1, col2):
318
+ """
319
+ Crée un terme d'interaction.
320
+ """
321
+ new_col_name = f"{col1}_{col2}_interaction"
322
+ df[new_col_name] = df[col1] * df[col2]
323
+ return df
324
+
325
+ def extract_datetime_features(df, col, features):
326
+ """
327
+ Extrait des caractéristiques de date/heure.
328
+ """
329
+ df[col] = pd.to_datetime(df[col])
330
+ for feature in features:
331
+ if feature == "year":
332
+ df[f'{col}_year'] = df[col].dt.year
333
+ elif feature == "month":
334
+ df[f'{col}_month'] = df[col].dt.month
335
+ elif feature == "day":
336
+ df[f'{col}_day'] = df[col].dt.day
337
+ # Add more features as needed
338
+ return df
339
+
340
+ def apply_aggregation(df, groupby_col, target_col, agg_method):
341
+ """
342
+ Applique une agrégation.
343
+ """
344
+ agg_df = df.groupby(groupby_col)[target_col].agg(agg_method)
345
+ return agg_df
346
+
347
+ def detect_outliers_isolation_forest(df, contamination=0.05):
348
+ """
349
+ Détecte les valeurs aberrantes avec Isolation Forest.
350
+ """
351
+ num_df = df.select_dtypes(include=np.number)
352
+ model = IsolationForest(contamination=contamination, random_state=42)
353
+ df['outlier_score'] = model.fit_predict(num_df)
354
+ return df
355
+
356
+ def perform_kmeans_clustering(df, n_clusters=3):
357
+ """
358
+ Effectue un clustering K-Means sur les données numériques.
359
+ """
360
+ num_df = df.select_dtypes(include=np.number).dropna()
361
+ if num_df.shape[0] > n_clusters:
362
+ kmeans = KMeans(n_clusters=n_clusters, random_state=42, n_init=10) # Ajout de n_init
363
+ df['cluster'] = kmeans.fit_predict(num_df)
364
+ else:
365
+ df['cluster'] = np.nan
366
+ return df
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/decorators.py ADDED
@@ -0,0 +1,87 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # decorators.py
2
+
3
+ from functools import wraps
4
+ from flask import session, redirect, url_for, flash, request, jsonify
5
+
6
+ # Import nécessaire pour le décorateur API
7
+ import auth_backend
8
+
9
+ def login_required(f):
10
+ @wraps(f)
11
+ def decorated_function(*args, **kwargs):
12
+ if session.get('user_id') is None:
13
+ flash("Vous devez être connecté pour accéder à cette page.", "error")
14
+ # REDIRECTION VERS LA NOUVELLE ROUTE DE CONNEXION DU BACKEND
15
+ return redirect(url_for('web_bp.connexion_page'))
16
+ return f(*args, **kwargs)
17
+ return decorated_function
18
+
19
+ def api_key_required(f):
20
+ """
21
+ Décorateur pour les routes d'API nécessitant une clé API valide (pour les clients externes).
22
+ ... (Reste inchangé)
23
+ """
24
+ @wraps(f)
25
+ def decorated_function(*args, **kwargs):
26
+ # 1. Récupérer la clé depuis l'en-tête ou les paramètres de requête
27
+ api_key = request.headers.get('X-API-Key')
28
+ if not api_key:
29
+ api_key = request.args.get('api_key')
30
+
31
+ if not api_key:
32
+ return jsonify({
33
+ "message": "Authentification requise. Clé API manquante dans l'en-tête X-API-Key ou le paramètre api_key.",
34
+ "status": "Unauthorized"
35
+ }), 401
36
+
37
+ # 2. Valider la clé et récupérer l'utilisateur principal
38
+ client_user = auth_backend.get_client_user_by_api_key(api_key)
39
+
40
+ if not client_user:
41
+ return jsonify({
42
+ "message": "Clé API invalide ou non reconnue.",
43
+ "status": "Forbidden"
44
+ }), 403
45
+
46
+ # 3. Injecter les données de l'utilisateur principal (le client)
47
+ kwargs['client_user'] = client_user
48
+
49
+ return f(*args, **kwargs)
50
+
51
+ return decorated_function
52
+
53
+ # DÉCORATEUR : Pour les routes d'API qui doivent utiliser l'authentification par session
54
+ def api_session_required(f):
55
+ """
56
+ Décorateur pour les routes d'API nécessitant une session utilisateur active (Web UI via session cookie).
57
+ Récupère l'ID utilisateur de la session et injecte les données de l'utilisateur dans la fonction.
58
+ """
59
+ @wraps(f)
60
+ def decorated_function(*args, **kwargs):
61
+ # 1. Récupérer l'ID utilisateur de la session
62
+ user_uuid = session.get('user_id')
63
+
64
+ if not user_uuid:
65
+ # Si l'ID est manquant, on renvoie une réponse JSON 401 (standard pour une API).
66
+ return jsonify({
67
+ "message": "Authentification par session requise. Utilisateur non connecté.",
68
+ "status": "Unauthorized"
69
+ }), 401
70
+
71
+ # 2. Récupérer l'utilisateur principal (client) à partir de son UUID
72
+ client_user = auth_backend.get_client_user_by_uuid(user_uuid)
73
+
74
+ if not client_user:
75
+ # L'utilisateur existe en session mais pas/plus dans la base.
76
+ session.pop('user_id', None) # Vider la session
77
+ return jsonify({
78
+ "message": "Session invalide ou utilisateur non reconnu.",
79
+ "status": "Forbidden"
80
+ }), 403
81
+
82
+ # 3. Injecter les données de l'utilisateur principal (le client)
83
+ kwargs['client_user'] = client_user
84
+
85
+ return f(*args, **kwargs)
86
+
87
+ return decorated_function
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/deployment_routes.py ADDED
@@ -0,0 +1,149 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # deployment_routes.py
2
+
3
+ import logging
4
+ from flask import Blueprint, request, jsonify
5
+ from decorators import api_session_required, api_key_required
6
+ from hf_deploy_manager import (
7
+ deploy_repo_to_space,
8
+ get_space_status,
9
+ fetch_space_logs,
10
+ stop_space,
11
+ get_public_space_url,
12
+ )
13
+
14
+
15
+ logger = logging.getLogger(__name__)
16
+
17
+ # Création du Blueprint 'hf_deploy_bp'
18
+ # Préfixe d'URL pour toutes les routes de ce Blueprint: /api/v1/deployment
19
+ hf_deploy_bp = Blueprint('hf_deploy_bp', __name__, url_prefix='/api/v1/deployment')
20
+
21
+ # --- Route 1 : Lancement du Déploiement (Création/Configuration du Space) ---
22
+
23
+
24
+ @hf_deploy_bp.route("/<string:user_id>/<string:repo_slug>/deploy", methods=['POST'])
25
+ @api_session_required # Assurez-vous que l'utilisateur est authentifié
26
+ def deploy_project(user_id, repo_slug, client_user):
27
+ """
28
+ Lance le déploiement d'un dépôt utilisateur vers un nouveau Hugging Face Space.
29
+ Nécessite le 'sdk_type' (gradio, streamlit, docker, static) dans le corps JSON.
30
+ """
31
+ data = request.get_json()
32
+ sdk_type = data.get('sdk_type', 'gradio')
33
+
34
+ # Validation minimale
35
+ if not user_id or not repo_slug:
36
+ return jsonify({"success": False, "message": "ID utilisateur ou slug de dépôt manquant dans l'URL."}), 400
37
+
38
+ logger.info(f"Déploiement initié pour le dépôt '{repo_slug}' (User: {user_id}, SDK: {sdk_type})")
39
+
40
+ # Appel de la fonction de logique métier
41
+ result = deploy_repo_to_space(
42
+ user_id=user_id,
43
+ repo_slug=repo_slug,
44
+ sdk_type=sdk_type
45
+ )
46
+
47
+ if result.get("success"):
48
+ return jsonify(result), 200
49
+ else:
50
+ # Renvoie le message d'erreur et un code 500 ou 400 approprié
51
+ status_code = 500 if "erreur inattendue" in result.get("message", "").lower() else 400
52
+ return jsonify(result), status_code
53
+
54
+
55
+ # --- Route 2 : Vérification du Statut du Space ---
56
+ @hf_deploy_bp.route("/<path:space_id>/status", methods=['GET']) # Utiliser path pour autoriser le slash dans l'ID
57
+ @api_session_required
58
+ def get_deployment_status(space_id, client_user):
59
+ """
60
+ Récupère le statut (Running, Building, Error, etc.) d'un Space HF.
61
+ Le space_id DOIT être l'ID complet (ex: owner/repo-slug).
62
+ """
63
+ # L'ID complet (owner/repo_slug) est passé directement dans 'space_id'
64
+ if not space_id:
65
+ return jsonify({"success": False, "message": "L'ID complet du Space est manquant dans l'URL."}), 400
66
+
67
+ logger.debug(f"Demande de statut pour le Space: {space_id}")
68
+ result = get_space_status(space_id=space_id)
69
+
70
+ if result.get("success"):
71
+ return jsonify(result), 200
72
+ else:
73
+ return jsonify(result), 404 # 404 si le Space n'est pas trouvé
74
+
75
+
76
+ # --- Route 3 : Récupération des Logs du Space ---
77
+ @hf_deploy_bp.route("/<path:space_id>/logs", methods=['GET']) # Utiliser path pour autoriser le slash dans l'ID
78
+ @api_session_required
79
+ def get_deployment_logs(space_id, client_user):
80
+ """
81
+ Récupère les logs (build ou runtime) d'un Space HF.
82
+ """
83
+ # L'ID complet (owner/repo_slug) est passé directement dans 'space_id'
84
+ if not space_id:
85
+ return jsonify({"success": False, "message": "L'ID complet du Space est manquant dans l'URL."}), 400
86
+
87
+ logs_type = request.args.get('type', 'build') # Valeur par défaut: 'build'
88
+
89
+ logger.debug(f"Demande de logs de type '{logs_type}' pour le Space: {space_id}")
90
+ result = fetch_space_logs(space_id=space_id, logs_type=logs_type) # 'space_id' est l'ID complet
91
+
92
+ if result.get("success"):
93
+ return jsonify(result), 200
94
+ else:
95
+ return jsonify(result), 404
96
+
97
+
98
+ # --- Route 4 : Arrêt (Mise en Pause) du Space ---
99
+ @hf_deploy_bp.route("/<path:space_id>/stop", methods=['POST']) # Utiliser path pour autoriser le slash dans l'ID
100
+ @api_session_required
101
+ def stop_deployment(space_id, client_user):
102
+ """
103
+ Met en pause (Stop) un Space HF pour économiser des ressources.
104
+ """
105
+ # L'ID complet (owner/repo_slug) est passé directement dans 'space_id'
106
+ if not space_id:
107
+ return jsonify({"success": False, "message": "L'ID complet du Space est manquant dans l'URL."}), 400
108
+
109
+ logger.info(f"Arrêt demandé pour le Space: {space_id}")
110
+ result = stop_space(space_id=space_id) # 'space_id' est l'ID complet
111
+
112
+ if result.get("success"):
113
+ return jsonify(result), 200
114
+ else:
115
+ return jsonify(result), 400
116
+
117
+ # --- Route 5 : Récupération de l'URL publique du Space ---
118
+ @hf_deploy_bp.route("/<path:space_id>/url", methods=['GET']) # Utiliser path pour autoriser le slash dans l'ID
119
+ @api_session_required
120
+ def get_space_url(space_id, client_user):
121
+ """
122
+ Construit et retourne l'URL publique d'un Space HF à partir de son ID COMPLET ou du SLUG.
123
+ """
124
+ # L'ID complet (owner/repo_slug) est passé directement dans 'space_id'
125
+ if not space_id:
126
+ return jsonify({"success": False, "message": "L'ID complet du Space est manquant dans l'URL."}), 400
127
+
128
+ try:
129
+ # Extraire le SLUG du repo à partir de l'ID complet (owner/repo_slug)
130
+ # S'il y a un slash, on utilise la partie après, sinon on suppose que c'est déjà le slug
131
+ parts = space_id.split('/')
132
+ if len(parts) == 2:
133
+ space_id_slug = parts[1] # Cas 'owner/repo_slug'
134
+ elif len(parts) == 1:
135
+ space_id_slug = parts[0] # Cas où on reçoit seulement le 'repo_slug'
136
+ else:
137
+ raise ValueError("L'ID du Space doit être au format 'owner/repo_slug' ou juste le slug.")
138
+
139
+ space_url = get_public_space_url(space_id_slug) # Utilise le SLUG pour l'URL publique
140
+
141
+ return jsonify({
142
+ "success": True,
143
+ "space_url": space_url,
144
+ "space_id": space_id # Retourne l'ID initial pour cohérence
145
+ }), 200
146
+
147
+ except Exception as e:
148
+ logger.error(f"Erreur inattendue lors de la récupération de l'URL pour {space_id}: {e}")
149
+ return jsonify({"success": False, "message": f"Erreur lors de la construction de l'URL: {str(e)}"}), 500
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/main.py ADDED
@@ -0,0 +1,1261 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import streamlit as st
2
+ import pandas as pd
3
+ import numpy as np
4
+ import io
5
+ import base64
6
+ import json
7
+ import time
8
+ import os
9
+ from datetime import datetime
10
+ import hashlib
11
+ import unicodedata
12
+ import string
13
+ import tempfile
14
+ import matplotlib.pyplot as plt
15
+ import seaborn as sns
16
+ import re
17
+ from collections import Counter
18
+ import shap
19
+ from sklearn.model_selection import train_test_split
20
+ from sklearn.metrics import mean_squared_error, accuracy_score, r2_score
21
+ from lightgbm import LGBMClassifier, LGBMRegressor
22
+ from sklearn.preprocessing import LabelEncoder, StandardScaler, MinMaxScaler
23
+ from sklearn.impute import KNNImputer
24
+ from wordcloud import WordCloud
25
+ import spacy
26
+ import plotly.express as px
27
+ from sklearn.ensemble import IsolationForest
28
+ from sklearn.cluster import KMeans
29
+
30
+ # Importation des dictionnaires de traduction spécifiques
31
+ from translations_base import fr_translations_base, load_users, save_users
32
+ from translations_data_processing import fr_translations_data_processing
33
+ from translations_ai_report import fr_translations_ai_report
34
+ from translations_report_content import fr_translations_report_content
35
+ from report_pdf_exporter import PdfExporter
36
+ from report_excel_exporter import ExcelExporter
37
+ from report_generator import ReportContent, AIRecommender
38
+ from data_processing import (
39
+ read_data_file, get_data_overview, get_missing_values_summary,
40
+ generate_data_quality_visualizations, generate_ai_report_visualizations,
41
+ get_saved_themes, save_theme_preferences, get_theme_preferences,
42
+ delete_theme_preferences, update_theme, impute_missing_values,
43
+ scale_features, create_polynomial_features, create_interaction_term,
44
+ extract_datetime_features, apply_aggregation, detect_outliers_isolation_forest,
45
+ perform_kmeans_clustering, generate_multicolor_plots
46
+ )
47
+ from translations import txt, set_language, translations # translations reste pour le dictionnaire complet
48
+
49
+ # --- Initialisation de st.session_state pour éviter AttributeError ---
50
+ if 'df' not in st.session_state:
51
+ st.session_state.df = None
52
+ if 'model' not in st.session_state:
53
+ st.session_state.model = None
54
+ if 'shap_values_data' not in st.session_state:
55
+ st.session_state.shap_values_data = None
56
+ if 'X_test_data' not in st.session_state:
57
+ st.session_state.X_test_data = None
58
+ if 'y_test_data' not in st.session_state:
59
+ st.session_state.y_test_data = None
60
+ if 'target_column' not in st.session_state:
61
+ st.session_state.target_column = None
62
+ if 'model_type' not in st.session_state:
63
+ st.session_state.model_type = None
64
+ if 'current_section' not in st.session_state:
65
+ st.session_state.current_section = "home" # Nouvelle section d'accueil
66
+ if 'last_module_choice' not in st.session_state:
67
+ st.session_state.last_module_choice = "home"
68
+ if 'theme' not in st.session_state:
69
+ st.session_state.theme = "Light" # Thème par défaut
70
+ if 'user_id' not in st.session_state:
71
+ st.session_state.user_id = None
72
+ if 'is_logged_in' not in st.session_state:
73
+ st.session_state.is_logged_in = False
74
+ if 'username' not in st.session_state:
75
+ st.session_state.username = None
76
+ if 'demo_mode' not in st.session_state:
77
+ st.session_state.demo_mode = False
78
+ if 'show_static_page' not in st.session_state: # Initialisation manquante
79
+ st.session_state.show_static_page = False
80
+ if 'active_discussion_id' not in st.session_state:
81
+ st.session_state.active_discussion_id = None
82
+ if 'active_discussion_name' not in st.session_state:
83
+ st.session_state.active_discussion_name = "Nouvelle Discussion"
84
+ if 'generate_visuals_clicked' not in st.session_state:
85
+ st.session_state.generate_visuals_clicked = False # Pour contrôler l'affichage des graphiques et boutons de rapport
86
+ if 'show_database_form' not in st.session_state:
87
+ st.session_state.show_database_form = False
88
+ if 'is_database_connected' not in st.session_state:
89
+ st.session_state.is_database_connected = False
90
+ if 'database_user' not in st.session_state:
91
+ st.session_state.database_user = None
92
+ if 'database_files' not in st.session_state:
93
+ st.session_state.database_files = {} # Stores file data as {filename: base64_content}
94
+
95
+
96
+ # --- Fonctions de gestion de l'état de l'application ---
97
+ def set_section(section_name):
98
+ st.session_state.current_section = section_name
99
+ st.session_state.last_module_choice = section_name
100
+ st.session_state.show_static_page = False
101
+ st.session_state.show_database_form = False # Hide database form when changing section
102
+
103
+ def static_page(page_key):
104
+ st.session_state.show_static_page = True
105
+ st.session_state.last_module_choice = page_key # Mettre à jour pour afficher le bon titre et contenu
106
+ st.session_state.show_database_form = False # Hide database form when showing static page
107
+
108
+ def get_page_hash(page_name):
109
+ return hashlib.md5(page_name.encode('utf-8')).hexdigest()
110
+
111
+ def update_discussion_state():
112
+ """Sauvegarde l'état actuel de la discussion pour l'utilisateur connecté."""
113
+ if st.session_state.is_logged_in and st.session_state.username and st.session_state.active_discussion_id:
114
+ users_data = load_users()
115
+ if st.session_state.username not in users_data:
116
+ users_data[st.session_state.username] = {'profile': {}, 'discussions': {}}
117
+
118
+ discussion_state = {
119
+ 'df': st.session_state.df.to_json() if st.session_state.df is not None else None,
120
+ 'model': base64.b64encode(io.dumps(st.session_state.model)).decode('utf-8') if st.session_state.model else None,
121
+ 'shap_values_data': base64.b64encode(io.dumps(st.session_state.shap_values_data)).decode('utf-8') if st.session_state.shap_values_data else None,
122
+ 'X_test_data': st.session_state.X_test_data.to_json() if st.session_state.X_test_data is not None else None,
123
+ 'y_test_data': st.session_state.y_test_data.to_json() if st.session_state.y_test_data is not None else None,
124
+ 'target_column': st.session_state.target_column,
125
+ 'model_type': st.session_state.model_type,
126
+ 'current_section': st.session_state.current_section,
127
+ 'last_module_choice': st.session_state.last_module_choice,
128
+ 'generate_visuals_clicked': st.session_state.generate_visuals_clicked,
129
+ 'timestamp': datetime.now().strftime("%Y-%m-%d %H:%M:%S")
130
+ }
131
+ users_data[st.session_state.username]['discussions'][st.session_state.active_discussion_id] = discussion_state
132
+ save_users(users_data)
133
+ #st.sidebar.success(f"Discussion '{st.session_state.active_discussion_name}' sauvegardée.")
134
+
135
+ def load_discussion_state(discussion_id):
136
+ """Charge l'état d'une discussion spécifique pour l'utilisateur connecté."""
137
+ users_data = load_users()
138
+ discussions = users_data.get(st.session_state.username, {}).get('discussions', {})
139
+
140
+ if discussion_id in discussions:
141
+ state = discussions[discussion_id]
142
+ if state['df']:
143
+ st.session_state.df = pd.read_json(state['df'])
144
+ else:
145
+ st.session_state.df = None
146
+ # Pour le modèle et SHAP, un processus de désérialisation plus complexe serait nécessaire.
147
+ # Pour l'instant, je les laisse à None ou gère comme des chaînes si c'est suffisant pour le besoin.
148
+ st.session_state.model = None # Ou désérialiser si le format est compatible
149
+ st.session_state.shap_values_data = None # Idem
150
+ if state['X_test_data']:
151
+ st.session_state.X_test_data = pd.read_json(state['X_test_data'])
152
+ else:
153
+ st.session_state.X_test_data = None
154
+ if state['y_test_data']:
155
+ st.session_state.y_test_data = pd.read_json(state['y_test_data'], typ='series')
156
+ else:
157
+ st.session_state.y_test_data = None
158
+
159
+ st.session_state.target_column = state['target_column']
160
+ st.session_state.model_type = state['model_type']
161
+ st.session_state.current_section = state['current_section']
162
+ st.session_state.last_module_choice = state['last_module_choice']
163
+ st.session_state.generate_visuals_clicked = state.get('generate_visuals_clicked', False)
164
+
165
+ # Mettre à jour l'ID et le nom de la discussion active
166
+ st.session_state.active_discussion_id = discussion_id
167
+ # Trouver le nom correspondant à l'ID
168
+ for name, disc_id in users_data[st.session_state.username]['discussions_meta'].items():
169
+ if disc_id == discussion_id:
170
+ st.session_state.active_discussion_name = name
171
+ break
172
+
173
+ st.sidebar.success(f"Discussion '{st.session_state.active_discussion_name}' chargée.")
174
+ st.session_state.show_static_page = False # Assurez-vous de quitter la page statique
175
+ st.rerun()
176
+ else:
177
+ st.sidebar.error("Discussion non trouvée.")
178
+
179
+ def create_new_discussion(discussion_name):
180
+ """Crée une nouvelle discussion et la rend active."""
181
+ if not st.session_state.is_logged_in:
182
+ st.sidebar.warning("Veuillez vous connecter pour créer une nouvelle discussion.")
183
+ return
184
+
185
+ users_data = load_users()
186
+ user_data = users_data.get(st.session_state.username, {})
187
+
188
+ # Initialiser 'discussions_meta' si elle n'existe pas
189
+ if 'discussions_meta' not in user_data:
190
+ user_data['discussions_meta'] = {}
191
+
192
+ # Vérifier si le nom de discussion existe déjà
193
+ if discussion_name in user_data['discussions_meta']:
194
+ st.sidebar.error(txt("discussion_name_exists"))
195
+ return
196
+
197
+ new_discussion_id = hashlib.md5(f"{st.session_state.username}_{discussion_name}_{datetime.now()}".encode('utf-8')).hexdigest()
198
+
199
+ # Enregistrer le nom et l'ID dans discussions_meta
200
+ user_data['discussions_meta'][discussion_name] = new_discussion_id
201
+
202
+ # Créer un état initial vide pour la nouvelle discussion
203
+ user_data['discussions'][new_discussion_id] = {
204
+ 'df': None,
205
+ 'model': None,
206
+ 'shap_values_data': None,
207
+ 'X_test_data': None,
208
+ 'y_test_data': None,
209
+ 'target_column': None,
210
+ 'model_type': None,
211
+ 'current_section': "home",
212
+ 'last_module_choice': "home",
213
+ 'generate_visuals_clicked': False,
214
+ 'timestamp': datetime.now().strftime("%Y-%m-%d %H:%M:%S")
215
+ }
216
+
217
+ users_data[st.session_state.username] = user_data # Mettre à jour les données de l'utilisateur
218
+ save_users(users_data)
219
+
220
+ st.session_state.active_discussion_id = new_discussion_id
221
+ st.session_state.active_discussion_name = discussion_name
222
+
223
+ # Réinitialiser l'état de l'application pour la nouvelle discussion
224
+ st.session_state.df = None
225
+ st.session_state.model = None
226
+ st.session_state.shap_values_data = None
227
+ st.session_state.X_test_data = None
228
+ st.session_state.y_test_data = None
229
+ st.session_state.target_column = None
230
+ st.session_state.model_type = None
231
+ st.session_state.current_section = "home"
232
+ st.session_state.last_module_choice = "home"
233
+ st.session_state.show_static_page = False
234
+ st.session_state.generate_visuals_clicked = False
235
+
236
+ st.sidebar.success(txt("discussion_created_success").format(discussion_name=discussion_name))
237
+ st.rerun()
238
+
239
+ def delete_discussion(discussion_id, discussion_name):
240
+ """Supprime une discussion."""
241
+ if not st.session_state.is_logged_in:
242
+ st.sidebar.warning("Veuillez vous connecter pour supprimer une discussion.")
243
+ return
244
+
245
+ users_data = load_users()
246
+ user_data = users_data.get(st.session_state.username, {})
247
+
248
+ if 'discussions' in user_data and discussion_id in user_data['discussions']:
249
+ del user_data['discussions'][discussion_id]
250
+
251
+ # Supprimer aussi de discussions_meta
252
+ if 'discussions_meta' in user_data:
253
+ for name, did in list(user_data['discussions_meta'].items()): # Utiliser list() pour itérer et modifier
254
+ if did == discussion_id:
255
+ del user_data['discussions_meta'][name]
256
+ break
257
+
258
+ users_data[st.session_state.username] = user_data
259
+ save_users(users_data)
260
+
261
+ # Si la discussion supprimée était la discussion active, réinitialiser
262
+ if st.session_state.active_discussion_id == discussion_id:
263
+ st.session_state.active_discussion_id = None
264
+ st.session_state.active_discussion_name = "Nouvelle Discussion"
265
+ st.session_state.df = None
266
+ st.session_state.model = None
267
+ st.session_state.shap_values_data = None
268
+ st.session_state.X_test_data = None
269
+ st.session_state.y_test_data = None
270
+ st.session_state.target_column = None
271
+ st.session_state.model_type = None
272
+ st.session_state.current_section = "home"
273
+ st.session_state.last_module_choice = "home"
274
+ st.session_state.show_static_page = False
275
+ st.session_state.generate_visuals_clicked = False
276
+
277
+ st.sidebar.success(txt("discussion_deleted_success").format(discussion_name=discussion_name))
278
+ st.rerun()
279
+ else:
280
+ st.sidebar.error("Discussion non trouvée pour la suppression.")
281
+
282
+
283
+ def check_password(username, password):
284
+ users_data = load_users()
285
+ user_data = users_data.get(username)
286
+ if user_data:
287
+ if hashlib.sha256(password.encode('utf-8')).hexdigest() == user_data['password']:
288
+ return True, user_data['user_id']
289
+ return False, None
290
+
291
+ def create_account(username, password, profile_type):
292
+ users_data = load_users()
293
+ if username in users_data:
294
+ return False, "Ce nom d'utilisateur existe déjà."
295
+
296
+ # Password strength validation
297
+ if not (8 <= len(password) <= 15 and
298
+ any(c.isdigit() for c in password) and
299
+ any(c.isalpha() for c in password) and
300
+ any(c in string.punctuation for c in password)):
301
+ return False, txt("enter_password_strong_requirements")
302
+
303
+ hashed_password = hashlib.sha256(password.encode('utf-8')).hexdigest()
304
+ new_user_id = hashlib.md5(username.encode('utf-8')).hexdigest()
305
+
306
+ users_data[username] = {
307
+ 'password': hashed_password,
308
+ 'user_id': new_user_id,
309
+ 'profile': {'type': profile_type}, # Sauvegarde du type de profil
310
+ 'discussions': {}, # Pour les discussions de l'utilisateur
311
+ 'discussions_meta': {}, # Pour stocker les noms de discussion et leurs IDs
312
+ 'database_files': {} # Initialize database files for the user
313
+ }
314
+ save_users(users_data)
315
+ return True, "Compte créé avec succès !"
316
+
317
+ def login_form():
318
+ st.subheader(txt("login_title"))
319
+ st.markdown(txt("login_intro"))
320
+
321
+ username = st.text_input(f"{txt('username_label')} 👤", key="login_username")
322
+ password = st.text_input(f"{txt('password_label')} 🔒", type="password", key="login_password")
323
+
324
+ # Pour la création de compte, demander le type de profil
325
+ is_create_account_mode = st.checkbox(txt("create_account_button"), key="create_account_checkbox")
326
+ profile_type = None
327
+ if is_create_account_mode:
328
+ st.markdown(txt("create_profile_explanation"))
329
+ profile_options = [
330
+ txt("profile_agent_immobilier"),
331
+ txt("profile_investisseur"),
332
+ txt("profile_expert_data"),
333
+ txt("profile_autre")
334
+ ]
335
+ profile_type = st.selectbox(txt("profile_type_label"), options=profile_options, key="profile_type_selector")
336
+
337
+ col1, col2 = st.columns(2)
338
+ with col1:
339
+ if st.button(txt("login_button"), key="login_btn"):
340
+ if username and password:
341
+ is_valid, user_id = check_password(username, password)
342
+ if is_valid:
343
+ st.session_state.is_logged_in = True
344
+ st.session_state.username = username
345
+ st.session_state.user_id = user_id
346
+ st.session_state.demo_mode = False
347
+ st.success(txt("login_success"))
348
+
349
+ # Load database files for the logged-in user
350
+ users_data = load_users()
351
+ st.session_state.database_files = users_data.get(username, {}).get('database_files', {})
352
+
353
+ # Charger la dernière discussion ou créer une par défaut
354
+ user_discussions_meta = users_data.get(username, {}).get('discussions_meta', {})
355
+ if user_discussions_meta:
356
+ # Charger la dernière discussion par timestamp si implémenté, ou la première trouvée
357
+ first_discussion_name = list(user_discussions_meta.keys())[0]
358
+ first_discussion_id = user_discussions_meta[first_discussion_name]
359
+ load_discussion_state(first_discussion_id) # Cela va aussi mettre à jour active_discussion_name
360
+ else:
361
+ # Créer une discussion par défaut pour le nouvel utilisateur
362
+ default_discussion_name = "Première discussion"
363
+ create_new_discussion(default_discussion_name)
364
+ st.rerun()
365
+ else:
366
+ st.error(txt("login_error"))
367
+ else:
368
+ st.warning(txt("login_fields_prompt"))
369
+ with col2:
370
+ if is_create_account_mode and st.button(txt("create_account_button"), key="create_new_account_btn"):
371
+ if username and password and profile_type:
372
+ success, message = create_account(username, password, profile_type)
373
+ if success:
374
+ st.success(message)
375
+ st.info(txt("profile_saved_success"))
376
+ # After account creation, the user will need to log in.
377
+ else:
378
+ st.error(message)
379
+ else:
380
+ st.warning(txt("create_account_fields_prompt"))
381
+
382
+ if st.button(txt("explore_demo_button"), key="demo_mode_btn", use_container_width=True):
383
+ st.session_state.is_logged_in = False
384
+ st.session_state.username = "Mode Démo"
385
+ st.session_state.user_id = "demo_user"
386
+ st.session_state.demo_mode = True
387
+ st.session_state.df = pd.DataFrame(translations['fr']['demo_data'])
388
+ st.session_state.active_discussion_id = "demo_discussion" # Fictitious ID
389
+ st.session_state.active_discussion_name = "Données de Démonstration"
390
+ st.session_state.database_files = {} # No database files in demo mode
391
+ st.success(txt("demo_mode_activated"))
392
+ set_section("data_diagnostic_title")
393
+ st.rerun()
394
+
395
+
396
+ def save_user_data(df_to_save, filename="current_data.csv"):
397
+ # This function is now less used directly for files,
398
+ # because "discussions" manage the complete state.
399
+ # However, it can be adapted to save specific files if needed.
400
+ if st.session_state.is_logged_in and st.session_state.user_id and not st.session_state.demo_mode:
401
+ # The file saving logic is now integrated into discussions
402
+ # The df is saved in the discussion state.
403
+ st.info("Le DataFrame est sauvegardé dans la discussion active.")
404
+ update_discussion_state() # Save current state
405
+ elif st.session_state.demo_mode:
406
+ st.info(txt("save_not_available_demo"))
407
+ else:
408
+ st.warning(txt("login_required_save"))
409
+
410
+ def load_user_data_from_list(discussion_id, discussion_name):
411
+ load_discussion_state(discussion_id)
412
+
413
+ def database_login_form():
414
+ """
415
+ Formulaire de connexion/création de compte pour la base de données.
416
+ Utilise les mêmes comptes que l'application principale.
417
+ """
418
+ st.subheader(txt("login_to_database"))
419
+ db_username = st.text_input(f"{txt('username_label')} 👤", key="db_login_username")
420
+ db_password = st.text_input(f"{txt('password_label')} 🔒", type="password", key="db_login_password")
421
+
422
+ if st.button(txt("login_button"), key="db_login_btn"):
423
+ if db_username and db_password:
424
+ is_valid, user_id = check_password(db_username, db_password)
425
+ if is_valid:
426
+ st.session_state.is_database_connected = True
427
+ st.session_state.database_user = db_username
428
+ # Load database files for the logged-in user
429
+ users_data = load_users()
430
+ st.session_state.database_files = users_data.get(db_username, {}).get('database_files', {})
431
+ st.success(txt("login_success"))
432
+ st.rerun()
433
+ else:
434
+ st.error(txt("login_error"))
435
+ else:
436
+ st.warning(txt("login_fields_prompt"))
437
+
438
+ if st.button(txt("create_account_button"), key="db_create_account_btn"):
439
+ # Redirect to the main login form for account creation if not already logged in
440
+ st.session_state.show_database_form = False # Hide DB form to show main login
441
+ st.session_state.is_logged_in = False # Force showing main login form
442
+ st.rerun() # This will display the main login form where account creation is handled
443
+ st.warning("Veuillez créer un compte via le formulaire de connexion principal.")
444
+
445
+
446
+ def database_management_interface():
447
+ """
448
+ Interface pour gérer les fichiers dans la base de données.
449
+ """
450
+ st.header(txt("database_section"))
451
+ st.info(txt("database_intro"))
452
+
453
+ # Fonctionnalité 1: Importer un ou plusieurs fichiers
454
+ st.subheader(txt("import_files_to_db_title"))
455
+ uploaded_db_files = st.file_uploader(
456
+ txt("upload_db_files_label"),
457
+ type=["csv", "txt", "json", "xls", "xlsx", "parquet", "orc", "feather", "dta", "sas7bdat"],
458
+ accept_multiple_files=True,
459
+ key="db_file_uploader"
460
+ )
461
+
462
+ if uploaded_db_files:
463
+ if len(uploaded_db_files) > 10:
464
+ st.warning("Vous ne pouvez télécharger que 10 fichiers maximum à la fois.")
465
+ uploaded_db_files = uploaded_db_files[:10]
466
+
467
+ action_choice = st.radio(
468
+ "Que souhaitez-vous faire avec le(s) fichier(s) téléchargé(s) ?",
469
+ [txt("file_storage_option"), txt("advanced_analysis_option")],
470
+ key="db_action_choice"
471
+ )
472
+
473
+ if action_choice == txt("file_storage_option"):
474
+ if st.button("Stocker les fichiers", key="store_db_files_btn"):
475
+ if uploaded_db_files:
476
+ users_data = load_users()
477
+ user_db_files = users_data.get(st.session_state.database_user, {}).get('database_files', {})
478
+
479
+ stored_count = 0
480
+ for uploaded_file in uploaded_db_files:
481
+ file_contents = uploaded_file.getvalue()
482
+ encoded_content = base64.b64encode(file_contents).decode('utf-8')
483
+ user_db_files[uploaded_file.name] = {
484
+ 'content': encoded_content,
485
+ 'type': uploaded_file.type,
486
+ 'timestamp': datetime.now().strftime("%Y-%m-%d %H:%M:%S")
487
+ }
488
+ stored_count += 1
489
+
490
+ users_data[st.session_state.database_user]['database_files'] = user_db_files
491
+ save_users(users_data)
492
+ st.session_state.database_files = user_db_files # Update session state
493
+ st.success(txt("files_saved_to_db").format(count=stored_count))
494
+ st.rerun()
495
+ else:
496
+ st.warning(txt("no_files_uploaded_for_db"))
497
+
498
+ elif action_choice == txt("advanced_analysis_option"):
499
+ if len(uploaded_db_files) == 1:
500
+ selected_file_for_analysis = uploaded_db_files[0]
501
+ if st.button(txt("analyze_selected_file_button"), key="analyze_uploaded_file_btn"):
502
+ # Process the single file for advanced analysis
503
+ file_contents = selected_file_for_analysis.getvalue()
504
+
505
+ with tempfile.NamedTemporaryFile(delete=False, suffix=os.path.splitext(selected_file_for_analysis.name)[1]) as tmp_file:
506
+ tmp_file.write(file_contents)
507
+ tmp_file_path = tmp_file.name
508
+
509
+ df, message = read_data_file(tmp_file_path)
510
+ os.unlink(tmp_file_path) # Clean up temp file
511
+
512
+ if df is not None:
513
+ st.session_state.df = df
514
+ st.session_state.current_section = "data_diagnostic_title"
515
+ st.success(txt("analysis_triggered_for_file").format(filename=selected_file_for_analysis.name))
516
+ st.rerun()
517
+ else:
518
+ st.error(f"{txt('error_reading_file')} : {message}")
519
+ else:
520
+ st.warning(txt("please_select_one_file_for_analysis"))
521
+
522
+ # Fonctionnalité 2: Afficher les fichiers stockés et lancer une analyse sur un fichier existant
523
+ st.markdown("---")
524
+ st.subheader(txt("stored_files_title"))
525
+ if st.session_state.database_files:
526
+ file_names = list(st.session_state.database_files.keys())
527
+ selected_stored_file = st.selectbox(
528
+ txt("select_stored_file_for_analysis"),
529
+ options=file_names,
530
+ key="selected_stored_file"
531
+ )
532
+
533
+ col_view, col_analyze, col_delete = st.columns(3)
534
+
535
+ with col_view:
536
+ if st.button(txt("view_file_content_button"), key="view_stored_file_btn"):
537
+ file_data = st.session_state.database_files[selected_stored_file]
538
+ decoded_content = base64.b64decode(file_data['content'])
539
+
540
+ # Display content based on file type
541
+ if 'csv' in file_data['type'] or 'text' in file_data['type']:
542
+ st.text_area(f"Contenu de {selected_stored_file}", decoded_content.decode('utf-8'), height=300)
543
+ elif 'json' in file_data['type']:
544
+ st.json(json.loads(decoded_content.decode('utf-8')))
545
+ else:
546
+ st.write("Aperçu non disponible pour ce type de fichier. Téléchargez pour voir.")
547
+ st.download_button(
548
+ label=f"Télécharger {selected_stored_file}",
549
+ data=decoded_content,
550
+ file_name=selected_stored_file,
551
+ mime=file_data['type'],
552
+ key=f"download_stored_{selected_stored_file}"
553
+ )
554
+
555
+ with col_analyze:
556
+ if st.button(txt("analyze_selected_file_button"), key="analyze_stored_file_btn"):
557
+ file_data = st.session_state.database_files[selected_stored_file]
558
+ decoded_content = base64.b64decode(file_data['content'])
559
+
560
+ with tempfile.NamedTemporaryFile(delete=False, suffix=os.path.splitext(selected_stored_file)[1]) as tmp_file:
561
+ tmp_file.write(decoded_content)
562
+ tmp_file_path = tmp_file.name
563
+
564
+ df, message = read_data_file(tmp_file_path)
565
+ os.unlink(tmp_file_path)
566
+
567
+ if df is not None:
568
+ st.session_state.df = df
569
+ st.session_state.current_section = "data_diagnostic_title"
570
+ st.success(txt("analysis_triggered_for_file").format(filename=selected_stored_file))
571
+ st.rerun()
572
+ else:
573
+ st.error(f"{txt('error_reading_file')} : {message}")
574
+
575
+ with col_delete:
576
+ if st.button(txt("delete_file_button"), key="delete_stored_file_btn"):
577
+ users_data = load_users()
578
+ if st.session_state.database_user in users_data and 'database_files' in users_data[st.session_state.database_user]:
579
+ del users_data[st.session_state.database_user]['database_files'][selected_stored_file]
580
+ save_users(users_data)
581
+ st.session_state.database_files = users_data[st.session_state.database_user]['database_files']
582
+ st.success(txt("file_deleted_success").format(filename=selected_stored_file))
583
+ st.rerun()
584
+ else:
585
+ st.info(txt("no_stored_files"))
586
+
587
+ # Fonctionnalité 3: Renommer un fichier (simple exemple)
588
+ st.markdown("---")
589
+ st.subheader("Renommer un fichier")
590
+ if st.session_state.database_files:
591
+ old_file_name = st.selectbox("Sélectionnez le fichier à renommer", options=list(st.session_state.database_files.keys()), key="rename_old_file")
592
+ new_file_name = st.text_input("Nouveau nom du fichier", key="rename_new_file")
593
+ if st.button("Renommer", key="rename_file_btn"):
594
+ if new_file_name and new_file_name != old_file_name:
595
+ users_data = load_users()
596
+ if st.session_state.database_user in users_data and 'database_files' in users_data[st.session_state.database_user]:
597
+ file_data = users_data[st.session_state.database_user]['database_files'].pop(old_file_name)
598
+ users_data[st.session_state.database_user]['database_files'][new_file_name] = file_data
599
+ save_users(users_data)
600
+ st.session_state.database_files = users_data[st.session_state.database_user]['database_files']
601
+ st.success(f"Fichier '{old_file_name}' renommé en '{new_file_name}'.")
602
+ st.rerun()
603
+ else:
604
+ st.warning("Veuillez entrer un nouveau nom de fichier valide.")
605
+
606
+ # Fonctionnalité 4: Télécharger un fichier
607
+ st.markdown("---")
608
+ st.subheader("Télécharger un fichier")
609
+ if st.session_state.database_files:
610
+ file_to_download = st.selectbox("Sélectionnez le fichier à télécharger", options=list(st.session_state.database_files.keys()), key="download_file_select")
611
+ if st.button("Télécharger", key="download_file_btn"):
612
+ file_data = st.session_state.database_files[file_to_download]
613
+ decoded_content = base64.b64decode(file_data['content'])
614
+ st.download_button(
615
+ label=f"Télécharger {file_to_download}",
616
+ data=decoded_content,
617
+ file_name=file_to_download,
618
+ mime=file_data['type'],
619
+ key=f"download_actual_file_{file_to_download}"
620
+ )
621
+
622
+ # Fonctionnalité 5: Rechercher des fichiers (simple recherche par nom)
623
+ st.markdown("---")
624
+ st.subheader("Rechercher des fichiers")
625
+ search_query = st.text_input("Rechercher par nom de fichier", key="file_search_query")
626
+ if st.button("Rechercher", key="search_files_btn"):
627
+ if search_query:
628
+ found_files = [f for f in st.session_state.database_files.keys() if search_query.lower() in f.lower()]
629
+ if found_files:
630
+ st.write("Fichiers trouvés :")
631
+ for f in found_files:
632
+ st.write(f"- {f}")
633
+ else:
634
+ st.info("Aucun fichier trouvé correspondant à votre recherche.")
635
+ else:
636
+ st.warning("Veuillez entrer un terme de recherche.")
637
+
638
+ # Fonctionnalité 6: Vider la base de données (pour l'utilisateur connecté)
639
+ st.markdown("---")
640
+ st.subheader("Vider la Base de Données")
641
+ st.warning("Attention : Cette action supprimera TOUS les fichiers stockés pour votre compte. Cette action est irréversible.")
642
+ if st.button("Vider tous les fichiers", key="clear_database_btn"):
643
+ users_data = load_users()
644
+ if st.session_state.database_user in users_data:
645
+ users_data[st.session_state.database_user]['database_files'] = {}
646
+ save_users(users_data)
647
+ st.session_state.database_files = {}
648
+ st.success("Tous les fichiers ont été supprimés de votre base de données.")
649
+ st.rerun()
650
+
651
+
652
+ # --- Gestion de l'état de la page principale ---
653
+ st.set_page_config(layout="wide")
654
+
655
+ # Appliquer le thème (mode sombre/clair)
656
+ current_theme = get_theme_preferences(st.session_state.theme)
657
+ if st.session_state.theme == "Dark":
658
+ st._config.set_option('theme.base', 'dark')
659
+ st._config.set_option('theme.backgroundColor', '#0E1117')
660
+ st._config.set_option('theme.primaryColor', '#265DCC')
661
+ st._config.set_option('theme.secondaryBackgroundColor', '#262730')
662
+ st._config.set_option('theme.textColor', '#FAFAFA')
663
+ st._config.set_option('theme.font', 'sans serif')
664
+ else: # Light theme or custom theme
665
+ st._config.set_option('theme.base', 'light')
666
+ st._config.set_option('theme.backgroundColor', '#FFFFFF')
667
+ st._config.set_option('theme.primaryColor', '#FF4B4B') # Default Streamlit red
668
+ st._config.set_option('theme.secondaryBackgroundColor', '#F0F2F6')
669
+ st._config.set_option('theme.textColor', '#303030')
670
+ st._config.set_option('theme.font', 'sans serif')
671
+
672
+ # --- Barre latérale pour la navigation ---
673
+ with st.sidebar:
674
+ st.title(txt("app_title"))
675
+ st.markdown(f"**{txt('app_subtitle')}**") # Mettre en gras le sous-titre
676
+
677
+ if not st.session_state.is_logged_in and not st.session_state.demo_mode:
678
+ pass # The login form is handled in the main body
679
+ else:
680
+ st.info(f"{txt('logged_in_as')}: **{st.session_state.username}**") # Display username in bold
681
+
682
+ # Section de gestion des discussions
683
+ st.subheader("Discussions")
684
+ st.markdown(f"**{txt('current_discussion_label').format(discussion_name=st.session_state.active_discussion_name)}**")
685
+
686
+ # Bouton Nouvelle Discussion
687
+ if st.button(f"✨ {txt('new_discussion_button')}", use_container_width=True):
688
+ with st.popover(txt("enter_discussion_name")):
689
+ new_disc_name = st.text_input("Nom de la nouvelle discussion", key="new_discussion_name_input")
690
+ if st.button("Créer"):
691
+ create_new_discussion(new_disc_name)
692
+
693
+ # Liste des discussions existantes
694
+ if st.session_state.is_logged_in and not st.session_state.demo_mode:
695
+ users_data = load_users()
696
+ user_discussions_meta = users_data.get(st.session_state.username, {}).get('discussions_meta', {})
697
+
698
+ if user_discussions_meta:
699
+ st.markdown("---")
700
+ st.markdown("Historique des discussions :")
701
+ for disc_name, disc_id in user_discussions_meta.items():
702
+ col_disc_name, col_load_btn, col_del_btn = st.columns([0.6, 0.2, 0.2])
703
+ with col_disc_name:
704
+ st.write(disc_name)
705
+ with col_load_btn:
706
+ if st.button("Charger", key=f"load_disc_{disc_id}"):
707
+ load_discussion_state(disc_id)
708
+ with col_del_btn:
709
+ if st.button("🗑️", key=f"del_disc_{disc_id}"):
710
+ delete_discussion(disc_id, disc_name)
711
+ else:
712
+ st.info(txt("no_discussions_saved"))
713
+
714
+
715
+ st.markdown("---")
716
+ st.header(txt("main_modules"))
717
+ if st.button(f"🏠 {txt('home_section')}", use_container_width=True):
718
+ set_section("home")
719
+ if st.button(f"📊 {txt('data_diagnostic_title')}", use_container_width=True):
720
+ set_section("data_diagnostic_title")
721
+ if st.button(f"🛠️ {txt('data_prep_title')}", use_container_width=True):
722
+ set_section("data_prep_title")
723
+ if st.button(f"🧠 {txt('ai_prediction_title')}", use_container_width=True):
724
+ set_section("ai_prediction_title")
725
+ if st.button(f"📄 {txt('report_generation_title')}", use_container_width=True):
726
+ set_section("report_generation_title")
727
+
728
+ # New Database button and explanation
729
+ st.markdown("---")
730
+ if st.button(f"🗄️ {txt('database_section')}", use_container_width=True, key="database_button"):
731
+ st.session_state.show_database_form = not st.session_state.show_database_form
732
+ st.session_state.show_static_page = False # Hide static page if database button is clicked
733
+ st.session_state.current_section = "database" # Set a specific section for the database interface
734
+
735
+ if st.session_state.show_database_form:
736
+ st.markdown(txt("database_intro"))
737
+
738
+ st.markdown("---")
739
+ st.header(txt("settings_section"))
740
+
741
+ # Theme management
742
+ theme_options = ["Light", "Dark"] + list(get_saved_themes().keys())
743
+ selected_theme = st.selectbox(
744
+ txt("select_theme"),
745
+ options=theme_options,
746
+ index=theme_options.index(st.session_state.theme) if st.session_state.theme in theme_options else 0,
747
+ key="theme_selector",
748
+ on_change=lambda: st.session_state.update({'theme': st.session_state.theme_selector})
749
+ )
750
+
751
+ if selected_theme not in ["Light", "Dark"]:
752
+ if st.button(txt("delete_theme_button")):
753
+ success, msg = delete_theme_preferences(selected_theme)
754
+ if success:
755
+ st.success(msg)
756
+ st.session_state.theme = "Light"
757
+ else:
758
+ st.error(msg)
759
+ st.rerun()
760
+
761
+ st.info(txt("theme_reload_info"))
762
+
763
+ # Logout button in the sidebar
764
+ st.markdown("---")
765
+ if st.button(txt("logout_button"), use_container_width=True):
766
+ # Before logging out, save active discussion if it exists
767
+ if st.session_state.is_logged_in and st.session_state.active_discussion_id:
768
+ update_discussion_state()
769
+
770
+ st.session_state.is_logged_in = False
771
+ st.session_state.username = None
772
+ st.session_state.user_id = None
773
+ st.session_state.df = None
774
+ st.session_state.demo_mode = False
775
+ st.session_state.active_discussion_id = None
776
+ st.session_state.active_discussion_name = "Nouvelle Discussion"
777
+ st.session_state.current_section = "home"
778
+ st.session_state.last_module_choice = "home"
779
+ st.session_state.show_static_page = False
780
+ st.session_state.generate_visuals_clicked = False
781
+ st.session_state.show_database_form = False
782
+ st.session_state.is_database_connected = False
783
+ st.session_state.database_user = None
784
+ st.session_state.database_files = {} # Clear database files on logout
785
+ st.rerun()
786
+
787
+
788
+ # --- Main page content ---
789
+ if not st.session_state.is_logged_in and not st.session_state.demo_mode:
790
+ st.title(txt("app_title_welcome"))
791
+ login_form()
792
+ elif st.session_state.show_static_page:
793
+ st.header(txt(st.session_state.last_module_choice)) # Uses the section key
794
+ st.write(txt(f"{st.session_state.last_module_choice}_content")) # Uses the key_content
795
+ if st.button(txt("back_to_dashboard_button")):
796
+ st.session_state.show_static_page = False
797
+ st.rerun()
798
+ elif st.session_state.current_section == "database":
799
+ if not st.session_state.is_database_connected:
800
+ database_login_form()
801
+ else:
802
+ database_management_interface()
803
+ elif st.session_state.current_section == "home":
804
+ st.title(txt("home_welcome_title").format(username=st.session_state.username))
805
+ st.markdown(txt("home_intro"))
806
+
807
+ st.subheader(txt("home_feature_discovery_title"))
808
+
809
+ # Concrete use cases
810
+ st.markdown("#### Exemples d'Analyse :")
811
+ st.markdown("""
812
+ - **Agent Immobilier 🏡:** Analysez les prix du marché, identifiez les propriétés surévaluées/sous-évaluées, comprenez les facteurs clés de valeur.
813
+ - **Investisseur 💰:** Détectez des opportunités d'investissement, segmentez le marché pour trouver des niches, évaluez les risques.
814
+ - **Promoteur Immobilier 🏗️:** Évaluez le potentiel de nouveaux projets, anticipez les tendances, optimisez les stratégies de vente.
815
+ """)
816
+
817
+ st.subheader(txt("home_ai_models_title"))
818
+ st.markdown(txt("home_ai_models_description"))
819
+
820
+ st.markdown(f"- **LightGBM:** Un algorithme d'apprentissage puissant pour la prédiction. 🚀")
821
+ st.markdown(f"- **Isolation Forest:** Idéal pour détecter les anomalies et les valeurs aberrantes. 🔍")
822
+ st.markdown(f"- **K-Means:** Pour regrouper les propriétés similaires et découvrir des segments de marché. 🧩")
823
+
824
+ # Main button to import a file, visible on the home page if not in demo mode
825
+ if not st.session_state.demo_mode:
826
+ st.markdown("---")
827
+ if st.button(txt("main_section_import_button"), use_container_width=True):
828
+ set_section("data_diagnostic_title")
829
+ st.rerun()
830
+
831
+ else: # Main application logic
832
+ # Section for file upload if not in demo mode
833
+ if not st.session_state.demo_mode:
834
+ st.header(f"📥 {txt('data_diagnostic_title')} - {txt('upload_label')}")
835
+ st.info(txt("import_file_types_info"))
836
+ uploaded_file = st.file_uploader(txt("upload_label"), type=["csv", "txt", "json", "xls", "xlsx", "parquet", "orc", "feather", "dta", "sas7bdat"])
837
+
838
+ if uploaded_file is not None:
839
+ file_details = {"FileName": uploaded_file.name, "FileType": uploaded_file.type}
840
+ st.write(txt("file_details"))
841
+ st.write(file_details)
842
+
843
+ # Use a unique filename to avoid conflicts in temporary folders
844
+ unique_filename = f"{datetime.now().strftime('%Y%m%d%H%M%S')}_{uploaded_file.name}"
845
+
846
+ # Save the file temporarily for reading by read_data_file
847
+ with tempfile.NamedTemporaryFile(delete=False, suffix=os.path.splitext(uploaded_file.name)[1]) as tmp_file:
848
+ tmp_file.write(uploaded_file.getvalue())
849
+ tmp_file_path = tmp_file.name
850
+
851
+ df, message = read_data_file(tmp_file_path)
852
+
853
+ # Delete the temporary file after reading
854
+ os.unlink(tmp_file_path)
855
+
856
+ if df is not None:
857
+ st.session_state.df = df
858
+ st.success(txt("file_uploaded_success"))
859
+ st.session_state.generate_visuals_clicked = False # Reset when a new file is loaded
860
+ update_discussion_state() # Save the DF to the active discussion
861
+ st.rerun() # To display the information directly
862
+
863
+ else:
864
+ st.error(f"{txt('error_reading_file')} : {message}")
865
+
866
+ # Display demo DataFrame or loaded data
867
+ if st.session_state.df is not None:
868
+ if st.session_state.demo_mode:
869
+ st.subheader(txt("demo_data_title"))
870
+ st.write(txt("demo_data_intro"))
871
+ st.dataframe(st.session_state.df.head())
872
+ else:
873
+ st.subheader(txt("dataframe_sample"))
874
+ st.dataframe(st.session_state.df.head())
875
+
876
+ # --- Automatic display of initial information and visualizations ---
877
+ st.markdown("---")
878
+ st.header(f"📊 {txt('data_diagnostic_title')}")
879
+ st.info(txt("data_diagnostic_intro"))
880
+
881
+ overview = get_data_overview(st.session_state.df)
882
+ st.subheader(txt("overview_data"))
883
+ st.write(txt("num_rows").format(rows=overview['rows']))
884
+ st.write(txt("num_cols").format(cols=overview['cols']))
885
+
886
+ st.subheader(txt("descriptive_stats"))
887
+ st.write(st.session_state.df.describe())
888
+
889
+ st.subheader(txt("missing_values"))
890
+ missing_summary = get_missing_values_summary(st.session_state.df)
891
+ if not missing_summary.empty:
892
+ st.write(missing_summary)
893
+ else:
894
+ st.info(txt("no_missing_values"))
895
+
896
+ # Button to generate visualizations
897
+ if st.button(txt("generate_visualizations_button"), key="generate_data_viz_button"):
898
+ st.session_state.generate_visuals_clicked = True
899
+ st.rerun() # To display the charts below the button
900
+
901
+ if st.session_state.generate_visuals_clicked:
902
+ generate_multicolor_plots(st.session_state.df.copy())
903
+
904
+ # Display PDF/Excel download buttons here if the model is trained
905
+ if st.session_state.model is not None:
906
+ st.markdown("---")
907
+ st.subheader(txt("report_generation_title"))
908
+ st.info(txt("report_generation_intro"))
909
+
910
+ report_content = ReportContent(
911
+ df=st.session_state.df,
912
+ model=st.session_state.model,
913
+ shap_values_data=st.session_state.shap_values_data,
914
+ X_test_data=st.session_state.X_test_data,
915
+ y_test_data=st.session_state.y_test_data,
916
+ target_column=st.session_state.target_column,
917
+ model_type=st.session_state.model_type,
918
+ txt_func=txt
919
+ )
920
+
921
+ # Report customization (simplified for display here)
922
+ report_custom_title_line1 = txt("default_report_title_line1")
923
+ report_custom_subtitle = txt("default_report_subtitle")
924
+ report_custom_footer = txt("default_report_footer").format(date=datetime.now().strftime("%Y-%m-%d"))
925
+ selected_sections = report_content.available_report_sections # All default sections
926
+
927
+ report_options = {
928
+ "report_custom_title_line1": report_custom_title_line1,
929
+ "report_custom_subtitle": report_custom_subtitle,
930
+ "report_custom_footer": report_custom_footer,
931
+ "selected_report_sections": selected_sections
932
+ }
933
+ report_content.update_report_options(report_options)
934
+
935
+ col_pdf, col_excel = st.columns(2)
936
+
937
+ with col_pdf:
938
+ pdf_exporter = PdfExporter(report_content)
939
+ pdf_output = io.BytesIO()
940
+ pdf_exporter.export_pdf(pdf_output)
941
+ st.download_button(
942
+ label=txt("download_pdf_button"),
943
+ data=pdf_output.getvalue(),
944
+ file_name=f"Rapport_ErnestMind_{slugify(report_custom_title_line1)}.pdf",
945
+ mime="application/pdf",
946
+ use_container_width=True
947
+ )
948
+
949
+ with col_excel:
950
+ try:
951
+ excel_exporter = ExcelExporter(report_content)
952
+ with tempfile.NamedTemporaryFile(delete=False, suffix=".xlsx") as tmp_excel_file:
953
+ excel_output_path = tmp_excel_file.name
954
+
955
+ excel_exporter.export_excel(excel_output_path)
956
+ with open(excel_output_path, "rb") as f:
957
+ excel_data = f.read()
958
+ st.download_button(
959
+ label=txt("download_excel_button"),
960
+ data=excel_data,
961
+ file_name=f"Rapport_ErnestMind_{slugify(report_custom_title_line1)}.xlsx",
962
+ mime="application/vnd.openxmlformats-officedocument.spreadsheetml.sheet",
963
+ use_container_width=True
964
+ )
965
+ os.unlink(excel_output_path)
966
+ except ImportError:
967
+ st.error(txt("excel_dependency_error"))
968
+ except Exception as e:
969
+ st.error(f"{txt('error_creating_excel')}: {e}")
970
+ else:
971
+ st.info(txt("upload_data_for_report_prompt")) # Reuse this message to indicate that a trained model is needed
972
+
973
+
974
+ elif st.session_state.current_section == "data_prep_title":
975
+ st.header(f"🛠️ {txt('data_prep_title')}")
976
+
977
+ st.info(txt("data_prep_intro"))
978
+
979
+ st.subheader(txt("missing_values_imputation_title"))
980
+ imputation_method = st.selectbox(txt("select_imputation_method"), ["mean", "median", "knn"])
981
+ if st.button(txt("apply_imputation_button")):
982
+ st.session_state.df = impute_missing_values(st.session_state.df, method=imputation_method)
983
+ st.success(txt("imputation_applied").format(method=imputation_method))
984
+ update_discussion_state() # Save state after modification
985
+ st.rerun()
986
+
987
+ st.subheader(txt("feature_scaling_title"))
988
+ scaling_method = st.selectbox(txt("select_scaling_method"), ["standard", "minmax"])
989
+ if st.button(txt("apply_scaling_button")):
990
+ st.session_state.df = scale_features(st.session_state.df, method=scaling_method)
991
+ st.success(txt("scaling_applied").format(method=scaling_method))
992
+ update_discussion_state()
993
+ st.rerun()
994
+
995
+ st.subheader(txt("outlier_detection_title"))
996
+ if st.button(txt("detect_outliers_button")):
997
+ st.session_state.df = detect_outliers_isolation_forest(st.session_state.df)
998
+ st.success(txt("outliers_detected"))
999
+ st.write(st.session_state.df.head())
1000
+ update_discussion_state()
1001
+ st.rerun()
1002
+
1003
+ st.subheader(txt("clustering_title"))
1004
+ n_clusters = st.number_input(txt("select_num_clusters"), min_value=2, value=3)
1005
+ if st.button(txt("apply_clustering_button")):
1006
+ st.session_state.df = perform_kmeans_clustering(st.session_state.df, n_clusters=n_clusters)
1007
+ st.success(txt("clustering_applied").format(n_clusters=n_clusters))
1008
+ st.write(st.session_state.df.head())
1009
+ update_discussion_state()
1010
+ st.rerun()
1011
+
1012
+ st.subheader(txt("feature_engineering_title"))
1013
+
1014
+ # Create polynomial features
1015
+ st.markdown("#### Créer des caractéristiques polynômiales")
1016
+ degree = st.number_input("Degré", min_value=2, max_value=5, value=2)
1017
+ if st.button("Créer des caractéristiques polynômiales"):
1018
+ st.session_state.df = create_polynomial_features(st.session_state.df, degree)
1019
+ st.success(f"Caractéristiques polynômiales de degré {degree} créées.")
1020
+ update_discussion_state()
1021
+ st.rerun()
1022
+
1023
+ # Create interaction terms
1024
+ st.markdown("#### Créer un terme d'interaction")
1025
+ num_cols = st.session_state.df.select_dtypes(include=np.number).columns
1026
+ col1 = st.selectbox("Première colonne", num_cols, key="interaction_col1")
1027
+ col2 = st.selectbox("Deuxième colonne", num_cols, key="interaction_col2")
1028
+ if st.button("Créer le terme d'interaction"):
1029
+ st.session_state.df = create_interaction_term(st.session_state.df, col1, col2)
1030
+ st.success(f"Terme d'interaction créé entre {col1} et {col2}.")
1031
+ update_discussion_state()
1032
+ st.rerun()
1033
+
1034
+ # Extract date/time features
1035
+ st.markdown("#### Extraire des caractéristiques de date/heure")
1036
+ # Convert potential date columns if not already
1037
+ for col in st.session_state.df.columns:
1038
+ if 'date' in col.lower():
1039
+ try:
1040
+ st.session_state.df[col] = pd.to_datetime(st.session_state.df[col], errors='coerce')
1041
+ except Exception:
1042
+ pass # Leave as is if not a valid date
1043
+
1044
+ datetime_cols = st.session_state.df.select_dtypes(include=['datetime64']).columns
1045
+ if len(datetime_cols) > 0:
1046
+ datetime_col = st.selectbox("Sélectionner la colonne de date/heure", datetime_cols)
1047
+ features_to_extract = st.multiselect("Sélectionner les caractéristiques à extraire", ["year", "month", "day", "hour", "minute", "second"])
1048
+ if st.button("Extraire les caractéristiques"):
1049
+ st.session_state.df = extract_datetime_features(st.session_state.df, datetime_col, features_to_extract)
1050
+ st.success("Caractéristiques de date/heure extraites.")
1051
+ update_discussion_state()
1052
+ st.rerun()
1053
+ else:
1054
+ st.info("Aucune colonne de date/heure détectée.")
1055
+
1056
+ elif st.session_state.current_section == "ai_prediction_title":
1057
+ st.header(f"🧠 {txt('ai_prediction_title')}")
1058
+
1059
+ if st.session_state.df is not None:
1060
+ st.info(txt("ai_prediction_intro"))
1061
+
1062
+ st.subheader(txt("model_training"))
1063
+ num_cols = st.session_state.df.select_dtypes(include=np.number).columns
1064
+
1065
+ # Filter columns that are not purely identifying for the target
1066
+ possible_target_cols = [col for col in num_cols if len(st.session_state.df[col].unique()) > 1]
1067
+
1068
+ if not possible_target_cols:
1069
+ st.warning(txt("no_suitable_target_column"))
1070
+ else:
1071
+ target_column = st.selectbox(txt("select_target_column"), options=possible_target_cols)
1072
+ model_type = st.selectbox(txt("select_model_type"), options=[txt("regression_model"), txt("classification_model")])
1073
+
1074
+ if st.button(txt("train_model_button")):
1075
+ if target_column:
1076
+ with st.spinner(txt("training_model_in_progress")):
1077
+ st.session_state.target_column = target_column
1078
+ st.session_state.model_type = model_type
1079
+
1080
+ X = st.session_state.df.drop(columns=[target_column])
1081
+ y = st.session_state.df[target_column]
1082
+
1083
+ # Encode categorical features
1084
+ X = pd.get_dummies(X, drop_first=True)
1085
+
1086
+ # Ensure X does not contain the target column after get_dummies if it was numeric
1087
+ if target_column in X.columns:
1088
+ X = X.drop(columns=[target_column])
1089
+
1090
+ # Handle remaining columns with NaN if they appear after get_dummies or other operations
1091
+ X = X.fillna(X.mean(numeric_only=True))
1092
+
1093
+ # Split data
1094
+ if len(X) > 1:
1095
+ X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
1096
+ else: # Case where there is not enough data to split
1097
+ X_train, X_test = X, X
1098
+ y_train, y_test = y, y
1099
+
1100
+ st.session_state.X_test_data = X_test
1101
+ st.session_state.y_test_data = y_test
1102
+
1103
+ if model_type == txt("regression_model"):
1104
+ model = LGBMRegressor(random_state=42)
1105
+ else:
1106
+ # For classification, ensure y is of int/categorical type
1107
+ if pd.api.types.is_numeric_dtype(y):
1108
+ y = y.astype('category').cat.codes # Convert to numeric codes for LGBM
1109
+ model = LGBMClassifier(random_state=42)
1110
+
1111
+ model.fit(X_train, y_train)
1112
+ st.session_state.model = model
1113
+
1114
+ # Calculate SHAP values
1115
+ try:
1116
+ explainer = shap.Explainer(model, X_train) # Use X_train for the explainer
1117
+ shap_values = explainer(X_test)
1118
+ st.session_state.shap_values_data = shap_values
1119
+ st.success(txt("model_trained_success"))
1120
+ except Exception as e:
1121
+ st.error(f"{txt('error_shap_calculation')}: {e}. Le modèle est entraîné mais les valeurs SHAP n'ont pas pu être calculées.")
1122
+ st.session_state.shap_values_data = None # Reset if error
1123
+
1124
+ update_discussion_state() # Save state after model training
1125
+ st.rerun() # To refresh model performance
1126
+
1127
+ else:
1128
+ st.warning(txt("select_target_column_prompt"))
1129
+
1130
+ if st.session_state.model:
1131
+ st.subheader(txt("model_performance"))
1132
+
1133
+ y_pred = st.session_state.model.predict(st.session_state.X_test_data)
1134
+
1135
+ if st.session_state.model_type == txt("regression_model"):
1136
+ rmse = np.sqrt(mean_squared_error(st.session_state.y_test_data, y_pred))
1137
+ r2 = r2_score(st.session_state.y_test_data, y_pred)
1138
+ st.metric(label=txt("rmse"), value=f"{rmse:.2f}")
1139
+ st.metric(label=txt("r2_score"), value=f"{r2:.2f}")
1140
+ else:
1141
+ accuracy = accuracy_score(st.session_state.y_test_data, y_pred.round())
1142
+ st.metric(label=txt("accuracy"), value=f"{accuracy:.2f}")
1143
+
1144
+ # Display SHAP visualizations only if they have been calculated
1145
+ if st.session_state.shap_values_data is not None:
1146
+ generate_ai_report_visualizations(st.session_state.df, st.session_state.shap_values_data, st.session_state.X_test_data)
1147
+ else:
1148
+ st.info(txt("shap_not_available"))
1149
+
1150
+
1151
+ else:
1152
+ st.warning(txt("upload_data_for_report_prompt"))
1153
+
1154
+ elif st.session_state.current_section == "report_generation_title":
1155
+ st.header(f"📄 {txt('report_generation_title')}")
1156
+
1157
+ if st.session_state.df is not None and st.session_state.model is not None:
1158
+ st.info(txt("report_generation_intro"))
1159
+
1160
+ # Create a ReportContent instance with session data
1161
+ report_content = ReportContent(
1162
+ df=st.session_state.df,
1163
+ model=st.session_state.model,
1164
+ shap_values_data=st.session_state.shap_values_data,
1165
+ X_test_data=st.session_state.X_test_data,
1166
+ y_test_data=st.session_state.y_test_data,
1167
+ target_column=st.session_state.target_column,
1168
+ model_type=st.session_state.model_type,
1169
+ txt_func=txt
1170
+ )
1171
+
1172
+ # Report customization
1173
+ st.subheader(txt("report_customization_title"))
1174
+ report_custom_title_line1 = st.text_input(txt("custom_report_title_line1_label"), value=txt("default_report_title_line1"))
1175
+ report_custom_subtitle = st.text_input(txt("custom_report_subtitle_label"), value=txt("default_report_subtitle"))
1176
+ report_custom_footer = st.text_area(txt("custom_report_footer_label"), value=txt("default_report_footer").format(date=datetime.now().strftime("%Y-%m-%d")))
1177
+
1178
+ selected_sections = st.multiselect(
1179
+ txt("select_report_sections"),
1180
+ options=report_content.available_report_sections,
1181
+ default=report_content.available_report_sections
1182
+ )
1183
+
1184
+ report_options = {
1185
+ "report_custom_title_line1": report_custom_title_line1,
1186
+ "report_custom_subtitle": report_custom_subtitle,
1187
+ "report_custom_footer": report_custom_footer,
1188
+ "selected_report_sections": selected_sections
1189
+ }
1190
+
1191
+ # Update options for the ReportContent instance
1192
+ report_content.update_report_options(report_options)
1193
+
1194
+ col_pdf, col_excel = st.columns(2)
1195
+
1196
+ # PDF download button
1197
+ with col_pdf:
1198
+ pdf_exporter = PdfExporter(report_content)
1199
+ pdf_output = io.BytesIO()
1200
+ pdf_exporter.export_pdf(pdf_output)
1201
+ st.download_button(
1202
+ label=txt("download_pdf_button"),
1203
+ data=pdf_output.getvalue(),
1204
+ file_name=f"Rapport_ErnestMind_{slugify(report_custom_title_line1)}.pdf",
1205
+ mime="application/pdf",
1206
+ use_container_width=True
1207
+ )
1208
+
1209
+ # Excel download button
1210
+ with col_excel:
1211
+ try:
1212
+ excel_exporter = ExcelExporter(report_content)
1213
+ # Use a temporary file on the file system for xlsxwriter
1214
+ with tempfile.NamedTemporaryFile(delete=False, suffix=".xlsx") as tmp_excel_file:
1215
+ excel_output_path = tmp_excel_file.name
1216
+
1217
+ excel_exporter.export_excel(excel_output_path)
1218
+ with open(excel_output_path, "rb") as f:
1219
+ excel_data = f.read()
1220
+ st.download_button(
1221
+ label=txt("download_excel_button"),
1222
+ data=excel_data,
1223
+ file_name=f"Rapport_ErnestMind_{slugify(report_custom_title_line1)}.xlsx",
1224
+ mime="application/vnd.openxmlformats-officedocument.spreadsheetml.sheet",
1225
+ use_container_width=True
1226
+ )
1227
+ os.unlink(excel_output_path) # Delete temporary file
1228
+ except ImportError:
1229
+ st.error(txt("excel_dependency_error"))
1230
+ except Exception as e:
1231
+ st.error(f"{txt('error_creating_excel')}: {e}")
1232
+
1233
+ else:
1234
+ st.warning(txt("upload_data_for_report_prompt"))
1235
+
1236
+ # --- Global footer (new: moved from sidebar) ---
1237
+ st.markdown("---") # Visual separator
1238
+ col_footer_priv, col_footer_legal, col_footer_terms, col_footer_about, col_footer_help = st.columns(5)
1239
+ with col_footer_priv:
1240
+ if st.button(txt("footer_privacy_policy"), key="footer_privacy_policy_button_main", use_container_width=True):
1241
+ static_page("privacy_policy_section")
1242
+ st.rerun()
1243
+ with col_footer_legal:
1244
+ if st.button(txt("footer_legal_notices"), key="footer_legal_notices_button_main", use_container_width=True):
1245
+ static_page("legal_notices_section")
1246
+ st.rerun()
1247
+ with col_footer_terms:
1248
+ if st.button(txt("footer_terms_of_use"), key="footer_terms_of_use_button_main", use_container_width=True):
1249
+ static_page("terms_of_use_section")
1250
+ st.rerun()
1251
+ with col_footer_about:
1252
+ if st.button(txt("footer_about_ernestmind"), key="footer_about_ernestmind_button_main", use_container_width=True):
1253
+ static_page("about_ernestmind_section")
1254
+ st.rerun()
1255
+ with col_footer_help:
1256
+ if st.button(txt("read_more_need_help"), key="footer_help_button_main", use_container_width=True):
1257
+ static_page("help_section")
1258
+ st.rerun()
1259
+
1260
+ # Note : Static pages are now displayed by the `elif st.session_state.show_static_page:` logic
1261
+ # and the contents are pulled from `translations_report_content.py` or `translations_base.py`.
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/report_excel_exporter.py ADDED
@@ -0,0 +1,121 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import pandas as pd
2
+ import numpy as np
3
+ import os
4
+ import io
5
+ import base64
6
+ import tempfile
7
+ import matplotlib.pyplot as plt
8
+ import seaborn as sns
9
+ from datetime import datetime
10
+ from PIL import Image
11
+ import json
12
+ from matplotlib.colors import LinearSegmentedColormap
13
+
14
+ # Importation de la fonction de traduction et des traductions
15
+ from translations import txt, translations, slugify # Importe slugify depuis translations
16
+ # xlsxwriter est utilisé pour des fonctionnalités avancées comme le style
17
+ try:
18
+ import xlsxwriter
19
+ except ImportError:
20
+ xlsxwriter = None
21
+
22
+
23
+ class ExcelExporter:
24
+ """Class to export reports in Excel format."""
25
+
26
+ def __init__(self, report_content):
27
+ self.content = report_content
28
+ self.report_title_line1 = self.content.report_options['report_custom_title_line1']
29
+ self.report_title_line2 = self.content.report_title_line2
30
+ self.report_subtitle = self.content.report_options['report_custom_subtitle']
31
+ self.report_footer_text = self.content.report_options['report_custom_footer']
32
+ self.report_logo_path = self.content.custom_logo_path
33
+
34
+ def export_excel(self, tmpfile_path):
35
+ """Exports the report in Excel format."""
36
+ if xlsxwriter is None:
37
+ raise ImportError(f"{txt('Erreur : Une dépendance nécessaire pour ce format est manquante. Veuillez installer `xlsxwriter` via `pip install xlsxwriter`')}")
38
+
39
+ try:
40
+ workbook = xlsxwriter.Workbook(tmpfile_path, {'in_memory': True})
41
+
42
+ # Définition des formats
43
+ title_format = workbook.add_format({'bold': True, 'font_size': 20, 'align': 'center', 'valign': 'vcenter'})
44
+ subheader_format = workbook.add_format({'bold': True, 'font_size': 14, 'bg_color': '#D9D9D9', 'border': 1})
45
+ text_format = workbook.add_format({'font_size': 11, 'align': 'left', 'valign': 'top', 'text_wrap': True})
46
+
47
+ # Création des feuilles
48
+ if txt("report_cover_page_title") in self.content.selected_report_sections:
49
+ cover_sheet = workbook.add_worksheet(txt("report_cover_page_title"))
50
+ cover_sheet.merge_range('A1:B1', self.report_title_line1, title_format)
51
+ cover_sheet.merge_range('A2:B2', self.report_title_line2, title_format)
52
+ cover_sheet.merge_range('A3:B3', self.report_subtitle, text_format)
53
+
54
+ if txt("about_this_report_title") in self.content.selected_report_sections:
55
+ about_sheet = workbook.add_worksheet(txt("about_this_report_title"))
56
+ about_sheet.write(0, 0, txt("about_this_report_title"), subheader_format)
57
+ about_sheet.write(1, 0, self.content.get_about_this_report_content(), text_format)
58
+
59
+ if txt("data_info_section") in self.content.selected_report_sections:
60
+ data_info_sheet = workbook.add_worksheet(txt("data_info_section"))
61
+ data_info_sheet.write(0, 0, txt("data_info_section"), subheader_format)
62
+ data_info_sheet.write(1, 0, self.content.get_data_info_content(), text_format)
63
+
64
+ if txt("report_data_quality_title") in self.content.selected_report_sections:
65
+ data_quality_sheet = workbook.add_worksheet(txt("report_data_quality_title"))
66
+ data_quality_sheet.write(0, 0, txt("report_data_quality_title"), subheader_format)
67
+ data_quality_sheet.write(1, 0, self.content.get_data_quality_content(), text_format)
68
+
69
+ if txt("report_kpis_infographic_title") in self.content.selected_report_sections:
70
+ kpis_sheet = workbook.add_worksheet(txt("report_kpis_infographic_title"))
71
+ kpis_sheet.write(0, 0, txt("report_kpis_infographic_title"), subheader_format)
72
+ # Ajout des KPIs
73
+ kpis_content = self.content.get_kpis_content()
74
+ kpis_sheet.write(1, 0, kpis_content, text_format)
75
+
76
+
77
+ if txt("report_ai_observations_title") in self.content.selected_report_sections:
78
+ observations_sheet = workbook.add_worksheet(txt("report_ai_observations_title"))
79
+ observations_sheet.write(0, 0, txt("report_ai_observations_title"), subheader_format)
80
+ observations_sheet.write(1, 0, self.content.get_strategic_observations_content(), text_format)
81
+
82
+ if txt("report_ai_recommendations_title") in self.content.selected_report_sections:
83
+ recommendations_sheet = workbook.add_worksheet(txt("report_ai_recommendations_title"))
84
+ recommendations_sheet.write(0, 0, txt("report_ai_recommendations_title"), subheader_format)
85
+ recommendations_sheet.write(1, 0, self.content.get_strategic_recommendations_content(), text_format)
86
+
87
+ if txt("report_methodology_annex_title") in self.content.selected_report_sections:
88
+ methodology_sheet = workbook.add_worksheet(txt("report_methodology_annex_title"))
89
+ methodology_sheet.write(0, 0, txt("report_methodology_annex_title"), subheader_format)
90
+ methodology_sheet.write(1, 0, self.content.get_methodology_content(), text_format)
91
+
92
+ if txt("report_glossary_annex_title") in self.content.selected_report_sections:
93
+ glossary_sheet = workbook.add_worksheet(txt("report_glossary_annex_title"))
94
+ glossary_sheet.write(0, 0, txt("report_glossary_annex_title"), subheader_format)
95
+ glossary_sheet.write(1, 0, self.content.get_glossary_content(), text_format)
96
+ glossary_sheet.set_column(0, 0, 100)
97
+ glossary_sheet.set_row(1, 150)
98
+
99
+ if txt("report_about_app_annex_title") in self.content.selected_report_sections:
100
+ about_app_sheet = workbook.add_worksheet(txt("report_about_app_annex_title"))
101
+ about_app_sheet.write(0, 0, txt("report_about_app_annex_title"), subheader_format)
102
+ about_app_text = self.content.get_about_app_content()
103
+ about_app_text_formatted = about_app_text.replace('**', '')
104
+ about_app_sheet.write(1, 0, about_app_text_formatted, text_format)
105
+ about_app_sheet.set_column(0, 0, 100)
106
+ about_app_sheet.set_row(1, 400) # Increased height for all content
107
+
108
+
109
+ # --- Footer global ---
110
+ footer_text_lines = self.content.footer_lines
111
+ for sheet_name in workbook.sheetnames:
112
+ worksheet = workbook.get_worksheet_by_name(sheet_name)
113
+ # Ajouter un pied de page à chaque feuille (peut être fait plus proprement avec un gestionnaire d'événements si xlsxwriter le permet)
114
+ # Pour un exemple simple, ajoutons-le aux dernières lignes utilisées
115
+ last_row = worksheet.dim_rowmax + 2
116
+ worksheet.write(last_row, 0, self.report_footer_text, text_format)
117
+
118
+ workbook.close()
119
+
120
+ except Exception as e:
121
+ st.error(f"Erreur lors de la création du fichier Excel : {e}")
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/report_generator.py ADDED
@@ -0,0 +1,461 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import pandas as pd
2
+ import numpy as np
3
+ from datetime import datetime
4
+ from translations import txt, translations, slugify
5
+ import streamlit as st
6
+ import shap
7
+ import matplotlib.pyplot as plt
8
+ from sklearn.metrics import mean_squared_error, accuracy_score, r2_score
9
+ from lightgbm import LGBMClassifier, LGBMRegressor
10
+ import os
11
+ import tempfile
12
+ import re
13
+ from collections import Counter
14
+ from matplotlib.colors import LinearSegmentedColormap
15
+ from sklearn.cluster import KMeans
16
+ from sklearn.ensemble import IsolationForest
17
+
18
+ class AIRecommender:
19
+ """
20
+ Génère des observations stratégiques et des recommandations actionnables
21
+ basées sur l'analyse des données.
22
+ """
23
+ def __init__(self, df: pd.DataFrame, shap_values_data=None, X_test_data=None, txt_func=None, target_column=None):
24
+ self.df = df
25
+ self.ai_knowledge_profile = {}
26
+ self.shap_values_data = shap_values_data
27
+ self.X_test_data = X_test_data
28
+ self.txt = txt_func if txt_func else (lambda key, **kwargs: key)
29
+ self.target_column = target_column
30
+ self._extract_insights()
31
+ self.observations = self._generate_potential_strategic_observations()
32
+ self.recommendations = self._generate_strategic_recommendations()
33
+
34
+ def _extract_insights(self):
35
+ """
36
+ Phase 1 : Extraction d'Insights Contextuels Approfondis.
37
+ Cette méthode peuple le ai_knowledge_profile avec des observations
38
+ spécifiques au domaine immobilier.
39
+ """
40
+ df = self.df.copy()
41
+
42
+ # Aperçu des données
43
+ self.ai_knowledge_profile['num_rows'] = df.shape[0]
44
+ self.ai_knowledge_profile['num_cols'] = df.shape[1]
45
+ self.ai_knowledge_profile['column_types'] = df.dtypes.apply(lambda x: x.name).to_dict()
46
+ self.ai_knowledge_profile['duplicate_rows'] = df.duplicated().sum()
47
+
48
+ # Valeurs manquantes
49
+ missing_data = df.isnull().sum()
50
+ self.ai_knowledge_profile['missing_cols'] = missing_data[missing_data > 0].index.tolist()
51
+ if self.target_column and df[self.target_column].isnull().any():
52
+ self.ai_knowledge_profile['missing_target_values'] = True
53
+ else:
54
+ self.ai_knowledge_profile['missing_target_values'] = False
55
+
56
+ # Détection d'anomalies (Isolation Forest)
57
+ num_df = df.select_dtypes(include=np.number).dropna()
58
+ if not num_df.empty:
59
+ try:
60
+ model = IsolationForest(random_state=42)
61
+ outliers = model.fit_predict(num_df)
62
+ self.ai_knowledge_profile['num_outliers'] = list(outliers).count(-1)
63
+ self.ai_knowledge_profile['outlier_percentage'] = (self.ai_knowledge_profile['num_outliers'] / len(df)) * 100
64
+ except Exception:
65
+ self.ai_knowledge_profile['num_outliers'] = 0
66
+ self.ai_knowledge_profile['outlier_percentage'] = 0.0
67
+
68
+ # Analyse des colonnes numériques
69
+ num_cols = df.select_dtypes(include=np.number).columns
70
+ for col in num_cols:
71
+ self.ai_knowledge_profile[f'median_of_{col}'] = df[col].median()
72
+ self.ai_knowledge_profile[f'mean_of_{col}'] = df[col].mean()
73
+ self.ai_knowledge_profile[f'std_of_{col}'] = df[col].std()
74
+
75
+ # Détection d'asymétrie
76
+ if len(df[col].dropna()) > 1:
77
+ skewness = df[col].skew()
78
+ if abs(skewness) > 1: # Seuil pour considérer une distribution asymétrique
79
+ self.ai_knowledge_profile[f'skewed_distribution_{col}'] = True
80
+ else:
81
+ self.ai_knowledge_profile[f'skewed_distribution_{col}'] = False
82
+ else:
83
+ self.ai_knowledge_profile[f'skewed_distribution_{col}'] = False
84
+
85
+ # Faible variance
86
+ if df[col].nunique() < 5 and len(df[col].dropna()) > 0: # Moins de 5 valeurs uniques pour une colonne numérique
87
+ if df[col].std() < 0.1: # Seuil arbitraire pour faible écart-type
88
+ self.ai_knowledge_profile[f'low_variance_{col}'] = True
89
+ else:
90
+ self.ai_knowledge_profile[f'low_variance_{col}'] = False
91
+ else:
92
+ self.ai_knowledge_profile[f'low_variance_{col}'] = False
93
+
94
+
95
+ # Analyse des colonnes catégorielles
96
+ cat_cols = df.select_dtypes(include=['object', 'category']).columns
97
+ for col in cat_cols:
98
+ top_value = df[col].mode()[0]
99
+ self.ai_knowledge_profile[f'top_category_in_{col}'] = top_value
100
+ self.ai_knowledge_profile[f'top_category_count_in_{col}'] = df[col].value_counts().get(top_value, 0)
101
+
102
+ # Déséquilibre de classes
103
+ value_counts = df[col].value_counts(normalize=True)
104
+ if value_counts.min() < 0.1 and len(value_counts) > 1: # Si une classe représente moins de 10%
105
+ self.ai_knowledge_profile[f'categorical_imbalance_{col}'] = True
106
+ self.ai_knowledge_profile[f'minority_category_{col}'] = value_counts.idxmin()
107
+ else:
108
+ self.ai_knowledge_profile[f'categorical_imbalance_{col}'] = False
109
+
110
+ # Cardinalité élevée
111
+ if df[col].nunique() / df.shape[0] > 0.5: # Si plus de 50% de valeurs uniques
112
+ self.ai_knowledge_profile[f'high_cardinality_{col}'] = df[col].nunique()
113
+ else:
114
+ self.ai_knowledge_profile[f'high_cardinality_{col}'] = None
115
+
116
+
117
+ # Clustering (K-Means)
118
+ if not num_df.empty and len(num_df) > 1 and len(num_df) >= 3: # Au moins 3 points pour 3 clusters
119
+ try:
120
+ kmeans = KMeans(n_clusters=3, random_state=42, n_init=10)
121
+ clusters = kmeans.fit_predict(num_df)
122
+ self.ai_knowledge_profile['cluster_means'] = kmeans.cluster_centers_.tolist()
123
+ except Exception:
124
+ self.ai_knowledge_profile['cluster_means'] = []
125
+ else:
126
+ self.ai_knowledge_profile['cluster_means'] = []
127
+
128
+ # Analyse des dates
129
+ datetime_cols = df.select_dtypes(include=['datetime64']).columns
130
+ for col in datetime_cols:
131
+ if len(df[col].dropna()) > 1:
132
+ # Vérifier si la colonne est effectivement une série temporelle avec une tendance
133
+ # Une détection simple ici : si la moyenne des différences consécutives est non nulle
134
+ # et que les valeurs ne sont pas toutes identiques.
135
+ diffs = df[col].diff().dropna()
136
+ if not diffs.empty and diffs.mean() != 0 and df[col].nunique() > 1:
137
+ self.ai_knowledge_profile[f'time_series_trend_{col}'] = True
138
+ else:
139
+ self.ai_knowledge_profile[f'time_series_trend_{col}'] = False
140
+ else:
141
+ self.ai_knowledge_profile[f'time_series_trend_{col}'] = False
142
+
143
+ # Multicolinéarité
144
+ if num_df.shape[1] > 1:
145
+ corr_matrix = num_df.corr().abs()
146
+ # Compter les paires avec une corrélation très élevée (excluant la diagonale)
147
+ upper_tri = corr_matrix.where(np.triu(np.ones(corr_matrix.shape), k=1).astype(bool))
148
+ to_drop = [column for column in upper_tri.columns if any(upper_tri[column] > 0.9)] # Seuil > 0.9 pour forte multicolinéarité
149
+ if len(to_drop) > 0:
150
+ self.ai_knowledge_profile['multicollinearity'] = True
151
+ self.ai_knowledge_profile['highly_correlated_cols'] = to_drop
152
+ else:
153
+ self.ai_knowledge_profile['multicollinearity'] = False
154
+ else:
155
+ self.ai_knowledge_profile['multicollinearity'] = False
156
+
157
+
158
+ def _generate_potential_strategic_observations(self):
159
+ """
160
+ Phase 2 : Génération d'observations stratégiques en se basant sur les insights.
161
+ Retourne une liste des observations les plus pertinentes.
162
+ """
163
+ observations_list = []
164
+
165
+ # Règle 1: Observation sur les valeurs manquantes
166
+ if self.ai_knowledge_profile.get('missing_cols'):
167
+ observations_list.append(self.txt("obs_missing_values").format(
168
+ cols=", ".join(self.ai_knowledge_profile['missing_cols'])
169
+ ))
170
+
171
+ # Règle 2: Observation sur les valeurs aberrantes
172
+ outlier_percent = self.ai_knowledge_profile.get('outlier_percentage', 0)
173
+ if outlier_percent > 5.0:
174
+ observations_list.append(self.txt("obs_high_outlier_rate").format(
175
+ percent=f"{outlier_percent:.2f}"
176
+ ))
177
+ elif outlier_percent > 0:
178
+ observations_list.append(self.txt("obs_outliers_exist").format(
179
+ percent=f"{outlier_percent:.2f}"
180
+ ))
181
+
182
+ # Règle 3: Observation sur les clusters de données
183
+ if self.ai_knowledge_profile.get('cluster_means'):
184
+ observations_list.append(self.txt("obs_data_clusters"))
185
+
186
+ # Règle 4: Observation sur la distribution des prix (s'il y a une colonne de prix)
187
+ price_col = None
188
+ for col in self.df.columns:
189
+ if re.search(r'prix|price', col, re.IGNORECASE) and self.df[col].dtype in ['int64', 'float64']:
190
+ price_col = col
191
+ break
192
+
193
+ if price_col:
194
+ median_price = self.ai_knowledge_profile.get(f'median_of_{price_col}')
195
+ if median_price:
196
+ observations_list.append(self.txt("obs_median_price").format(
197
+ price=median_price, col=price_col
198
+ ))
199
+
200
+ # Règle 5: Observation sur la corrélation
201
+ # Cette règle est maintenant intégrée directement dans _extract_insights
202
+ num_df = self.df.select_dtypes(include=np.number)
203
+ if num_df.shape[1] > 1:
204
+ corr_matrix = num_df.corr().abs()
205
+ high_corr_pairs = []
206
+ # On cherche des corrélations > 0.8 (moins strict que multicolinéarité)
207
+ for col1 in corr_matrix.columns:
208
+ for col2 in corr_matrix.index:
209
+ if col1 != col2 and corr_matrix.loc[col1, col2] > 0.8:
210
+ pair = sorted([col1, col2])
211
+ if pair not in high_corr_pairs: # Éviter les doublons (A,B) et (B,A)
212
+ high_corr_pairs.append(pair)
213
+
214
+ if high_corr_pairs:
215
+ observations_list.append(self.txt("obs_high_correlation").format(
216
+ pairs=", ".join([f"({p[0]}, {p[1]})" for p in high_corr_pairs])
217
+ ))
218
+
219
+ # Nouvelles observations basées sur les insights
220
+ for col in self.df.select_dtypes(include=np.number).columns:
221
+ if self.ai_knowledge_profile.get(f'skewed_distribution_{col}'):
222
+ observations_list.append(self.txt("obs_skewed_distribution").format(col=col))
223
+ if self.ai_knowledge_profile.get(f'low_variance_{col}'):
224
+ observations_list.append(self.txt("obs_low_variance").format(col=col))
225
+
226
+ for col in self.df.select_dtypes(include=['object', 'category']).columns:
227
+ if self.ai_knowledge_profile.get(f'categorical_imbalance_{col}'):
228
+ observations_list.append(self.txt("obs_categorical_imbalance").format(
229
+ col=col, minority=self.ai_knowledge_profile[f'minority_category_{col}']
230
+ ))
231
+ if self.ai_knowledge_profile.get(f'high_cardinality_{col}'):
232
+ observations_list.append(self.txt("obs_high_cardinality").format(
233
+ col=col, count=self.ai_knowledge_profile[f'high_cardinality_{col}']
234
+ ))
235
+
236
+ for col in self.df.select_dtypes(include=['datetime64']).columns:
237
+ if self.ai_knowledge_profile.get(f'time_series_trend_{col}'):
238
+ observations_list.append(self.txt("obs_time_series_trend").format(col=col))
239
+
240
+ if self.ai_knowledge_profile.get('missing_target_values') and self.target_column:
241
+ observations_list.append(self.txt("obs_missing_target_values").format(target_col=self.target_column))
242
+
243
+ if self.ai_knowledge_profile.get('duplicate_rows') > 0:
244
+ observations_list.append(self.txt("obs_duplicate_rows").format(count=self.ai_knowledge_profile['duplicate_rows']))
245
+
246
+ if self.ai_knowledge_profile.get('multicollinearity'):
247
+ observations_list.append(self.txt("obs_multicollinearity"))
248
+
249
+ # Sélectionner les 5 observations les plus pertinentes (ou moins si moins de 5)
250
+ # Ceci est une simplification. Dans une vraie application, on pourrait prioriser
251
+ # ou utiliser des scores pour choisir les plus impactantes.
252
+ return observations_list[:5] # Limiter à 5 observations
253
+
254
+
255
+ def _generate_strategic_recommendations(self):
256
+ """
257
+ Génère les recommandations stratégiques en se basant sur les insights.
258
+ Retourne une liste des recommandations les plus pertinentes.
259
+ """
260
+ recommendations_list = []
261
+
262
+ # Règle 1: Recommandation sur la préparation des données
263
+ if self.ai_knowledge_profile.get('missing_cols') or self.ai_knowledge_profile.get('num_outliers', 0) > 0:
264
+ recommendations_list.append(self.txt("rec_data_prep_focus"))
265
+
266
+ # Règle 2: Recommandation sur l'analyse des caractéristiques SHAP
267
+ if self.shap_values_data is not None and self.X_test_data is not None and not self.X_test_data.empty:
268
+ try:
269
+ shap_df = pd.DataFrame(self.shap_values_data.values, columns=self.X_test_data.columns)
270
+ mean_abs_shap = shap_df.abs().mean().sort_values(ascending=False)
271
+ top_features = mean_abs_shap.index[:3].tolist()
272
+ if top_features:
273
+ recommendations_list.append(self.txt("rec_focus_on_features").format(
274
+ features=", ".join(top_features)
275
+ ))
276
+ except Exception:
277
+ pass # Ignorer si SHAP a échoué
278
+
279
+ # Règle 3: Recommandation pour les modèles de clustering
280
+ if self.ai_knowledge_profile.get('cluster_means'):
281
+ recommendations_list.append(self.txt("rec_explore_segmentation"))
282
+
283
+ # Règle 4: Recommandation pour la détection d'anomalies
284
+ if self.ai_knowledge_profile.get('num_outliers', 0) > 0:
285
+ recommendations_list.append(self.txt("rec_investigate_anomalies"))
286
+
287
+ # Règle 5: Recommandation sur la collecte de données supplémentaires
288
+ if self.df.shape[0] < 500: # Seuil arbitraire
289
+ recommendations_list.append(self.txt("rec_collect_more_data"))
290
+
291
+ # Règle 6: Recommandation pour l'ingénierie des caractéristiques
292
+ num_cols = self.df.select_dtypes(include=np.number).columns
293
+ if len(num_cols) >= 2:
294
+ recommendations_list.append(self.txt("rec_feature_engineering_terms"))
295
+
296
+ # Nouvelles recommandations basées sur les insights
297
+ for col in self.df.select_dtypes(include=np.number).columns:
298
+ if self.ai_knowledge_profile.get(f'skewed_distribution_{col}'):
299
+ recommendations_list.append(self.txt("rec_handle_skewness").format(col=col))
300
+ if self.ai_knowledge_profile.get(f'low_variance_{col}'):
301
+ recommendations_list.append(self.txt("rec_remove_low_variance_features").format(col=col))
302
+
303
+ for col in self.df.select_dtypes(include=['object', 'category']).columns:
304
+ if self.ai_knowledge_profile.get(f'categorical_imbalance_{col}'):
305
+ recommendations_list.append(self.txt("rec_balance_categories").format(col=col))
306
+ if self.ai_knowledge_profile.get(f'high_cardinality_{col}'):
307
+ recommendations_list.append(self.txt("rec_dimensionality_reduction").format(col=col))
308
+
309
+ for col in self.df.select_dtypes(include=['datetime64']).columns:
310
+ if self.ai_knowledge_profile.get(f'time_series_trend_{col}'):
311
+ recommendations_list.append(self.txt("rec_time_series_model"))
312
+
313
+ if self.ai_knowledge_profile.get('missing_target_values') and self.target_column:
314
+ recommendations_list.append(self.txt("rec_clean_target_missing").format(target_col=self.target_column))
315
+
316
+ if self.ai_knowledge_profile.get('duplicate_rows') > 0:
317
+ recommendations_list.append(self.txt("rec_deduplicate_data"))
318
+
319
+ if self.ai_knowledge_profile.get('multicollinearity'):
320
+ recommendations_list.append(self.txt("rec_address_multicollinearity"))
321
+
322
+ # Sélectionner les 5 recommandations les plus pertinentes (ou moins si moins de 5)
323
+ return recommendations_list[:5] # Limiter à 5 recommandations
324
+
325
+ def get_strategic_observations(self):
326
+ return self.observations
327
+
328
+ def get_strategic_recommendations(self):
329
+ return self.recommendations
330
+
331
+
332
+ class ReportContent:
333
+ """
334
+ Génère le contenu des différentes sections du rapport.
335
+ """
336
+ def __init__(self, df: pd.DataFrame, model=None, shap_values_data=None, X_test_data=None, y_test_data=None, target_column=None, model_type=None, txt_func=None):
337
+ self.df = df
338
+ self.model = model
339
+ self.shap_values_data = shap_values_data
340
+ self.X_test_data = X_test_data
341
+ self.y_test_data = y_test_data
342
+ self.target_column = target_column
343
+ self.model_type = model_type
344
+ self.txt = txt_func if txt_func else (lambda key, **kwargs: key)
345
+ self.report_options = {}
346
+ self.custom_logo_path = None
347
+ self.report_title_line2 = txt("default_report_title_line2")
348
+
349
+ self.ai_recommender = AIRecommender(
350
+ df=self.df,
351
+ shap_values_data=self.shap_values_data,
352
+ X_test_data=self.X_test_data,
353
+ txt_func=self.txt,
354
+ target_column=self.target_column # Passer la colonne cible au recommender
355
+ )
356
+
357
+ self.available_report_sections = [
358
+ txt("report_cover_page_title"),
359
+ txt("about_this_report_title"),
360
+ txt("data_info_section"),
361
+ txt("report_data_quality_title"),
362
+ txt("report_kpis_infographic_title"),
363
+ txt("report_ai_observations_title"),
364
+ txt("report_ai_recommendations_title"),
365
+ txt("report_methodology_annex_title"),
366
+ txt("report_glossary_annex_title"),
367
+ txt("report_about_app_annex_title")
368
+ ]
369
+
370
+ def update_report_options(self, options):
371
+ self.report_options = options
372
+ self.selected_report_sections = options.get('selected_report_sections', [])
373
+
374
+ def get_about_this_report_content(self):
375
+ return self.txt("about_this_report_content")
376
+
377
+ def get_data_info_content(self):
378
+ overview = {
379
+ "Numéro de lignes": self.df.shape[0],
380
+ "Numéro de colonnes": self.df.shape[1],
381
+ "Types de colonnes": self.df.dtypes.to_dict()
382
+ }
383
+ content = self.txt("data_info_intro") + "\n\n"
384
+ for key, value in overview.items():
385
+ content += f"- **{key}** : {value}\n"
386
+ return content
387
+
388
+ def get_data_quality_content(self):
389
+ missing_summary = self.df.isnull().sum()
390
+ missing_summary = missing_summary[missing_summary > 0].to_dict()
391
+
392
+ outliers = detect_outliers_isolation_forest(self.df.copy())
393
+ num_outliers = (outliers['outlier_score'] == -1).sum()
394
+
395
+ content = self.txt("data_quality_intro") + "\n\n"
396
+ content += self.txt("missing_values_title") + ":\n"
397
+ if missing_summary:
398
+ for col, count in missing_summary.items():
399
+ content += f"- **{col}** : {count} ({count/len(self.df)*100:.2f}%)\n"
400
+ else:
401
+ content += self.txt("no_missing_values") + "\n"
402
+
403
+ content += "\n" + self.txt("outlier_detection_title") + ":\n"
404
+ content += f"- {num_outliers} outliers détectés ({num_outliers/len(self.df)*100:.2f}%).\n"
405
+
406
+ return content
407
+
408
+ def get_kpis_content(self):
409
+ if self.model and self.y_test_data is not None and self.X_test_data is not None and not self.X_test_data.empty:
410
+ y_pred = self.model.predict(self.X_test_data)
411
+
412
+ content = self.txt("kpis_intro") + "\n\n"
413
+
414
+ if self.model_type == self.txt("regression_model"):
415
+ rmse = np.sqrt(mean_squared_error(self.y_test_data, y_pred))
416
+ r2 = r2_score(self.y_test_data, y_pred)
417
+ content += f"- **{self.txt('rmse')}** : {rmse:.2f}\n"
418
+ content += f"- **{self.txt('r2_score')}** : {r2:.2f}\n"
419
+ else:
420
+ accuracy = accuracy_score(self.y_test_data, y_pred.round())
421
+ content += f"- **{self.txt('accuracy')}** : {accuracy:.2f}\n"
422
+
423
+ return content
424
+ else:
425
+ return self.txt("no_kpis_available")
426
+
427
+ def get_strategic_observations_content(self):
428
+ observations = self.ai_recommender.get_strategic_observations()
429
+ if observations:
430
+ content = self.txt('res_observations_intro') + "\n\n"
431
+ content += "\n".join([f"- {obs}" for obs in observations])
432
+ return content
433
+ else:
434
+ return self.txt("no_observations_available")
435
+
436
+ def get_strategic_recommendations_content(self):
437
+ recommendations = self.ai_recommender.get_strategic_recommendations()
438
+ if recommendations:
439
+ content = ""
440
+ for rec in recommendations:
441
+ content += f"- {rec}\n"
442
+ return content
443
+ else:
444
+ return self.txt("no_recommendations_available")
445
+
446
+ def get_methodology_content(self):
447
+ """Returns the methodology content for the report."""
448
+ content = self.txt("methodology_intro") + "\n\n"
449
+ content += self.txt("methodology_data_prep") + "\n"
450
+ content += self.txt("methodology_model_training") + "\n"
451
+ content += self.txt("methodology_shap_explanation") + "\n"
452
+ content += self.txt("methodology_report_generation") + "\n"
453
+ content += self.txt("methodology_data_confidentiality") + "\n"
454
+ return content
455
+
456
+ def get_glossary_content(self):
457
+ """Returns the glossary content for the report."""
458
+ return self.txt("glossary_full_text")
459
+
460
+ def get_about_app_content(self):
461
+ return self.txt("about_app_content")
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/report_pdf_exporter.py ADDED
@@ -0,0 +1,203 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import pandas as pd
2
+ import numpy as np
3
+ import os
4
+ import io
5
+ import base64
6
+ import tempfile
7
+ import matplotlib.pyplot as plt
8
+ import seaborn as sns
9
+ from datetime import datetime
10
+ from reportlab.lib.pagesizes import letter, A4
11
+ from reportlab.pdfgen import canvas
12
+ from reportlab.lib.utils import ImageReader
13
+ from PIL import Image
14
+ import json
15
+ from matplotlib.colors import LinearSegmentedColormap
16
+ from reportlab.lib.enums import TA_CENTER, TA_LEFT, TA_RIGHT
17
+ from reportlab.lib.styles import getSampleStyleSheet, ParagraphStyle
18
+ from reportlab.platypus import Paragraph, Spacer
19
+ from reportlab.lib.colors import black, blue, green, red, HexColor
20
+ from reportlab.platypus import Table, TableStyle
21
+
22
+ from translations import txt, slugify
23
+ from report_generator import ReportContent
24
+
25
+ class PdfCore:
26
+ """
27
+ Gère la logique de base de la création de PDF en utilisant ReportLab.
28
+ Fournit des méthodes pour la gestion du canevas, des styles, des en-têtes/pieds de page,
29
+ et l'ajout générique de texte, images et tableaux.
30
+ """
31
+
32
+ def __init__(self, canvas_obj, report_title_line1, report_title_line2, report_footer_text):
33
+ """
34
+ Initialise PdfCore avec un objet canvas ReportLab et des informations de rapport.
35
+ """
36
+ self.c = canvas_obj
37
+ self.report_title_line1 = report_title_line1
38
+ self.report_title_line2 = report_title_line2
39
+ self.report_footer_text = report_footer_text
40
+ self.width, self.height = A4
41
+ self.margin = 50
42
+ self.styles = getSampleStyleSheet()
43
+ self.styles.add(ParagraphStyle(name='TitleStyle', fontSize=20, leading=24, alignment=TA_CENTER, fontName='Helvetica-Bold'))
44
+ self.styles.add(ParagraphStyle(name='SubtitleStyle', fontSize=14, leading=16, alignment=TA_CENTER))
45
+ self.styles.add(ParagraphStyle(name='SectionTitleStyle', fontSize=16, leading=20, alignment=TA_LEFT, fontName='Helvetica-Bold'))
46
+ self.styles.add(ParagraphStyle(name='ParagraphStyle', fontSize=10, leading=12, alignment=TA_LEFT, text_wrap=True))
47
+ self.c.setPageSize(A4)
48
+
49
+ def add_header(self, page_num):
50
+ """Ajoute l'en-tête de page."""
51
+ self.c.setFont('Helvetica-Bold', 10)
52
+ self.c.drawString(self.margin, self.height - 30, f"{self.report_title_line1} {self.report_title_line2}")
53
+ self.c.drawString(self.width - self.margin - 20, self.height - 30, f"Page {page_num}")
54
+
55
+ def add_footer(self):
56
+ """Ajoute le pied de page."""
57
+ self.c.setFont('Helvetica', 8)
58
+ self.c.drawString(self.margin, 30, self.report_footer_text)
59
+
60
+ def add_section_title(self, y_cursor, title):
61
+ """Ajoute un titre de section au PDF."""
62
+ p_title = Paragraph(title, self.styles['SectionTitleStyle'])
63
+ p_title.wrapOn(self.c, self.width - 2 * self.margin, self.height)
64
+ p_title.drawOn(self.c, self.margin, y_cursor - p_title.height)
65
+ return y_cursor - p_title.height - 10
66
+
67
+ def add_paragraph(self, y_cursor, text):
68
+ """Ajoute un paragraphe de texte au PDF."""
69
+ p_text = Paragraph(text, self.styles['ParagraphStyle'])
70
+ p_text.wrapOn(self.c, self.width - 2 * self.margin, self.height)
71
+ if y_cursor - p_text.height < self.margin:
72
+ self.c.showPage()
73
+ y_cursor = self.height - self.margin
74
+ p_text.drawOn(self.c, self.margin, y_cursor - p_text.height)
75
+ return y_cursor - p_text.height - 10
76
+
77
+ def add_image_from_plt(self, y_cursor, fig):
78
+ """Ajoute une image à partir d'une figure Matplotlib."""
79
+ img_buffer = io.BytesIO()
80
+ fig.savefig(img_buffer, format='png', bbox_inches='tight')
81
+ img_buffer.seek(0)
82
+ img = ImageReader(img_buffer)
83
+ aspect = img.getSize()[1] / img.getSize()[0]
84
+ img_width = self.width * 0.8
85
+ img_height = img_width * aspect
86
+
87
+ if y_cursor - img_height < self.margin:
88
+ self.c.showPage()
89
+ y_cursor = self.height - self.margin
90
+
91
+ self.c.drawImage(img, self.margin + (self.width - 2*self.margin - img_width)/2, y_cursor - img_height, width=img_width, height=img_height)
92
+ plt.close(fig) # Ferme la figure pour libérer la mémoire
93
+ return y_cursor - img_height - 10
94
+
95
+ class PdfExporter:
96
+ """Class to export reports in PDF format."""
97
+
98
+ def __init__(self, report_content):
99
+ self.content = report_content
100
+ self.report_title_line1 = self.content.report_options['report_custom_title_line1']
101
+ self.report_title_line2 = self.content.report_title_line2
102
+ self.report_subtitle = self.content.report_options['report_custom_subtitle']
103
+ self.report_footer_text = self.content.report_options['report_custom_footer']
104
+
105
+ def export_pdf(self, buffer):
106
+ c = canvas.Canvas(buffer, pagesize=A4)
107
+ pdf_core = PdfCore(c, self.report_title_line1, self.report_title_line2, self.report_footer_text)
108
+ page_num = 1
109
+
110
+ for section in self.content.selected_report_sections:
111
+ if section == txt("report_cover_page_title"):
112
+ pdf_core.c.showPage()
113
+ y_cursor = pdf_core.height / 2
114
+ p_title = Paragraph(self.report_title_line1, pdf_core.styles['TitleStyle'])
115
+ p_subtitle = Paragraph(self.report_title_line2, pdf_core.styles['TitleStyle'])
116
+ p_custom_subtitle = Paragraph(self.report_subtitle, pdf_core.styles['SubtitleStyle'])
117
+
118
+ p_title.wrapOn(c, pdf_core.width, pdf_core.height)
119
+ p_title.drawOn(c, pdf_core.margin, y_cursor)
120
+ y_cursor -= p_title.height
121
+ p_subtitle.wrapOn(c, pdf_core.width, pdf_core.height)
122
+ p_subtitle.drawOn(c, pdf_core.margin, y_cursor)
123
+ y_cursor -= p_subtitle.height
124
+ p_custom_subtitle.wrapOn(c, pdf_core.width, pdf_core.height)
125
+ p_custom_subtitle.drawOn(c, pdf_core.margin, y_cursor)
126
+
127
+ elif section == txt("about_this_report_title"):
128
+ pdf_core.c.showPage()
129
+ page_num += 1
130
+ pdf_core.add_header(page_num)
131
+ pdf_core.add_footer()
132
+ y_cursor = pdf_core.height - pdf_core.margin
133
+ y_cursor = pdf_core.add_section_title(y_cursor, txt("about_this_report_title"))
134
+ y_cursor = pdf_core.add_paragraph(y_cursor, self.content.get_about_this_report_content())
135
+
136
+ elif section == txt("data_info_section"):
137
+ pdf_core.c.showPage()
138
+ page_num += 1
139
+ pdf_core.add_header(page_num)
140
+ pdf_core.add_footer()
141
+ y_cursor = pdf_core.height - pdf_core.margin
142
+ y_cursor = pdf_core.add_section_title(y_cursor, txt("data_info_section"))
143
+ y_cursor = pdf_core.add_paragraph(y_cursor, self.content.get_data_info_content())
144
+
145
+ elif section == txt("report_data_quality_title"):
146
+ pdf_core.c.showPage()
147
+ page_num += 1
148
+ pdf_core.add_header(page_num)
149
+ pdf_core.add_footer()
150
+ y_cursor = pdf_core.height - pdf_core.margin
151
+ y_cursor = pdf_core.add_section_title(y_cursor, txt("report_data_quality_title"))
152
+ y_cursor = pdf_core.add_paragraph(y_cursor, self.content.get_data_quality_content())
153
+
154
+ elif section == txt("report_kpis_infographic_title"):
155
+ pdf_core.c.showPage()
156
+ page_num += 1
157
+ pdf_core.add_header(page_num)
158
+ pdf_core.add_footer()
159
+ y_cursor = pdf_core.height - pdf_core.margin
160
+ y_cursor = pdf_core.add_section_title(y_cursor, txt("report_kpis_infographic_title"))
161
+ y_cursor = pdf_core.add_paragraph(y_cursor, self.content.get_kpis_content())
162
+
163
+ elif section == txt("report_ai_observations_title"):
164
+ pdf_core.c.showPage()
165
+ page_num += 1
166
+ pdf_core.add_header(page_num)
167
+ pdf_core.add_footer()
168
+ y_cursor = pdf_core.height - pdf_core.margin
169
+ y_cursor = pdf_core.add_section_title(y_cursor, txt("report_ai_observations_title"))
170
+ y_cursor = pdf_core.add_paragraph(y_cursor, self.content.get_strategic_observations_content())
171
+ c.showPage()
172
+ page_num += 1
173
+
174
+ elif section == txt("report_ai_recommendations_title"):
175
+ y_cursor = pdf_core.height - pdf_core.margin
176
+ y_cursor = pdf_core.add_section_title(y_cursor, txt("report_ai_recommendations_title"))
177
+ y_cursor = pdf_core.add_paragraph(y_cursor, self.content.get_strategic_recommendations_content())
178
+ c.showPage()
179
+ page_num += 1
180
+
181
+ # Annexes
182
+ elif section == txt("report_methodology_annex_title"):
183
+ y_cursor = pdf_core.height - pdf_core.margin
184
+ y_cursor = pdf_core.add_section_title(y_cursor, txt("report_methodology_annex_title"))
185
+ y_cursor = pdf_core.add_paragraph(y_cursor, self.content.get_methodology_content())
186
+ c.showPage()
187
+ page_num += 1
188
+
189
+ elif section == txt("report_glossary_annex_title"):
190
+ y_cursor = pdf_core.height - pdf_core.margin
191
+ y_cursor = pdf_core.add_section_title(y_cursor, txt("report_glossary_annex_title"))
192
+ y_cursor = pdf_core.add_paragraph(y_cursor, self.content.get_glossary_content())
193
+ c.showPage()
194
+ page_num += 1
195
+
196
+ elif section == txt("report_about_app_annex_title"):
197
+ y_cursor = pdf_core.height - pdf_core.margin
198
+ y_cursor = pdf_core.add_section_title(y_cursor, txt("report_about_app_annex_title"))
199
+ y_cursor = pdf_core.add_paragraph(y_cursor, self.content.get_about_app_content())
200
+ c.showPage()
201
+ page_num += 1
202
+
203
+ c.save()
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/translations.py ADDED
@@ -0,0 +1,142 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import streamlit as st
2
+ import unicodedata
3
+ import string
4
+ import re
5
+ import hashlib
6
+ import json
7
+ import pandas as pd
8
+ import numpy as np
9
+ from datetime import datetime
10
+
11
+
12
+ # Importation des dictionnaires de traduction spécifiques
13
+ from translations_base import fr_translations_base # load_users et save_users ne sont plus importés ici
14
+ from translations_data_processing import fr_translations_data_processing
15
+ from translations_ai_report import fr_translations_ai_report
16
+ from translations_report_content import fr_translations_report_content
17
+
18
+ # Variable globale pour stocker le code de la langue actuelle
19
+ _current_language_code = 'fr'
20
+
21
+ # --- Données de Démonstration Fictives ---
22
+ # Ces données sont intégrées directement pour le mode démo.
23
+ # Elles représentent un petit jeu de données immobilier avec des types variés.
24
+ demo_data_fr = {
25
+ "ID_Propriete": [101, 102, 103, 104, 105, 106, 107, 108, 109, 110, 111, 112, 113, 114, 115],
26
+ "Type_Propriete": ["Appartement", "Maison", "Appartement", "Maison", "Appartement", "Studio", "Maison", "Appartement", "Maison", "Appartement", "Studio", "Maison", "Appartement", "Maison", "Loft"],
27
+ "Surface_m2": [75, 120, 90, 150, 60, 30, 180, 85, 130, 70, 35, 200, 95, 160, 100],
28
+ "Nombre_Pieces": [3, 5, 4, 6, 2, 1, 7, 3, 5, 3, 1, 8, 4, 6, 3],
29
+ "Prix": [350000, 600000, 420000, 750000, 280000, 180000, 900000, 380000, 650000, 320000, 195000, 1100000, 450000, 800000, 500000],
30
+ "Date_Construction": ["2005-01-15", "1998-06-20", "2010-03-01", "1975-11-10", "2015-08-22", "2020-02-01", "1960-04-05", "2008-09-12", "1985-07-30", "2012-05-01", "2021-01-01", "1950-02-15", "2000-11-20", "1970-03-25", "2018-04-10"],
31
+ "Localisation": ["Paris", "Lyon", "Marseille", "Toulouse", "Nice", "Bordeaux", "Nantes", "Strasbourg", "Montpellier", "Lille", "Rennes", "Reims", "Le Havre", "Saint-Étienne", "Dijon"],
32
+ "Latitude": [48.8566, 45.7640, 43.2965, 43.6047, 43.7102, 44.8378, 47.2184, 48.5734, 43.6108, 50.6292, 48.1173, 49.2583, 49.4944, 45.4397, 47.3220],
33
+ "Longitude": [2.3522, 4.8357, 5.3698, 1.4442, 7.2620, -0.5792, -1.5536, 7.7521, 3.8767, 3.0573, -1.6778, 4.0317, 0.1077, 4.3899, 5.0415],
34
+ "Description": [
35
+ "Bel appartement en centre-ville, proche commodités.",
36
+ "Grande maison familiale avec jardin, quartier calme.",
37
+ "Appartement moderne avec balcon, vue imprenable.",
38
+ "Maison de caractère rénovée, grand terrain arboré.",
39
+ "Petit appartement idéal étudiant ou jeune couple.",
40
+ "Studio fonctionnel, lumineux, proche transports.",
41
+ "Propriété d'exception avec piscine, grand luxe.",
42
+ "Appartement traversant, lumineux, deux chambres.",
43
+ "Maison avec potentiel, travaux à prévoir, bon investissement.",
44
+ "Appartement refait à neuf, équipements modernes.",
45
+ "Studio étudiant avec kitchenette, très demandé.",
46
+ "Vaste demeure historique, cadre unique, grand parc.",
47
+ "Appartement spacieux, à rénover, forte demande locative.",
48
+ "Maison avec jardin, proche écoles et commerces.",
49
+ "Loft design, esprit industriel, très recherché."
50
+ ]
51
+ }
52
+
53
+ # Fusionner tous les dictionnaires de traduction pour chaque langue
54
+ translations = {
55
+ "fr": {
56
+ **fr_translations_base,
57
+ **fr_translations_data_processing,
58
+ **fr_translations_ai_report,
59
+ **fr_translations_report_content,
60
+ "demo_data": demo_data_fr, # Ajout des données de démo
61
+ # Nouvelles observations pour enrichir le modèle AIRecommender
62
+ "obs_skewed_distribution": "La distribution de la colonne '{col}' est asymétrique, ce qui peut affecter les performances de certains modèles. Une transformation des données pourrait être bénéfique.",
63
+ "obs_categorical_imbalance": "La colonne catégorielle '{col}' présente un déséquilibre important de classes, avec la catégorie '{minority}' sous-représentée. Cela peut biaiser les prédictions pour cette classe.",
64
+ "obs_high_cardinality": "La colonne '{col}' a une cardinalité élevée ({count} valeurs uniques). Cela pourrait rendre l'encodage coûteux et potentiellement introduire du surapprentissage.",
65
+ "obs_time_series_trend": "Une tendance claire a été détectée dans la colonne de date '{col}', suggérant que le temps est un facteur important dans les variations des données.",
66
+ "obs_missing_target_values": "Des valeurs manquantes ont été trouvées dans la colonne cible '{target_col}'. Il est crucial de les traiter avant l'entraînement du modèle.",
67
+ "obs_low_variance": "La colonne '{col}' présente une très faible variance, ce qui signifie qu'elle ne contient pas beaucoup d'informations utiles pour le modèle et pourrait être retirée.",
68
+ "obs_duplicate_rows": "Des lignes dupliquées ({count} duplicata) ont été identifiées dans le jeu de données. Leur suppression peut améliorer la qualité de l'analyse.",
69
+ "obs_multicollinearity": "Une forte multicolinéarité est présente parmi les variables. Cela peut rendre l'interprétation des coefficients du modèle difficile et impacter sa stabilité.",
70
+
71
+ # Nouvelles recommandations pour enrichir le modèle AIRecommender
72
+ "rec_handle_skewness": "Envisagez d'appliquer une transformation logarithmique ou Box-Cox à la colonne '{col}' pour normaliser sa distribution et améliorer la performance du modèle.",
73
+ "rec_balance_categories": "Pour la colonne '{col}', utilisez des techniques de rééchantillonnage (suréchantillonnage ou sous-échantillonnage) pour équilibrer les classes et éviter le biais du modèle.",
74
+ "rec_dimensionality_reduction": "Compte tenu de la cardinalité élevée de la colonne '{col}', explorez des techniques de réduction de dimensionnalité (comme le PCA ou l'encodage d'entités) pour gérer cette variable.",
75
+ "rec_time_series_model": "Puisqu'une tendance temporelle a été observée, l'utilisation de modèles de séries chronologiques (ARIMA, Prophet) pourrait être plus appropriée pour des prédictions futures.",
76
+ "rec_clean_target_missing": "Nettoyez ou imputez soigneusement les valeurs manquantes dans la colonne cible '{target_col}' pour garantir l'intégrité de l'entraînement du modèle.",
77
+ "rec_remove_low_variance_features": "Supprimez la colonne '{col}' en raison de sa faible variance. Elle n'apporte pas d'informations significatives au modèle.",
78
+ "rec_deduplicate_data": "Supprimez les lignes dupliquées pour éviter que le modèle n'apprenne sur des observations redondantes et n'en surestime l'importance.",
79
+ "rec_address_multicollinearity": "Utilisez des méthodes comme l'analyse en composantes principales (PCA) ou la suppression de l'une des variables fortement corrélées pour gérer la multicolinéarité."
80
+ }
81
+ }
82
+
83
+ # Utility function to get translated text
84
+ def txt(key, **kwargs):
85
+ """
86
+ Récupère la traduction pour une clé donnée dans la langue actuelle, avec un avertissement si non trouvée.
87
+ Permet également le formatage de chaînes avec des arguments nommés.
88
+ """
89
+ global _current_language_code
90
+
91
+ # Vérifier si la clé est présente directement dans la langue actuelle
92
+ translation = translations[_current_language_code].get(key)
93
+ if translation is not None:
94
+ try:
95
+ return translation.format(**kwargs)
96
+ except KeyError:
97
+ return translation
98
+
99
+ # Si la clé n'est pas trouvée directement, chercher dans les sous-dictionnaires
100
+ for _, lang_dict in translations.items():
101
+ if key in lang_dict:
102
+ try:
103
+ return lang_dict[key].format(**kwargs)
104
+ except KeyError:
105
+ return lang_dict[key]
106
+ # Vérifier si la clé est dans un sous-dictionnaire comme "users" ou "demo_data"
107
+ for sub_key, sub_dict in lang_dict.items():
108
+ if isinstance(sub_dict, dict) and key in sub_dict:
109
+ try:
110
+ return sub_dict[key].format(**kwargs)
111
+ except KeyError:
112
+ return sub_dict[key]
113
+
114
+
115
+ return f"[{key}]"
116
+
117
+
118
+ def set_language(lang_code):
119
+ """Définit la langue actuelle."""
120
+ global _current_language_code
121
+ if lang_code in translations:
122
+ _current_language_code = lang_code
123
+ else:
124
+ st.warning(f"La langue '{lang_code}' n'est pas supportée. Utilisation du français par défaut.", icon="⚠️")
125
+ _current_language_code = 'fr'
126
+
127
+
128
+ def slugify(value):
129
+ """
130
+ Convertit une chaîne en un format compatible avec les noms de fichiers.
131
+ """
132
+ value = str(value)
133
+ # Normalise la chaîne pour supprimer les accents et les caractères spéciaux
134
+ value = unicodedata.normalize('NFKD', value).encode('ascii', 'ignore').decode('utf-8')
135
+ # Remplace les espaces et les tirets par des tirets
136
+ value = re.sub(r'[-\s]+', '-', value).strip('-_')
137
+ # Supprime les caractères non alphanumériques sauf les tirets
138
+ value = re.sub(r'[^\w\s-]', '', value)
139
+ return value.lower()
140
+
141
+ # Les fonctions _get_users_file_path, load_users, save_users ne sont plus ici
142
+ # Elles sont déplacées dans translations_base.py
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/translations_ai_report.py ADDED
@@ -0,0 +1,68 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # translations_ai_report.py - Contient les traductions pour la prédiction IA et la génération de rapports
2
+
3
+ # Dictionnaire pour la langue française
4
+ fr_translations_ai_report = {
5
+ "model_training": "Entraînement du Modèle",
6
+ "select_target_column": "Sélectionnez la colonne cible",
7
+ "select_model_type": "Sélectionnez le type de modèle",
8
+ "regression_model": "Modèle de Régression",
9
+ "classification_model": "Modèle de Classification",
10
+ "train_model_button": "Entraîner le Modèle",
11
+ "training_model_in_progress": "Entraînement du modèle en cours...",
12
+ "model_trained_success": "Modèle entraîné avec succès !",
13
+ "feature_importance_shap": "Importance des Caractéristiques (SHAP)",
14
+ "shap_values_calculated": "Valeurs SHAP calculées et graphique généré.",
15
+ "select_target_column_prompt": "Veuillez sélectionner une colonne cible pour l'entraînement du modèle.",
16
+ "model_performance": "Performance du Modèle",
17
+ "accuracy": "Précision",
18
+ "rmse": "RMSE",
19
+ "r2_score": "Score R²",
20
+ "upload_data_for_report_prompt": "Veuillez télécharger un fichier de données et le préparer pour générer un rapport.",
21
+ "shap_summary_plot": "Graphique récapitulatif SHAP",
22
+ "report_customization_title": "Personnalisation du Rapport",
23
+ "custom_report_title_line1_label": "Titre du Rapport (Ligne 1)",
24
+ "custom_report_subtitle_label": "Sous-titre du Rapport",
25
+ "custom_report_footer_label": "Texte de Pied de Page",
26
+ "default_report_title_line1": "Rapport d'Analyse Automatisée",
27
+ "default_report_title_line2": "Généré par ErnestMind",
28
+ "default_report_subtitle": "Analyse de Données et Insights IA",
29
+ "default_report_footer": "Rapport généré le {date}. Tous droits réservés.",
30
+ "select_report_sections": "Sélectionnez les sections à inclure dans le rapport",
31
+ "download_pdf_button": "Télécharger au format PDF",
32
+ "download_excel_button": "Télécharger au format Excel",
33
+
34
+ # Clés pour les informations clés du rapport
35
+ "key_info_report_title": "Titre du rapport",
36
+ "key_info_app_version": "Version de l'application",
37
+ "key_info_targeted_sector": "Secteur ciblé",
38
+ "key_info_language": "Langue du rapport",
39
+ "key_info_table_data": "Informations Clés du Rapport",
40
+ "key_info_model_ai": "Informations Clés du Modèle IA",
41
+
42
+ # Nouvelles clés pour les cartes d'information
43
+ "card_model_status_title": "Statut du Modèle",
44
+ "card_model_status_desc_trained": "Le modèle est entraîné et prêt pour l'analyse.",
45
+ "card_model_status_desc_not_trained": "Le modèle n'est pas entraîné. Veuillez charger des données et lancer l'entraînement.",
46
+ "card_target_column_title": "Colonne Cible",
47
+ "card_target_column_desc": "La colonne {target_column} est utilisée comme variable cible.",
48
+ "card_target_column_desc_na": "Aucune colonne cible sélectionnée.",
49
+ "card_model_type_title": "Type de Modèle",
50
+ "card_model_type_desc": "Modèle de {model_type}.",
51
+ "card_model_type_desc_na": "Type de modèle non défini.",
52
+
53
+ # Nouvelles recommandations stratégiques
54
+ "rec_data_prep_focus": "Concentrez-vous sur la préparation des données pour améliorer la précision du modèle. Les valeurs manquantes et aberrantes peuvent fausser les résultats.",
55
+ "rec_explore_segmentation": "Explorez une segmentation plus fine des données à l'aide d'algorithmes de clustering (comme K-Means) pour découvrir des sous-groupes de propriétés aux caractéristiques similaires. Cela peut révéler des niches de marché inexploitées ou des tendances cachées.",
56
+ "rec_investigate_anomalies": "Menez une investigation plus approfondie sur les propriétés identifiées comme anomalies. Elles pourraient représenter des opportunités d'investissement uniques ou des erreurs de saisie à corriger.",
57
+ "rec_collect_more_data": "Vos données sont limitées. La collecte de plus d'informations (plus de lignes) ou l'ajout de nouvelles variables (plus de colonnes) pourrait considérablement améliorer la capacité prédictive du modèle et la robustesse de l'analyse.",
58
+ "rec_feature_engineering_terms": "Considérez la création de nouvelles caractéristiques (feature engineering) en combinant des variables existantes. Par exemple, un terme d'interaction entre la superficie et le nombre de pièces pourrait mieux capturer la valeur d'une propriété.",
59
+ "rec_focus_on_features": "Les caractéristiques suivantes sont les plus influentes sur les prédictions du modèle : {features}. Concentrez vos efforts d'analyse sur ces variables pour comprendre les principaux leviers de valeur.",
60
+ "rec_handle_skewness": "Envisagez d'appliquer une transformation logarithmique ou Box-Cox à la colonne '{col}' pour normaliser sa distribution et améliorer la performance du modèle.",
61
+ "rec_balance_categories": "Pour la colonne '{col}', utilisez des techniques de rééchantillonnage (suréchantillonnage ou sous-échantillonnage) pour équilibrer les classes et éviter le biais du modèle.",
62
+ "rec_dimensionality_reduction": "Compte tenu de la cardinalité élevée de la colonne '{col}', explorez des techniques de réduction de dimensionnalité (comme le PCA ou l'encodage d'entités) pour gérer cette variable.",
63
+ "rec_time_series_model": "Puisqu'une tendance temporelle a été observée, l'utilisation de modèles de séries chronologiques (ARIMA, Prophet) pourrait être plus appropriée pour des prédictions futures.",
64
+ "rec_clean_target_missing": "Nettoyez ou imputez soigneusement les valeurs manquantes dans la colonne cible '{target_col}' pour garantir l'intégrité de l'entraînement du modèle.",
65
+ "rec_remove_low_variance_features": "Supprimez la colonne '{col}' en raison de sa faible variance. Elle n'apporte pas d'informations significatives au modèle.",
66
+ "rec_deduplicate_data": "Supprimez les lignes dupliquées pour éviter que le modèle n'apprenne sur des observations redondantes et n'en surestime l'importance.",
67
+ "rec_address_multicollinearity": "Utilisez des méthodes comme l'analyse en composantes principales (PCA) ou la suppression de l'une des variables fortement corrélées pour gérer la multicolinéarité."
68
+ }
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/translations_base.py ADDED
@@ -0,0 +1,222 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # translations_base.py - Contient les traductions de base de l'application et de l'aide
2
+ import hashlib
3
+ import json
4
+ import os
5
+ import tempfile
6
+ import unicodedata # Ajout pour slugify si besoin dans ce fichier
7
+ import re # Ajout pour slugify si besoin dans ce fichier
8
+
9
+ # Fonctions pour gérer la persistance des utilisateurs
10
+ def _get_users_file_path():
11
+ """Retourne le chemin du fichier JSON pour les utilisateurs."""
12
+ return os.path.join(tempfile.gettempdir(), 'app_users.json')
13
+
14
+ def load_users():
15
+ """Charge les utilisateurs depuis le fichier JSON ou initialise avec l'admin par défaut."""
16
+ users_path = _get_users_file_path()
17
+ try:
18
+ if os.path.exists(users_path):
19
+ with open(users_path, 'r', encoding='utf-8') as f:
20
+ return json.load(f)
21
+ else:
22
+ # Initialiser avec l'utilisateur admin par défaut
23
+ default_users = {
24
+ "admin": {
25
+ "password": hashlib.sha256("admin_password".encode('utf-8')).hexdigest(),
26
+ "user_id": hashlib.md5("admin".encode('utf-8')).hexdigest(),
27
+ "profile": {},
28
+ "discussions": {}, # Initialise les discussions pour l'admin
29
+ "database_files": {} # Initialize database files for the admin
30
+ }
31
+ }
32
+ with open(users_path, 'w', encoding='utf-8') as f:
33
+ json.dump(default_users, f, ensure_ascii=False, indent=4)
34
+ return default_users
35
+ except Exception as e:
36
+ # Gérer l'erreur si le fichier est corrompu ou illisible
37
+ print(f"Erreur lors du chargement des utilisateurs: {e}. Réinitialisation du fichier des utilisateurs.")
38
+ default_users = {
39
+ "admin": {
40
+ "password": hashlib.sha256("admin_password".encode('utf-8')).hexdigest(),
41
+ "user_id": hashlib.md5("admin".encode('utf-8')).hexdigest(),
42
+ "profile": {},
43
+ "discussions": {},
44
+ "database_files": {}
45
+ }
46
+ }
47
+ with open(users_path, 'w', encoding='utf-8') as f:
48
+ json.dump(default_users, f, ensure_ascii=False, indent=4)
49
+ return default_users
50
+
51
+
52
+ def save_users(users_data):
53
+ """Sauvegarde les utilisateurs dans le fichier JSON."""
54
+ users_path = _get_users_file_path()
55
+ with open(users_path, 'w', encoding='utf-8') as f:
56
+ json.dump(users_data, f, ensure_ascii=False, indent=4)
57
+
58
+ # Dictionnaire pour la langue française
59
+ fr_translations_base = {
60
+ "lang_name": "Français",
61
+ "app_title": "ErnestMind V80 - Plateforme d'Analyse Immobilière",
62
+ "app_subtitle": "Plateforme IA locale et collaborative pour l'analyse de données — confidentielle, puissante, multilingue.",
63
+ "upload_label": "Téléchargez un fichier de données",
64
+ "file_uploaded_success": "Fichier téléchargé avec succès !",
65
+ "file_read_success": "Fichier lu et converti en DataFrame avec succès.",
66
+ "unsupported_file_type": "Type de fichier non supporté.",
67
+ "error_reading_file": "Une erreur est survenue lors de la lecture du fichier.",
68
+ "select_delimiter": "Sélectionnez le délimiteur pour le fichier CSV/TXT",
69
+ "file_details": "Détails du Fichier",
70
+
71
+ # Nouveaux modules
72
+ "data_diagnostic_title": "Diagnostic des Données",
73
+ "data_prep_title": "Préparation des Données",
74
+ "ai_prediction_title": "Prédiction & Rapports IA",
75
+ "report_generation_title": "Génération de Rapports",
76
+ "settings_section": "Paramètres",
77
+ "visualizations": "Visualisations des Données",
78
+ "home_section": "Accueil", # Nouvelle clé pour la section Accueil
79
+ "main_modules": "Modules Principaux",
80
+
81
+ # Footer
82
+ "footer_privacy_policy": "Politique de Confidentialité",
83
+ "footer_legal_notices": "Mentions Légales",
84
+ "footer_terms_of_use": "Conditions d'Utilisation",
85
+ "footer_about_ernestmind": "À Propos d'ErnestMind",
86
+ "help_title": "Aide et Guide d'Utilisation",
87
+
88
+ # Aide et guide
89
+ "help_intro_part1": """
90
+ **Bienvenue dans le guide d'aide d'ErnestMind !**
91
+
92
+ Pour commencer, suivez ces trois étapes simples :
93
+
94
+ 1. **Télécharger un Fichier :** Utilisez le module 'Diagnostic des Données' pour téléchargez un fichier de données (CSV, XLSX, JSON, etc.) ou explorez en mode démo.
95
+ 2. **Préparation des Données :** Une fois le fichier lu, les statistiques descriptives et un résumé des valeurs manquantes s'afficheront.
96
+ 3. **Entraînement du Modèle :** Le système sélectionnera automatiquement une colonne numérique comme cible. Cliquez sur "Entraîner le Modèle" pour générer des insights IA et activer les autres modules.
97
+ """,
98
+ "help_our_strengths": """
99
+ ErnestMind est conçu pour la simplicité et la puissance. Ses points forts incluent :
100
+ * **Autonomie :** Traitez vos données directement sur votre machine, sans besoin de les t��lécharger sur des serveurs externes.
101
+ * **Puissance :** Bénéficiez d'algorithmes d'IA avancés pour l'analyse prédictive, l'explicabilité et la génération d'insights.
102
+ * **Simplicité :** Une interface utilisateur conçue pour être intuitive, rendant l'analyse complexe accessible à tous.
103
+ * **Personnalisation :** Adaptez les rapports et les analyses à vos besoins spécifiques.
104
+ * **Multilinguisme :** Travaillez dans la langue de votre choix pour une expérience utilisateur optimale.
105
+ """,
106
+ "read_more_need_help": "Aide", # Renommé pour être plus court pour le footer
107
+ "close_button": "Fermer",
108
+ "back_to_dashboard_button": "Retour au Tableau de Bord",
109
+ "help_module_data_diag_content": "Ce module offre un diagnostic rapide et complet de vos données : aperçu, statistiques descriptives, analyse des valeurs manquantes et visualisations automatiques (histogrammes, barres, matrices de corrélation, nuages de mots).",
110
+ "help_module_data_prep_content": "Préparez vos données pour l'analyse IA. Gérez les valeurs manquantes, les valeurs aberrantes, appliquez la mise à l'échelle des caractéristiques et créez de nouvelles fonctionnalités (polynômiales, interaction, date/heure, agrégation).",
111
+ "help_module_ai_pred_content": "Entraînez et évaluez des modèles d'intelligence artificielle (régression ou classification). Obtenez des métriques de performance et visualisez l'importance des caractéristiques avec les valeurs SHAP.",
112
+ "help_module_report_gen_content": "Générez des rapports professionnels personnalisés en formats PDF ou Excel. Incluez des observations stratégiques, des recommandations IA, des visualisations et toutes les informations clés de votre analyse.",
113
+ "privacy_policy_section": "Politique de Confidentialité", # Renommé pour correspondre à la clé de section
114
+ "privacy_policy_section_content": "Cette application est 100% locale et ne collecte aucune de vos données personnelles ou de vos fichiers. Tout est traité sur votre machine. Votre confidentialité est notre priorité absolue. Nous n'accédons ni ne stockons vos informations.",
115
+ "legal_notices_section": "Mentions Légales", # Renommé
116
+ "legal_notices_section_content": "ErnestMind V80 est une plateforme d'analyse de données en mode local. Son utilisation est soumise à nos conditions générales d'utilisation. Pour toute question, veuillez nous contacter à support@ernestmind.ai.",
117
+ "terms_of_use_section": "Conditions d'Utilisation", # Renommé
118
+ "terms_of_use_section_content": "En utilisant cette application, vous acceptez de ne pas l'utiliser à des fins illégales ou non autorisées. Vous êtes seul responsable du contenu de vos données et de leur conformité avec les lois en vigueur. Toute utilisation abusive est strictement interdite.",
119
+ "about_ernestmind_section": "À Propos d'ErnestMind", # Renommé
120
+ "about_ernestmind_section_content": "ErnestMind V80 est une plateforme d'analyse de données immobilières propulsée par l'IA, conçue pour être puissante, confidentielle et facile d'utilisation. Notre mission est de démocratiser l'analyse avancée des données pour les professionnels de l'immobilier, en garantissant une autonomie totale et une sécurité maximale des données.",
121
+ "about_app_content": "ErnestMind V80 est une plateforme d'analyse de données immobilières propulsée par l'IA. Elle vous permet d'analyser vos données en toute confidentialité, directement sur votre machine, sans aucune collecte ni stockage externe. Profitez de fonctionnalités avancées pour la prédiction, la détection d'anomalies, le clustering et la génération de rapports personnalisés.",
122
+
123
+ # Nouvelles clés pour les observations
124
+ "res_observations_intro": "Voici une série d'observations stratégiques générées automatiquement à partir de l'analyse de vos données :",
125
+ "no_observations_available": "Aucune observation pertinente n'a pu être générée à partir des données fournies.",
126
+ "obs_missing_values": "Des valeurs manquantes ont été détectées dans les colonnes suivantes : {cols}. Ce phénomène peut impacter la performance des modèles si elles ne sont pas traitées.",
127
+ "obs_high_outlier_rate": "Un taux élevé de valeurs aberrantes ({percent}%) a été identifié. Ces points de données inhabituels méritent une attention particulière car ils peuvent biaiser l'analyse et les prédictions.",
128
+ "obs_outliers_exist": "Des valeurs aberrantes existent dans vos données ({percent}%). Il est recommandé d'examiner ces cas pour s'assurer qu'ils ne sont pas le résultat d'erreurs de saisie.",
129
+ "obs_data_clusters": "Le modèle a identifié des clusters distincts dans vos données. Cette segmentation suggère la présence de sous-groupes de propriétés avec des caractéristiques et des comportements de prix différents.",
130
+ "obs_median_price": "Le prix médian de la colonne '{col}' est de {price:.2f}. Ce chiffre est un indicateur clé pour évaluer le marché global de votre jeu de données.",
131
+ "obs_high_correlation": "Une forte corrélation a été observée entre certaines paires de caractéristiques ({pairs}). Ceci peut indiquer une redondance ou une interaction significative qui pourrait être exploitée ou gérée dans le modèle.",
132
+ "obs_skewed_distribution": "La distribution de la colonne '{col}' est asymétrique, ce qui peut affecter les performances de certains modèles. Une transformation des données pourrait être bénéfique.",
133
+ "obs_categorical_imbalance": "La colonne catégorielle '{col}' présente un déséquilibre important de classes, avec la catégorie '{minority}' sous-représentée. Cela peut biaiser les prédictions pour cette classe.",
134
+ "obs_high_cardinality": "La colonne '{col}' a une cardinalité élevée ({count} valeurs uniques). Cela pourrait rendre l'encodage coûteux et potentiellement introduire du surapprentissage.",
135
+ "obs_time_series_trend": "Une tendance claire a été détectée dans la colonne de date '{col}', suggérant que le temps est un facteur important dans les variations des données.",
136
+ "obs_missing_target_values": "Des valeurs manquantes ont été trouvées dans la colonne cible '{target_col}'. Il est crucial de les traiter avant l'entraînement du modèle.",
137
+ "obs_low_variance": "La colonne '{col}' présente une très faible variance, ce qui signifie qu'elle ne contient pas beaucoup d'informations utiles pour le modèle et pourrait être retirée.",
138
+ "obs_duplicate_rows": "Des lignes dupliquées ({count} duplicata) ont été identifiées dans le jeu de données. Leur suppression peut améliorer la qualité de l'analyse.",
139
+ "obs_multicollinearity": "Une forte multicolinéarité est présente parmi les variables. Cela peut rendre l'interprétation des coefficients du modèle difficile et impacter sa stabilité.",
140
+
141
+ # Messages d'interface utilisateur
142
+ "login_title": "Connexion / Création de compte",
143
+ "login_intro": "Bienvenue ! Connectez-vous ou créez un compte pour accéder à toutes les fonctionnalités, ou explorez en mode démo.",
144
+ "username_label": "Nom d'utilisateur",
145
+ "password_label": "Mot de passe",
146
+ "login_button": "Se connecter",
147
+ "create_account_button": "Créer un compte",
148
+ "explore_demo_button": "Explorer en mode Démo",
149
+ "login_success": "Connexion réussie !",
150
+ "login_error": "Nom d'utilisateur ou mot de passe incorrect.",
151
+ "login_fields_prompt": "Veuillez entrer un nom d'utilisateur et un mot de passe.",
152
+ "create_account_fields_prompt": "Veuillez entrer un nom d'utilisateur, un mot de passe et sélectionner un type de profil pour créer un compte.",
153
+ "demo_mode_activated": "Mode Démo activé ! Données fictives chargées.",
154
+ "logged_in_as": "Connecté en tant que",
155
+ "logout_button": "Se déconnecter",
156
+ "theme_reload_info": "Le thème changera après le rechargement de la page.",
157
+ "app_title_welcome": "Bienvenue sur ErnestMind V80",
158
+ "login_prompt_or_demo": "Veuillez vous connecter, créer un compte ou explorer en mode démo pour commencer.",
159
+ "home_welcome_title": "Bienvenue, {username} !",
160
+ "home_intro": "Explorez les capacités d'analyse de données et d'IA d'ErnestMind V80.",
161
+ "home_feature_discovery_title": "Découvrez nos fonctionnalités clés",
162
+ "home_ai_models_title": "Modèles d'IA utilisés",
163
+ "home_ai_models_description": "ErnestMind V80 exploite plusieurs algorithmes d'IA puissants pour vous offrir des analyses approfondies et des prédictions fiables :",
164
+ "ai_model_lightgbm": "Un algorithme de machine learning rapide et performant pour la régression et la classification.",
165
+ "ai_model_isolation_forest": "Utilisé pour la détection efficace des anomalies dans vos données.",
166
+ "ai_model_kmeans": "Un algorithme de clustering pour identifier des groupes naturels au sein de vos données.",
167
+ "your_latest_projects_title": "Vos derniers projets",
168
+ "load_project_button": "Charger {filename}",
169
+ "no_projects_saved": "Aucun projet sauvegardé pour cet utilisateur.",
170
+ "demo_data_title": "Données de Démonstration",
171
+ "demo_data_intro": "Voici un aperçu des données fictives préchargées que vous pouvez utiliser en mode démo pour explorer les fonctionnalités de l'application.",
172
+ "interactive_map_title": "Carte Interactive des Propriétés",
173
+ "property_map_title": "Localisation des propriétés de démonstration",
174
+ "demo_kpis_title": "Indicateurs Clés de Performance (KPIs) de Démonstration",
175
+ "average_price": "Prix Moyen",
176
+ "number_of_properties": "Nombre de Propriétés",
177
+ "average_surface": "Surface Moyenne",
178
+ "user_data_saved": "Données de l'utilisateur sauvegardées localement.",
179
+ "user_data_loaded": "Données de l'utilisateur '{filename}' chargées avec succès.",
180
+ "save_not_available_demo": "La sauvegarde n'est pas disponible en mode démo.",
181
+ "login_required_save": "Veuillez vous connecter pour sauvegarder vos données.",
182
+ "load_not_available_demo": "Le chargement de projets n'est pas disponible en mode démo.",
183
+ "login_required_load": "Veuillez vous connecter pour charger vos projets.",
184
+ "error_loading_user_data": "Erreur lors du chargement des données utilisateur.",
185
+ "file_not_found_on_server": "Le fichier '{filename}' n'a pas été trouvé sur le serveur.",
186
+ "file_not_found_for_user": "Le fichier '{filename}' n'a pas été trouvé pour cet utilisateur.",
187
+ "no_suitable_target_column": "Aucune colonne numérique appropriée trouvée pour la colonne cible. Veuillez vérifier vos données.",
188
+ "error_shap_calculation": "Erreur lors du calcul des valeurs SHAP",
189
+ "shap_not_available": "Les valeurs SHAP n'ont pas pu être calculées ou affichées pour ce modèle. Vérifiez les données ou les paramètres du modèle.",
190
+ "error_creating_excel": "Erreur lors de la création du fichier Excel",
191
+ "excel_dependency_error": "Erreur : Une dépendance nécessaire pour ce format est manquante. Veuillez installer `xlsxwriter` via `pip install xlsxwriter`.",
192
+ "create_profile_explanation": "Créer un profil aide ErnestMind à mieux adapter les analyses et les rapports à vos besoins spécifiques. Vos données restent confidentielles et locales.",
193
+ "profile_type_label": "Quel est votre profil ?",
194
+ "profile_agent_immobilier": "Agent Immobilier",
195
+ "profile_investisseur": "Investisseur Immobilier",
196
+ "profile_expert_data": "Expert en Science des Données",
197
+ "profile_autre": "Autre",
198
+ "profile_saved_success": "Profil sauvegardé avec succès !",
199
+ "new_discussion_button": "Nouvelle Discussion",
200
+ "current_discussion_label": "Discussion actuelle : {discussion_name}",
201
+ "load_discussion_button": "Charger {discussion_name}",
202
+ "delete_discussion_button": "Supprimer",
203
+ "discussion_deleted_success": "Discussion '{discussion_name}' supprimée avec succès.",
204
+ "discussion_created_success": "Nouvelle discussion '{discussion_name}' créée !",
205
+ "enter_discussion_name": "Veuillez nommer votre nouvelle discussion :",
206
+ "discussion_name_exists": "Une discussion avec ce nom existe déjà. Veuillez en choisir un autre.",
207
+ "no_discussions_saved": "Aucune discussion sauvegardée pour cet utilisateur.",
208
+ "select_discussion_to_load": "Sélectionnez une discussion à charger",
209
+ "auto_generated_visualizations_title": "Visualisations Automatiques des Données",
210
+ "scatter_surface_price": "Prix vs Surface ($m^2$)",
211
+ "scatter_generic": "Nuage de points : {col1} vs {col2}",
212
+ "box_price_by_location": "Distribution des Prix par Localisation",
213
+ "box_generic": "Distribution de {num_col} par {cat_col}",
214
+ "sunburst_hierarchical": "Répartition Hiérarchique des Catégories",
215
+ "pie_chart_of": "Diagramme Circulaire de {col}",
216
+ "main_section_import_button": "Importer un fichier pour l'analyse",
217
+ "import_file_types_info": "Formats supportés : CSV, TXT, JSON, XLSX, XLS, Parquet, ORC, Feather, Stata, SAS."
218
+ }
219
+
220
+ # Mettre à jour la structure des traductions de base avec la gestion des utilisateurs
221
+ # Cette ligne doit être exécutée APRÈS la définition des fonctions de gestion des utilisateurs
222
+ fr_translations_base['users'] = load_users()
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/translations_data_processing.py ADDED
@@ -0,0 +1,73 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # translations_data_processing.py - Contient les traductions pour le diagnostic et la préparation des données
2
+
3
+ # Dictionnaire pour la langue française
4
+ fr_translations_data_processing = {
5
+ "overview_data": "Aperçu des Données",
6
+ "num_rows": "Nombre de lignes : {rows}",
7
+ "num_cols": "Nombre de colonnes : {cols}",
8
+ "descriptive_stats": "Statistiques Descriptives",
9
+ "missing_values": "Valeurs Manquantes",
10
+ "no_missing_values": "Aucune valeur manquante détectée dans le jeu de données.",
11
+ "dataframe_sample": "Échantillon du DataFrame",
12
+ "visualizations_generated_success": "Visualisations générées avec succès !",
13
+ "dist_num_cols": "Distributions des principales colonnes numériques",
14
+ "dist_of": "Distribution de",
15
+ "frequency": "Fréquence",
16
+ "freq_cat_cols": "Fréquences des principales colonnes catégorielles",
17
+ "freq_of": "Fréquence de",
18
+ "count": "Compte",
19
+ "correlation_matrix": "Matrice de Corrélation",
20
+ "correlation_matrix_title": "Matrice de Corrélation des Caractéristiques Numériques",
21
+ "correlation_matrix_caption": "Heatmap de la matrice de corrélation",
22
+
23
+ "data_prep_intro": "Utilisez ce module pour nettoyer, transformer et préparer vos données pour l'analyse IA. Les options incluent le traitement des valeurs manquantes et aberrantes, la mise à l'échelle des caractéristiques et la création de nouvelles fonctionnalités.",
24
+
25
+ # Nouvelles clés pour la préparation des données
26
+ "missing_values_imputation_title": "Traitement des Valeurs Manquantes",
27
+ "select_imputation_method": "Sélectionnez la méthode d'imputation",
28
+ "apply_imputation_button": "Appliquer l'Imputation",
29
+ "imputation_applied": "Imputation par '{method}' appliquée avec succès.",
30
+ "feature_scaling_title": "Mise à l'Échelle des Caractéristiques",
31
+ "select_scaling_method": "Sélectionnez la méthode de mise à l'échelle",
32
+ "apply_scaling_button": "Appliquer la Mise à l'Échelle",
33
+ "scaling_applied": "Mise à l'échelle par '{method}' appliquée avec succès.",
34
+ "feature_engineering_title": "Ingénierie des Caractéristiques",
35
+ "create_polynomial_features": "Créer des Caractéristiques Polynômiales",
36
+ "select_poly_degree": "Sélectionnez le degré pour les caractéristiques polynômiales.",
37
+ "create_interaction_term": "Créer un Terme d'Interaction",
38
+ "select_interaction_cols": "Sélectionnez deux colonnes pour le terme d'interaction",
39
+ "create_interaction_button": "Créer le terme d'interaction",
40
+ "interaction_term_created": "Terme d'interaction '{new_name}' créé à partir de '{col1}' et '{col2}'.",
41
+ "extract_datetime_features": "Extraire les Caractéristiques de Date/Heure",
42
+ "select_datetime_col": "Sélectionnez une colonne de date/heure",
43
+ "select_datetime_features": "Sélectionnez les caractéristiques à extraire",
44
+ "extract_features": "Extraire les caractéristiques",
45
+ "datetime_features_extracted": "Caractéristiques de date/heure '{features}' extraites de la colonne '{col}'.",
46
+ "select_datetime_col_and_features": "Veuillez sélectionner une colonne de date/heure et au moins une caractéristique à extraire.",
47
+ "apply_aggregation": "Appliquer l'Agrégation",
48
+ "select_groupby_col": "Sélectionnez la colonne de groupement",
49
+ "select_target_col_agg": "Sélectionnez la colonne cible pour l'agrégation",
50
+ "select_agg_method": "Sélectionnez la (les) méthode(s) d'agrégation",
51
+ "apply_aggregation_button": "Appliquer l'agrégation",
52
+ "aggregation_applied": "Agrégation '{method}' appliquée à la colonne '{target}' groupée par '{group}'.",
53
+
54
+ # Nouvelles clés pour les visualisations
55
+ "no_numeric_columns": "Aucune colonne numérique n'a été trouvée pour les distributions.",
56
+ "no_categorical_columns": "Aucune colonne catégorielle n'a été trouvée pour les fréquences.",
57
+ "not_enough_numeric_for_corr": "Pas assez de colonnes numériques pour une matrice de corrélation.",
58
+ "word_cloud_title": "Nuage de Mots",
59
+ "word_cloud_info": "Génère un nuage de mots à partir d'une colonne de texte pour visualiser les termes les plus fréquents.",
60
+ "select_text_column": "Sélectionnez une colonne de texte",
61
+ "no_text_data_for_wordcloud": "La colonne sélectionnée ne contient pas de données textuelles à analyser pour le nuage de mots.",
62
+ "no_text_columns": "Aucune colonne de type texte n'a été trouvée.",
63
+ "generate_visualizations_button": "Générer les Visualisations",
64
+
65
+ # Nouvelles clés pour les modèles avancés
66
+ "outlier_detection_title": "Détection des Valeurs Aberrantes",
67
+ "detect_outliers_button": "Détecter les Valeurs Aberrantes",
68
+ "outliers_detected": "Valeurs aberrantes détectées. Une nouvelle colonne 'outlier_score' a été ajoutée. -1 pour les outliers, 1 pour les autres.",
69
+ "clustering_title": "Clustering des Données",
70
+ "select_num_clusters": "Sélectionnez le nombre de clusters",
71
+ "apply_clustering_button": "Appliquer le Clustering",
72
+ "clustering_applied": "Clustering K-Means avec {n_clusters} clusters appliqué avec succès. Une nouvelle colonne 'cluster' a été ajoutée."
73
+ }
a6ea61c8-951a-413a-ba9d-7365d83fbd4d/gitforge-x/translations_report_content.py ADDED
@@ -0,0 +1,85 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # translations_report_content.py - Contient les traductions pour le contenu des sections de rapport spécifiques
2
+
3
+ # Dictionnaire pour la langue française
4
+ fr_translations_report_content = {
5
+ # Nouvelles clés pour les sections du rapport et annexes
6
+ "report_cover_page_title": "Page de Garde",
7
+ "about_this_report_title": "À Propos de ce Rapport",
8
+ "about_this_report_content": """
9
+ Ce rapport a été généré automatiquement par ErnestMind V80, une plateforme d'analyse immobilière basée sur l'IA. Il vise à fournir une compréhension approfondie des données immobilières fournies, à identifier les tendances clés, à évaluer la performance des modèles prédictifs et à proposer des recommandations stratégiques actionnables.
10
+
11
+ Le contenu de ce rapport est structuré en plusieurs sections clés, chacune conçue pour éclairer différents aspects de votre analyse immobilière.
12
+ """,
13
+ "data_info_section": "Informations Générales sur les Données",
14
+ "data_info_intro": "Cette section présente un aperçu général et des statistiques descriptives du jeu de données analysé.",
15
+ "report_data_quality_title": "Qualité des Données et Traitement",
16
+ "data_quality_intro": "Une analyse de la qualité des données a été effectuée, incluant la détection et la gestion des valeurs manquantes et des valeurs aberrantes.",
17
+ "report_kpis_infographic_title": "Indicateurs Clés de Performance (KPIs)",
18
+ "kpis_intro": "Cette section présente les principaux indicateurs de performance du modèle prédictif.",
19
+ "report_ai_observations_title": "Observations Stratégiques",
20
+ "report_ai_recommendations_title": "Recommandations d'Actions IA",
21
+ "report_methodology_annex_title": "Annexe - Méthodologie",
22
+ "methodology_intro": "Ce rapport a été généré en utilisant la méthodologie suivante pour l'analyse des données et la création de modèles IA :",
23
+ "methodology_data_prep": "- **Préparation des Données :** Nettoyage, gestion des valeurs manquantes, encodage des variables catégorielles et standardisation des caractéristiques numériques.",
24
+ "methodology_model_training": "- **Entraînement du Modèle :** Un modèle LightGBM a été entraîné pour la prédiction sur un sous-ensemble des données (80% pour l'entraînement, 20% pour les tests).",
25
+ "methodology_shap_explanation": "- **Explicabilité du Modèle (SHAP) :** Les valeurs SHAP ont été calculées pour expliquer l'impact de chaque caractéristique sur les prédictions du modèle.",
26
+ "methodology_report_generation": "- **Génération de Rapport :** Le rapport a été généré automatiquement, incluant des observations et des recommandations basées sur les insights du modèle IA.",
27
+ "methodology_data_confidentiality": "- **Confidentialité des Données :** Toutes les analyses sont effectuées localement sur votre machine. Aucune de vos données n'est transmise ou stockée sur des serveurs externes.",
28
+ "report_glossary_annex_title": "Annexe - Glossaire",
29
+ "glossary_full_text": """
30
+ **KPI (Key Performance Indicator) :** Indicateur clé de performance.
31
+ **RMSE (Root Mean Squared Error) :** Erreur quadratique moyenne. Mesure la différence entre les valeurs prédites et les valeurs réelles.
32
+ **R² Score (Coefficient de Détermination) :** Mesure la proportion de la variance de la variable dépendante qui est prévisible à partir de la ou des variables indépendantes.
33
+ **SHAP (SHapley Additive exPlanations) :** Une méthode d'explicabilité de l'IA qui permet d'expliquer comment les caractéristiques d'un modèle influencent les prédictions.
34
+ **LightGBM :** Un algorithme d'apprentissage automatique de type gradient boosting. Très performant et rapide.
35
+ **Valeurs Manquantes :** Données non disponibles dans le jeu de données.
36
+ **Valeurs Aberrantes (Outliers) :** Observations qui s'écartent significativement des autres observations.
37
+ **Clustering :** Technique non supervisée qui regroupe des points de données similaires.
38
+ """,
39
+ "report_about_app_annex_title": "Annexe - À Propos d'ErnestMind V80",
40
+ "about_app_content": """
41
+ ErnestMind V80 est une plateforme d'analyse de données en mode local, conçue pour les professionnels de l'immobilier. Elle combine l'autonomie des logiciels de bureau avec la puissance de l'IA pour offrir une expérience d'analyse unique.
42
+
43
+ **Nos Atouts :**
44
+ * **Autonomie :** Traitez vos données directement sur votre machine, sans besoin de les télécharger sur des serveurs externes.
45
+ * **Puissance :** Bénéficiez d'algorithmes d'IA avancés pour l'analyse prédictive, l'explicabilité et la génération d'insights.
46
+ * **Simplicité :** Une interface utilisateur conçue pour être intuitive, rendant l'analyse complexe accessible à tous.
47
+ * **Personnalisation :** Adaptez les rapports et les analyses à vos besoins spécifiques.
48
+ * **Multilinguisme :** Travaillez dans la langue de votre choix pour une expérience utilisateur optimale.
49
+
50
+ **Notre Engagement :**
51
+ * **Confidentialité :** La sécurité de vos données est notre priorité absolue. Nous n'accédons ni ne stockons vos informations.
52
+ * **Innovation :** Nous nous engageons à améliorer constamment ErnestMind V80 avec les dernières avancées en IA et en science des données.
53
+ * **Support :** Notre équipe est là pour vous aider et répondre à vos questions.
54
+
55
+ Rejoignez la communauté ErnestMind.ai et transformez la façon dont vous interagissez avec vos données !
56
+ """,
57
+ # Observations et recommandations du modèle (exemples)
58
+ "observation_median_price_per_sqm": "Le prix médian par mètre carré est de {price:.2f} €, ce qui est un indicateur clé de la valeur immobilière dans cette région.",
59
+ "recommendation_price_analysis": "Analysez plus en profondeur les facteurs qui influencent le prix par mètre carré pour identifier les opportunités d'investissement.",
60
+ "no_kpis_available": "Aucun KPI n'est disponible car le modèle n'a pas été entraîné ou les données de test sont insuffisantes.",
61
+
62
+ # Database specific translations
63
+ "database_section": "Base de Données",
64
+ "database_intro": "Gérez et analysez vos fichiers de données de manière sécurisée et locale. Importez jusqu'à 10 fichiers à la fois pour les stocker ou lancer une analyse avancée sur un seul fichier.",
65
+ "login_to_database": "Connectez-vous pour accéder à la base de données",
66
+ "open_database_button": "Ouvrir la Base de Données",
67
+ "import_files_to_db_title": "Importer des Fichiers dans la Base de Données",
68
+ "upload_db_files_label": "Téléchargez un ou plusieurs fichiers (max. 10)",
69
+ "file_storage_option": "Stocker le(s) fichier(s) dans la base de données",
70
+ "advanced_analysis_option": "Lancer une analyse avancée sur un seul fichier",
71
+ "select_file_for_analysis": "Sélectionnez un fichier pour l'analyse avancée",
72
+ "analyze_selected_file_button": "Analyser le Fichier Sélectionné",
73
+ "file_saved_to_db": "Fichier '{filename}' sauvegardé dans la base de données.",
74
+ "files_saved_to_db": "{count} fichiers sauvegardés dans la base de données.",
75
+ "analysis_triggered_for_file": "Analyse avancée déclenchée pour le fichier '{filename}'.",
76
+ "please_select_one_file_for_analysis": "Veuillez sélectionner un seul fichier pour l'analyse avancée.",
77
+ "no_files_uploaded_for_db": "Veuillez télécharger au moins un fichier.",
78
+ "stored_files_title": "Fichiers Stockés",
79
+ "no_stored_files": "Aucun fichier stocké dans votre base de données.",
80
+ "select_stored_file_for_analysis": "Sélectionnez un fichier stocké pour lancer une analyse",
81
+ "view_file_content_button": "Voir le Contenu du Fichier",
82
+ "delete_file_button": "Supprimer le Fichier",
83
+ "file_deleted_success": "Fichier '{filename}' supprimé avec succès de la base de données.",
84
+ "enter_password_strong_requirements": "Le mot de passe doit contenir entre 8 et 15 caractères, incluant des chiffres, des lettres et des caractères spéciaux."
85
+ }