Spaces:
Sleeping
Sleeping
Upload game_engine.py
Browse files- game_engine.py +14 -16
game_engine.py
CHANGED
|
@@ -82,8 +82,8 @@ except ImportError as e:
|
|
| 82 |
DATASET_AVAILABLE = False
|
| 83 |
print(f"⚠️ Modules dataset non disponibles: {e}")
|
| 84 |
|
| 85 |
-
# Nom du nouveau
|
| 86 |
-
DATASET_NAME = "hoololi/
|
| 87 |
|
| 88 |
# Configuration des difficultés par opération
|
| 89 |
DIFFICULTY_RANGES = {
|
|
@@ -648,8 +648,11 @@ class MathGame:
|
|
| 648 |
)
|
| 649 |
|
| 650 |
|
| 651 |
-
def export_to_clean_dataset(session_data: list[dict], dataset_name: str =
|
| 652 |
"""Export vers le nouveau dataset calcul_ocr_dataset"""
|
|
|
|
|
|
|
|
|
|
| 653 |
if not DATASET_AVAILABLE:
|
| 654 |
return "❌ Modules dataset non disponibles"
|
| 655 |
|
|
@@ -682,23 +685,18 @@ def export_to_clean_dataset(session_data: list[dict], dataset_name: str = DATASE
|
|
| 682 |
print(f"🔍 Entry avec OCR: ocr_model={entry_with_ocr['ocr_model']}, ocr_device={entry_with_ocr['ocr_device']}")
|
| 683 |
clean_entries.append(entry_with_ocr)
|
| 684 |
|
| 685 |
-
|
| 686 |
-
|
| 687 |
if len(clean_entries) == 0:
|
| 688 |
return "❌ Aucune entrée avec image à exporter"
|
| 689 |
|
| 690 |
-
#
|
| 691 |
-
|
| 692 |
-
|
| 693 |
-
|
| 694 |
-
print(f"📊 {len(existing_data)} entrées existantes")
|
| 695 |
-
except:
|
| 696 |
-
existing_data = []
|
| 697 |
-
print("📊 Création nouveau dataset calcul_ocr")
|
| 698 |
|
| 699 |
-
#
|
| 700 |
-
|
| 701 |
-
clean_dataset = Dataset.from_list(
|
| 702 |
|
| 703 |
print(f"✅ Dataset créé - Features:")
|
| 704 |
for feature_name in clean_dataset.features:
|
|
|
|
| 82 |
DATASET_AVAILABLE = False
|
| 83 |
print(f"⚠️ Modules dataset non disponibles: {e}")
|
| 84 |
|
| 85 |
+
# Nom du dataset complètement nouveau
|
| 86 |
+
DATASET_NAME = "hoololi/math_ocr_handwriting"
|
| 87 |
|
| 88 |
# Configuration des difficultés par opération
|
| 89 |
DIFFICULTY_RANGES = {
|
|
|
|
| 648 |
)
|
| 649 |
|
| 650 |
|
| 651 |
+
def export_to_clean_dataset(session_data: list[dict], dataset_name: str = None) -> str:
|
| 652 |
"""Export vers le nouveau dataset calcul_ocr_dataset"""
|
| 653 |
+
if dataset_name is None:
|
| 654 |
+
dataset_name = DATASET_NAME # Utiliser la variable globale
|
| 655 |
+
|
| 656 |
if not DATASET_AVAILABLE:
|
| 657 |
return "❌ Modules dataset non disponibles"
|
| 658 |
|
|
|
|
| 685 |
print(f"🔍 Entry avec OCR: ocr_model={entry_with_ocr['ocr_model']}, ocr_device={entry_with_ocr['ocr_device']}")
|
| 686 |
clean_entries.append(entry_with_ocr)
|
| 687 |
|
| 688 |
+
# Créer un dataset de test avec structure forcée
|
|
|
|
| 689 |
if len(clean_entries) == 0:
|
| 690 |
return "❌ Aucune entrée avec image à exporter"
|
| 691 |
|
| 692 |
+
# Vérifier la structure de la première entrée
|
| 693 |
+
sample_entry = clean_entries[0]
|
| 694 |
+
print(f"🔍 Structure première entrée: {list(sample_entry.keys())}")
|
| 695 |
+
print(f"🔍 OCR dans entrée: ocr_model={sample_entry.get('ocr_model', 'MISSING')}, ocr_device={sample_entry.get('ocr_device', 'MISSING')}")
|
|
|
|
|
|
|
|
|
|
|
|
|
| 696 |
|
| 697 |
+
# Forcer la création d'un nouveau dataset (sans charger l'existant)
|
| 698 |
+
print("📊 Création dataset avec structure forcée OCR")
|
| 699 |
+
clean_dataset = Dataset.from_list(clean_entries)
|
| 700 |
|
| 701 |
print(f"✅ Dataset créé - Features:")
|
| 702 |
for feature_name in clean_dataset.features:
|