File size: 3,726 Bytes
55d370c
588e8aa
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
55d370c
588e8aa
55d370c
588e8aa
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
55d370c
588e8aa
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
import gradio as gr

def generate_description(prompt, max_tokens=200, temperature=0.7):
    """
    Fonction temporaire en attendant que DeepSeek V3.2 soit supporté
    """
    
    # Message d'information
    info_message = f"""
⚠️ **Modèle en attente de support**

Le modèle **witflag/HelixaV2** utilise l'architecture DeepSeek V3.2 qui n'est pas encore supportée par HuggingFace Spaces.

📝 **Votre requête :**
```
{prompt}
```

💡 **Solutions alternatives :**

1. **Utiliser l'API localement** (Google Colab, Kaggle)
2. **Créer un Inference Endpoint** (payant mais fonctionne)
3. **Attendre le support officiel** de DeepSeek V3.2 (~quelques semaines)

🔗 **Modèle :** [witflag/HelixaV2](https://huggingface.co/witflag/HelixaV2)

---

**Exemple de sortie attendue :**
```arabic
هاتف سامسونج جالاكسي اس 24 الترا يأتي بمعالج سنابدراجون 8 جين 3 القوي،
مع كاميرا رئيسية بدقة 200 ميجابكسل وبطارية ضخمة بسعة 5000 مللي أمبير.
يوفر الهاتف أداءً استثنائياً للألعاب والتصوير الاحترافي...
```
    """
    
    return info_message

# Interface Gradio
with gr.Blocks(
    title="HelixaV2 API - En développement",
    theme=gr.themes.Soft()
) as demo:
    
    gr.Markdown("""
    # 📱 HelixaV2 API - Générateur de descriptions smartphones en arabe
    
    ⚠️ **Status :** En attente de support DeepSeek V3.2 par HuggingFace
    
    Ce Space est en cours de développement. Le modèle sera disponible dès que l'architecture DeepSeek V3.2 sera supportée.
    """)
    
    with gr.Row():
        with gr.Column():
            input_text = gr.Textbox(
                label="📝 Fiche technique (specs)",
                placeholder="Ex: Samsung Galaxy S24 Ultra, Snapdragon 8 Gen 3, 200MP camera, 5000mAh",
                lines=3
            )
            
            with gr.Row():
                max_tokens = gr.Slider(
                    minimum=50,
                    maximum=500,
                    value=200,
                    step=10,
                    label="🔢 Longueur maximale"
                )
                
                temperature = gr.Slider(
                    minimum=0.1,
                    maximum=1.5,
                    value=0.7,
                    step=0.1,
                    label="🌡️ Température"
                )
            
            generate_btn = gr.Button("📋 Voir les infos", variant="primary")
        
        with gr.Column():
            output_text = gr.Textbox(
                label="ℹ️ Informations",
                lines=15
            )
    
    # Exemples
    gr.Examples(
        examples=[
            ["Samsung Galaxy S24 Ultra, Snapdragon 8 Gen 3, 200MP camera, 5000mAh"],
            ["iPhone 15 Pro Max, A17 Pro chip, 48MP camera, 4422mAh battery"],
            ["OnePlus 12, Snapdragon 8 Gen 3, 50MP camera, 5400mAh"]
        ],
        inputs=input_text
    )
    
    gr.Markdown("""
    ---
    
    ### 🔗 Ressources
    
    - **Modèle :** [witflag/HelixaV2](https://huggingface.co/witflag/HelixaV2)
    - **Architecture :** DeepSeek V3.2
    - **Contact :** [@witflag](https://huggingface.co/witflag)
    
    ### 📊 Alternatives disponibles maintenant
    
    1. **Utiliser sur Google Colab** : [Guide d'installation]
    2. **API Inference Endpoint** : Configuration payante mais fonctionnelle
    3. **Modèles alternatifs** : AraGPT2, Gemma-2-Arabic, etc.
    """)
    
    # Événement
    generate_btn.click(
        fn=generate_description,
        inputs=[input_text, max_tokens, temperature],
        outputs=output_text
    )

demo.launch()