Spaces:
Sleeping
Sleeping
| echo "🚀 Démarrage de l'application sur Hugging Face Spaces..." | |
| # Démarrer Ollama en arrière-plan | |
| echo "🔧 Démarrage du serveur Ollama..." | |
| ollama serve & | |
| # Attendre que le serveur soit prêt | |
| echo "⏳ Attente du démarrage du serveur..." | |
| sleep 20 | |
| # Vérifier si Ollama répond | |
| if curl -s http://localhost:11434/api/tags > /dev/null 2>&1; then | |
| echo "✅ Ollama est en cours d'exécution" | |
| else | |
| echo "❌ Ollama ne répond pas, redémarrage..." | |
| pkill ollama | |
| sleep 5 | |
| ollama serve & | |
| sleep 20 | |
| fi | |
| # Télécharger le modèle DeepSeek-Coder | |
| echo "📥 Téléchargement du modèle DeepSeek-Coder 1.3B..." | |
| echo "⚠️ Cela peut prendre plusieurs minutes (1.4GB)..." | |
| ollama pull deepseek-coder:1.3b | |
| # Créer un Modelfile personnalisé | |
| echo "⚙️ Configuration du modèle..." | |
| cat > /home/user/Modelfile << 'EOF' | |
| FROM deepseek-coder:1.3b | |
| # Paramètres optimisés pour le code | |
| PARAMETER temperature 0.2 | |
| PARAMETER top_p 0.95 | |
| PARAMETER top_k 40 | |
| PARAMETER num_predict 1024 | |
| PARAMETER repeat_penalty 1.1 | |
| EOF | |
| # Créer le modèle personnalisé | |
| ollama create deepseek-coder-custom -f /home/user/Modelfile | |
| # Lancer l'application Gradio | |
| echo "🌐 Démarrage de l'interface web..." | |
| python app.py |