#!/bin/bash echo "🚀 Démarrage de l'application sur Hugging Face Spaces..." # Démarrer Ollama en arrière-plan echo "🔧 Démarrage du serveur Ollama..." ollama serve & # Attendre que le serveur soit prêt echo "⏳ Attente du démarrage du serveur..." sleep 20 # Vérifier si Ollama répond if curl -s http://localhost:11434/api/tags > /dev/null 2>&1; then echo "✅ Ollama est en cours d'exécution" else echo "❌ Ollama ne répond pas, redémarrage..." pkill ollama sleep 5 ollama serve & sleep 20 fi # Télécharger le modèle DeepSeek-Coder echo "📥 Téléchargement du modèle DeepSeek-Coder 1.3B..." echo "⚠️ Cela peut prendre plusieurs minutes (1.4GB)..." ollama pull deepseek-coder:1.3b # Créer un Modelfile personnalisé echo "⚙️ Configuration du modèle..." cat > /home/user/Modelfile << 'EOF' FROM deepseek-coder:1.3b # Paramètres optimisés pour le code PARAMETER temperature 0.2 PARAMETER top_p 0.95 PARAMETER top_k 40 PARAMETER num_predict 1024 PARAMETER repeat_penalty 1.1 EOF # Créer le modèle personnalisé ollama create deepseek-coder-custom -f /home/user/Modelfile # Lancer l'application Gradio echo "🌐 Démarrage de l'interface web..." python app.py