allma / start.sh
pakito312
update
e4972c4
#!/bin/bash
echo "🚀 Démarrage de l'application sur Hugging Face Spaces..."
# Démarrer Ollama en arrière-plan
echo "🔧 Démarrage du serveur Ollama..."
ollama serve &
# Attendre que le serveur soit prêt
echo "⏳ Attente du démarrage du serveur..."
sleep 20
# Vérifier si Ollama répond
if curl -s http://localhost:11434/api/tags > /dev/null 2>&1; then
echo "✅ Ollama est en cours d'exécution"
else
echo "❌ Ollama ne répond pas, redémarrage..."
pkill ollama
sleep 5
ollama serve &
sleep 20
fi
# Télécharger le modèle DeepSeek-Coder
echo "📥 Téléchargement du modèle DeepSeek-Coder 1.3B..."
echo "⚠️ Cela peut prendre plusieurs minutes (1.4GB)..."
ollama pull deepseek-coder:1.3b
# Créer un Modelfile personnalisé
echo "⚙️ Configuration du modèle..."
cat > /home/user/Modelfile << 'EOF'
FROM deepseek-coder:1.3b
# Paramètres optimisés pour le code
PARAMETER temperature 0.2
PARAMETER top_p 0.95
PARAMETER top_k 40
PARAMETER num_predict 1024
PARAMETER repeat_penalty 1.1
EOF
# Créer le modèle personnalisé
ollama create deepseek-coder-custom -f /home/user/Modelfile
# Lancer l'application Gradio
echo "🌐 Démarrage de l'interface web..."
python app.py