| #pip install -U "huggingface_hub[cli]" | |
| # Démarrez le service Ollama en arrière-plan | |
| ollama serve & | |
| # Attendez que le service soit prêt | |
| sleep 10 | |
| # Exécutez la commande pull | |
| ollama pull llama3:8b-instruct-q8_0 | |
| # Gardez le conteneur en cours d'exécution | |
| tail -f /dev/null |