ollamaapi-lfm / entrypoint.sh
Manus Agent
Optymalizacja dla CPU: usuni臋cie parallel, OpenAI v1 oraz dodanie limit贸w kontekstu (num_ctx: 2048)
5fde9c6
raw
history blame contribute delete
942 Bytes
#!/bin/bash
set -e
# Walidacja wymaganych zmiennych
if [ -z "${MODEL}" ] || [ "${MODEL}" = "!TU MUSISZ EDYTOWAC!" ]; then
echo "BLAD: Zmienna MODEL nie jest ustawiona!"
exit 1
fi
if [ -z "${API_KEY}" ] || [ "${API_KEY}" = "!TU MUSISZ EDYTOWAC!" ]; then
echo "BLAD: Zmienna API_KEY nie jest ustawiona!"
exit 1
fi
export OLLAMA_HOST=127.0.0.1:11434
# Usuni臋to tryb r贸wnoleg艂y (1 = pe艂na moc dla jednej odpowiedzi)
export OLLAMA_NUM_PARALLEL=1
export OLLAMA_MAX_LOADED_MODELS=1
echo "==> Model: ${MODEL}"
echo "==> Starting Ollama..."
ollama serve &
echo "==> Waiting for Ollama..."
for i in $(seq 1 30); do
if curl -sf http://127.0.0.1:11434/api/version > /dev/null 2>&1; then
echo "==> Ollama ready!"
break
fi
sleep 2
done
echo "==> Pulling ${MODEL}..."
ollama pull ${MODEL}
echo "==> Starting proxy on :7860..."
exec uvicorn proxy:app --host 0.0.0.0 --port 7860 --timeout-keep-alive 600