Spaces:
Configuration error
Configuration error
Ollama Server Example 🦙
Prosty serwer Ollama na Hugging Face Spaces z interfejsem Gradio.
Funkcje
✅ Uruchamianie modeli – Interakcja z modelami Ollama ✅ Pobieranie modeli – Pobieranie nowych modeli z Ollama ✅ Lista modeli – Przeglądanie zainstalowanych modeli ✅ Informacje o modelu – Szczegółowe informacje o wybranym modelu
Użycie
- Uruchom model – Wprowadź nazwę modelu (np.
llama3) i prompt - Pobierz model – Wprowadź nazwę modelu do pobrania (np.
llama3,mistral) - Lista modeli – Kliknij "Odśwież Listę Modeli", aby zobaczyć dostępne modele
- Informacje o modelu – Wprowadź nazwę modelu, aby uzyskać szczegółowe informacje
Wymagania
- Ollama musi być zainstalowany i uruchomiony na instancji Space
- Zobacz: https://ollama.ai/
Jak to działa?
Ta aplikacja używa Ollama – narzędzia do uruchamiania dużych modeli językowych lokalnie. Aplikacja Gradio zapewnia prosty interfejs webowy do interakcji z modelami.
Uruchomienie lokalne
# Zainstaluj wymagania
pip install -r requirements.txt
# Uruchom aplikację
python app.py