Spaces:
Configuration error
Configuration error
File size: 1,311 Bytes
240219c | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 | # Ollama Server Example 🦙
Prosty serwer Ollama na Hugging Face Spaces z interfejsem Gradio.
## Funkcje
✅ **Uruchamianie modeli** – Interakcja z modelami Ollama
✅ **Pobieranie modeli** – Pobieranie nowych modeli z Ollama
✅ **Lista modeli** – Przeglądanie zainstalowanych modeli
✅ **Informacje o modelu** – Szczegółowe informacje o wybranym modelu
## Użycie
1. **Uruchom model** – Wprowadź nazwę modelu (np. `llama3`) i prompt
2. **Pobierz model** – Wprowadź nazwę modelu do pobrania (np. `llama3`, `mistral`)
3. **Lista modeli** – Kliknij "Odśwież Listę Modeli", aby zobaczyć dostępne modele
4. **Informacje o modelu** – Wprowadź nazwę modelu, aby uzyskać szczegółowe informacje
## Wymagania
- Ollama musi być zainstalowany i uruchomiony na instancji Space
- Zobacz: https://ollama.ai/
## Jak to działa?
Ta aplikacja używa [Ollama](https://ollama.ai/) – narzędzia do uruchamiania dużych modeli językowych lokalnie. Aplikacja Gradio zapewnia prosty interfejs webowy do interakcji z modelami.
## Uruchomienie lokalne
```bash
# Zainstaluj wymagania
pip install -r requirements.txt
# Uruchom aplikację
python app.py
```
## Linki
- [Ollama](https://ollama.ai/)
- [Hugging Face Spaces](https://huggingface.co/spaces)
- [Gradio](https://gradio.app/) |