Spaces:
Configuration error
Configuration error
| # Ollama Server Example 🦙 | |
| Prosty serwer Ollama na Hugging Face Spaces z interfejsem Gradio. | |
| ## Funkcje | |
| ✅ **Uruchamianie modeli** – Interakcja z modelami Ollama | |
| ✅ **Pobieranie modeli** – Pobieranie nowych modeli z Ollama | |
| ✅ **Lista modeli** – Przeglądanie zainstalowanych modeli | |
| ✅ **Informacje o modelu** – Szczegółowe informacje o wybranym modelu | |
| ## Użycie | |
| 1. **Uruchom model** – Wprowadź nazwę modelu (np. `llama3`) i prompt | |
| 2. **Pobierz model** – Wprowadź nazwę modelu do pobrania (np. `llama3`, `mistral`) | |
| 3. **Lista modeli** – Kliknij "Odśwież Listę Modeli", aby zobaczyć dostępne modele | |
| 4. **Informacje o modelu** – Wprowadź nazwę modelu, aby uzyskać szczegółowe informacje | |
| ## Wymagania | |
| - Ollama musi być zainstalowany i uruchomiony na instancji Space | |
| - Zobacz: https://ollama.ai/ | |
| ## Jak to działa? | |
| Ta aplikacja używa [Ollama](https://ollama.ai/) – narzędzia do uruchamiania dużych modeli językowych lokalnie. Aplikacja Gradio zapewnia prosty interfejs webowy do interakcji z modelami. | |
| ## Uruchomienie lokalne | |
| ```bash | |
| # Zainstaluj wymagania | |
| pip install -r requirements.txt | |
| # Uruchom aplikację | |
| python app.py | |
| ``` | |
| ## Linki | |
| - [Ollama](https://ollama.ai/) | |
| - [Hugging Face Spaces](https://huggingface.co/spaces) | |
| - [Gradio](https://gradio.app/) |