# Ollama Server Example 🦙 Prosty serwer Ollama na Hugging Face Spaces z interfejsem Gradio. ## Funkcje ✅ **Uruchamianie modeli** – Interakcja z modelami Ollama ✅ **Pobieranie modeli** – Pobieranie nowych modeli z Ollama ✅ **Lista modeli** – Przeglądanie zainstalowanych modeli ✅ **Informacje o modelu** – Szczegółowe informacje o wybranym modelu ## Użycie 1. **Uruchom model** – Wprowadź nazwę modelu (np. `llama3`) i prompt 2. **Pobierz model** – Wprowadź nazwę modelu do pobrania (np. `llama3`, `mistral`) 3. **Lista modeli** – Kliknij "Odśwież Listę Modeli", aby zobaczyć dostępne modele 4. **Informacje o modelu** – Wprowadź nazwę modelu, aby uzyskać szczegółowe informacje ## Wymagania - Ollama musi być zainstalowany i uruchomiony na instancji Space - Zobacz: https://ollama.ai/ ## Jak to działa? Ta aplikacja używa [Ollama](https://ollama.ai/) – narzędzia do uruchamiania dużych modeli językowych lokalnie. Aplikacja Gradio zapewnia prosty interfejs webowy do interakcji z modelami. ## Uruchomienie lokalne ```bash # Zainstaluj wymagania pip install -r requirements.txt # Uruchom aplikację python app.py ``` ## Linki - [Ollama](https://ollama.ai/) - [Hugging Face Spaces](https://huggingface.co/spaces) - [Gradio](https://gradio.app/)