AI Agent
Initial commit: Ollama server with Gradio interface
240219c
# Ollama Server Example 🦙
Prosty serwer Ollama na Hugging Face Spaces z interfejsem Gradio.
## Funkcje
**Uruchamianie modeli** – Interakcja z modelami Ollama
**Pobieranie modeli** – Pobieranie nowych modeli z Ollama
**Lista modeli** – Przeglądanie zainstalowanych modeli
**Informacje o modelu** – Szczegółowe informacje o wybranym modelu
## Użycie
1. **Uruchom model** – Wprowadź nazwę modelu (np. `llama3`) i prompt
2. **Pobierz model** – Wprowadź nazwę modelu do pobrania (np. `llama3`, `mistral`)
3. **Lista modeli** – Kliknij "Odśwież Listę Modeli", aby zobaczyć dostępne modele
4. **Informacje o modelu** – Wprowadź nazwę modelu, aby uzyskać szczegółowe informacje
## Wymagania
- Ollama musi być zainstalowany i uruchomiony na instancji Space
- Zobacz: https://ollama.ai/
## Jak to działa?
Ta aplikacja używa [Ollama](https://ollama.ai/) – narzędzia do uruchamiania dużych modeli językowych lokalnie. Aplikacja Gradio zapewnia prosty interfejs webowy do interakcji z modelami.
## Uruchomienie lokalne
```bash
# Zainstaluj wymagania
pip install -r requirements.txt
# Uruchom aplikację
python app.py
```
## Linki
- [Ollama](https://ollama.ai/)
- [Hugging Face Spaces](https://huggingface.co/spaces)
- [Gradio](https://gradio.app/)