File size: 1,311 Bytes
240219c
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
# Ollama Server Example 🦙

Prosty serwer Ollama na Hugging Face Spaces z interfejsem Gradio.

## Funkcje**Uruchamianie modeli** – Interakcja z modelami Ollama
✅ **Pobieranie modeli** – Pobieranie nowych modeli z Ollama
✅ **Lista modeli** – Przeglądanie zainstalowanych modeli
✅ **Informacje o modelu** – Szczegółowe informacje o wybranym modelu

## Użycie

1. **Uruchom model** – Wprowadź nazwę modelu (np. `llama3`) i prompt
2. **Pobierz model** – Wprowadź nazwę modelu do pobrania (np. `llama3`, `mistral`)
3. **Lista modeli** – Kliknij "Odśwież Listę Modeli", aby zobaczyć dostępne modele
4. **Informacje o modelu** – Wprowadź nazwę modelu, aby uzyskać szczegółowe informacje

## Wymagania

- Ollama musi być zainstalowany i uruchomiony na instancji Space
- Zobacz: https://ollama.ai/

## Jak to działa?


Ta aplikacja używa [Ollama](https://ollama.ai/) – narzędzia do uruchamiania dużych modeli językowych lokalnie. Aplikacja Gradio zapewnia prosty interfejs webowy do interakcji z modelami.

## Uruchomienie lokalne


```bash
# Zainstaluj wymagania
pip install -r requirements.txt

# Uruchom aplikację
python app.py
```

## Linki

- [Ollama](https://ollama.ai/)
- [Hugging Face Spaces](https://huggingface.co/spaces)
- [Gradio](https://gradio.app/)