AI Agent
Initial commit: Ollama server with Gradio interface
240219c

Ollama Server Example 🦙

Prosty serwer Ollama na Hugging Face Spaces z interfejsem Gradio.

Funkcje

Uruchamianie modeli – Interakcja z modelami Ollama ✅ Pobieranie modeli – Pobieranie nowych modeli z Ollama ✅ Lista modeli – Przeglądanie zainstalowanych modeli ✅ Informacje o modelu – Szczegółowe informacje o wybranym modelu

Użycie

  1. Uruchom model – Wprowadź nazwę modelu (np. llama3) i prompt
  2. Pobierz model – Wprowadź nazwę modelu do pobrania (np. llama3, mistral)
  3. Lista modeli – Kliknij "Odśwież Listę Modeli", aby zobaczyć dostępne modele
  4. Informacje o modelu – Wprowadź nazwę modelu, aby uzyskać szczegółowe informacje

Wymagania

  • Ollama musi być zainstalowany i uruchomiony na instancji Space
  • Zobacz: https://ollama.ai/

Jak to działa?

Ta aplikacja używa Ollama – narzędzia do uruchamiania dużych modeli językowych lokalnie. Aplikacja Gradio zapewnia prosty interfejs webowy do interakcji z modelami.

Uruchomienie lokalne

# Zainstaluj wymagania
pip install -r requirements.txt

# Uruchom aplikację
python app.py

Linki