Spaces:
Sleeping
Sleeping
| title: IPLM Chatbot (Local RAG) | |
| emoji: π | |
| colorFrom: indigo | |
| colorTo: blue | |
| sdk: gradio | |
| sdk_version: "4.44.1" | |
| app_file: app.py | |
| pinned: false | |
| Chatbot **RAG** dari file **JSONL (question, answer)**. | |
| Mode **Deterministic QA** (ambil jawaban persis jika skor tinggi), dan **Local LLM** (CPU) untuk merangkum jika skor rendah. | |
| Chatbot **RAG** dengan **model lokal** (TinyLlama-1.1B-Chat) β tidak memakai Inference API, jadi tidak butuh token. | |
| # IPLM Chatbot β RAG + LLM (JSONL) | |
| Chatbot **Retrieval-Augmented Generation** yang menjawab berdasarkan **JSONL Q&A** dan merespons dengan **LLM** via Hugging Face Inference API. | |
| ## Cara pakai | |
| 1. Pastikan file di root: `app.py`, `requirements.txt`, `README.md`, `IPLM_QnA_Chatbot.jsonl`. | |
| 2. Settings β **Secrets**: | |
| - `HF_TOKEN` = token Hugging Face kamu (wajib). | |
| - (opsional) `LLM_MODEL`, `EMB_MODEL`, `HF_CHAT_URL`. | |
| 3. **Restart this Space**. | |
| > Default `LLM_MODEL`: `Qwen/Qwen2.5-7B-Instruct` (publik, non-gated). | |