--- title: IPLM Chatbot (Local RAG) emoji: 📚 colorFrom: indigo colorTo: blue sdk: gradio sdk_version: "4.44.1" app_file: app.py pinned: false --- Chatbot **RAG** dari file **JSONL (question, answer)**. Mode **Deterministic QA** (ambil jawaban persis jika skor tinggi), dan **Local LLM** (CPU) untuk merangkum jika skor rendah. Chatbot **RAG** dengan **model lokal** (TinyLlama-1.1B-Chat) — tidak memakai Inference API, jadi tidak butuh token. # IPLM Chatbot — RAG + LLM (JSONL) Chatbot **Retrieval-Augmented Generation** yang menjawab berdasarkan **JSONL Q&A** dan merespons dengan **LLM** via Hugging Face Inference API. ## Cara pakai 1. Pastikan file di root: `app.py`, `requirements.txt`, `README.md`, `IPLM_QnA_Chatbot.jsonl`. 2. Settings → **Secrets**: - `HF_TOKEN` = token Hugging Face kamu (wajib). - (opsional) `LLM_MODEL`, `EMB_MODEL`, `HF_CHAT_URL`. 3. **Restart this Space**. > Default `LLM_MODEL`: `Qwen/Qwen2.5-7B-Instruct` (publik, non-gated).