Spaces:
Sleeping
Sleeping
File size: 983 Bytes
e678a21 07a759a e678a21 a41fc66 e678a21 e2f8b9a e678a21 b607671 07a759a a41fc66 e2f8b9a |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 |
---
title: IPLM Chatbot (Local RAG)
emoji: π
colorFrom: indigo
colorTo: blue
sdk: gradio
sdk_version: "4.44.1"
app_file: app.py
pinned: false
---
Chatbot **RAG** dari file **JSONL (question, answer)**.
Mode **Deterministic QA** (ambil jawaban persis jika skor tinggi), dan **Local LLM** (CPU) untuk merangkum jika skor rendah.
Chatbot **RAG** dengan **model lokal** (TinyLlama-1.1B-Chat) β tidak memakai Inference API, jadi tidak butuh token.
# IPLM Chatbot β RAG + LLM (JSONL)
Chatbot **Retrieval-Augmented Generation** yang menjawab berdasarkan **JSONL Q&A** dan merespons dengan **LLM** via Hugging Face Inference API.
## Cara pakai
1. Pastikan file di root: `app.py`, `requirements.txt`, `README.md`, `IPLM_QnA_Chatbot.jsonl`.
2. Settings β **Secrets**:
- `HF_TOKEN` = token Hugging Face kamu (wajib).
- (opsional) `LLM_MODEL`, `EMB_MODEL`, `HF_CHAT_URL`.
3. **Restart this Space**.
> Default `LLM_MODEL`: `Qwen/Qwen2.5-7B-Instruct` (publik, non-gated).
|