Text Generation
GGUF
English
Vietnamese
pytorch_lightning
llm
llama
langchain
ctransformers
python
code
code-assistant
local-inference
multimodal
imatrix
conversational
How to use from
PiConfigure the model in Pi
# Install Pi:
npm install -g @mariozechner/pi-coding-agent# Add to ~/.pi/agent/models.json:
{
"providers": {
"llama-cpp": {
"baseUrl": "http://localhost:8080/v1",
"api": "openai-completions",
"apiKey": "none",
"models": [
{
"id": "NguyenDinhHieu/Cube-Python-1.0"
}
]
}
}
}Run Pi
# Start Pi in your project directory:
piQuick Links
AI Python — Code Assistant (LangChain + CTransformers)
Demo chạy LLM dạng GGUF bằng ctransformers + langchain để trả lời theo prompt: “chỉ trả lời bằng code Python”.
Demo nhanh
- Input: một yêu cầu/bài toán Python (text)
- Output: chỉ code Python (không giải thích)
File chạy chính: app.py
Model mặc định: Cube-Python.gguf
Cài đặt
Tạo môi trường ảo (khuyến nghị) rồi cài dependencies:
pip install -U langchain langchain-community ctransformers
Chạy
Đảm bảo file model Cube-Python.gguf nằm cùng thư mục với app.py, rồi chạy:
python app.py
Cấu hình (trong app.py)
MODEL_FILE: tên file GGUF (mặc địnhCube-Python.gguf)MODEL_TYPE: loại model cho CTransformers (mặc địnhllama)GPU_LAYERS:0= chạy CPU- nếu máy có GPU VRAM đủ, tăng lên (ví dụ 10–20) để nhanh hơn
CONTEXT_LENGTH: độ dài ngữ cảnh (mặc định4096)
Cấu trúc repo
app.py: prompt + chain (LangChain) + load model GGUF (CTransformers)Cube-Python.gguf: file model GGUF
Ví dụ prompt
Bạn có thể thay biến question trong app.py bằng bài toán của bạn (tiếng Việt/tiếng Anh đều được).
Credits
- LangChain
- CTransformers
Nếu bạn thấy hay
Cho mình xin 1 follow trên Hugging Face và 1 tym (like) cho repo nhé. ❤️
- Downloads last month
- 500
Hardware compatibility
Log In to add your hardware
We're not able to determine the quantization variants.
Start the llama.cpp server
# Install llama.cpp: brew install llama.cpp# Start a local OpenAI-compatible server: llama-server -hf NguyenDinhHieu/Cube-Python-1.0