llama.cpp ├── bin │ ├── cublas64_13.dll │ ├── cublasLt64_13.dll │ ├── cudart64_13.dll │ ├── ggml-base.dll │ ├── ggml-cpu-alderlake.dll │ ├── ggml-cpu-cannonlake.dll │ ├── ggml-cpu-cascadelake.dll │ ├── ggml-cpu-cooperlake.dll │ ├── ggml-cpu-haswell.dll │ ├── ggml-cpu-icelake.dll │ ├── ggml-cpu-ivybridge.dll │ ├── ggml-cpu-piledriver.dll │ ├── ggml-cpu-sandybridge.dll │ ├── ggml-cpu-sapphirerapids.dll │ ├── ggml-cpu-skylakex.dll │ ├── ggml-cpu-sse42.dll │ ├── ggml-cpu-x64.dll │ ├── ggml-cpu-zen4.dll │ ├── ggml-cuda.dll │ ├── ggml-rpc.dll │ ├── ggml.dll │ ├── libomp140.x86_64.dll │ ├── llama-batched-bench.exe │ ├── llama-bench.exe │ ├── llama-cli.exe │ ├── llama-completion.exe │ ├── llama-fit-params.exe │ ├── llama-gemma3-cli.exe │ ├── llama-gguf-split.exe │ ├── llama-imatrix.exe │ ├── llama-llava-cli.exe │ ├── llama-minicpmv-cli.exe │ ├── llama-mtmd-cli.exe │ ├── llama-perplexity.exe │ ├── llama-quantize.exe │ ├── llama-qwen2vl-cli.exe │ ├── llama-results.exe │ ├── llama-server.exe │ ├── llama-template-analysis.exe │ ├── llama-tokenize.exe │ ├── llama-tts.exe │ ├── llama.dll │ ├── mtmd.dll │ └── rpc-server.exe ├── doc │ ├── llama-server.help.en.txt │ ├── llama-server.help.zh.md │ └── llama.cpp_tools_server_readme.md ├── get_latest_release.py ├── llama-server.run.translation2.bat ├── llama-server.run.vision.bat ├── llama-server_hy-mt1.5-7b.bat ├── llama-server_vision_gemma-3-27b-it.bat ├── llama-server_vision_glm-4.6v-flash.bat ├── llama-server_vision_jan-v2-vl-max-fp8.bat ├── llama-server_vision_mars-27b-v1.bat ├── llama-server_vision_qwen3-vl-8b-instruct-c_abliterated-v3.bat ├── llama-server_vision_qwen3.5-27b.bat ├── llama-server_vision_qwen3.5-9b.bat ├── llama-server_vision_test.bat ├── llama-server_vision_youtu-vl-4b-instruct.bat ├── llama-server_vision_zwz-4b.bat ├── system-prompt-en-ocr.txt ├── system-prompt-test.txt ├── system-prompt-zh-ocr.txt └── system-prompt.txt