Upload 4 files
Browse files
llama_cpp_WebUI FILE/Image to Text Model Setup Guide (WebUI).txt
ADDED
|
@@ -0,0 +1,203 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
|
| 2 |
+
|
| 3 |
+
|
| 4 |
+
llama-server --n-gpu-layers 5 --ctx-size 14096 -m models/Qwen3-VL-2B-Instruct-Q8_0.gguf --mmproj models/mmproj-Qwen3-VL-2B-Instruct-Q8_0.gguf --host 127.0.0.1 --port 8083
|
| 5 |
+
|
| 6 |
+
|
| 7 |
+
|
| 8 |
+
Chatgpt;- https://chatgpt.com/share/6914d98c-9784-800e-8d92-e8eb0a25b5a4
|
| 9 |
+
|
| 10 |
+
https://chatgpt.com/share/6914d98c-9784-800e-8d92-e8eb0a25b5a4
|
| 11 |
+
|
| 12 |
+
|
| 13 |
+
nglish Version 🇬🇧
|
| 14 |
+
Title: [Image to Text Model Setup Guide (WebUI)]
|
| 15 |
+
Part 1: File and Folder Setup
|
| 16 |
+
* Base Folder: Assume your main software directory is D:\Flie\llama.cpp.
|
| 17 |
+
* Download Vision Model:
|
| 18 |
+
* To run any Vision Model (e.g., Qwen-VL or Gemma-Vision), you must download two files from the model source (like Hugging Face):
|
| 19 |
+
* File 1 (Main Model): This is the large model file (e.g., Qwen3-VL-2B-Instruct-Q8_0.gguf).
|
| 20 |
+
* File 2 (MM Projector): This is the small model file responsible for image processing (e.g., mmproj-Qwen3-VL-2B-Instruct-Q8_0.gguf).
|
| 21 |
+
* File Placement: Place both of these files inside the models folder located within D:\Flie\llama.cpp.
|
| 22 |
+
* Ensure GPU Support (CUDA):
|
| 23 |
+
* Ensure that the llama-server.exe file in your D:\Flie\llama.cpp folder has been replaced with the version compiled for GPU (CUDA) support (as done by replacing all files from the 373 MB CUDART zip).
|
| 24 |
+
Part 2: Preparing the Command (Running the Software)
|
| 25 |
+
You must write a single command to tell the software which files to use and how much GPU power to allocate.
|
| 26 |
+
Command Structure:
|
| 27 |
+
llama-server --n-gpu-layers [GPU_LAYERS] --ctx-size 14096 -m models/[MAIN_MODEL_FILE.gguf] --mmproj models/[MMPROJ_FILE.gguf] --host 127.0.0.1 --port 8083
|
| 28 |
+
|
| 29 |
+
* llama-server: This starts the WebUI server for use in a browser.
|
| 30 |
+
* --n-gpu-layers [GPU_LAYERS]:
|
| 31 |
+
* What to put here? Enter a number based on your GPU's VRAM (e.g., 28 or 20). This accelerates text and image processing by transferring the load from the CPU to the GPU.
|
| 32 |
+
* -m models/[MAIN_MODEL_FILE.gguf]:
|
| 33 |
+
* What to put here? Enter the full filename of the large Vision Model file you downloaded.
|
| 34 |
+
* Example: -m models/Qwen3-VL-2B-Instruct-Q8_0.gguf
|
| 35 |
+
* --mmproj models/[MMPROJ_FILE.gguf]:
|
| 36 |
+
* What to put here? This is the Multi-Modal Projector path. Enter the full filename of the small MM Projector file.
|
| 37 |
+
* Crucial Rule: The MM Projector file MUST be from the same model family as the Main Model. Mixing files (e.g., a Gemma mmproj with a Qwen main model) will NOT work.
|
| 38 |
+
* Example (For Qwen-VL): --mmproj models/mmproj-Qwen3-VL-2B-Instruct-Q8_0.gguf
|
| 39 |
+
Final Command (Qwen-VL Example):
|
| 40 |
+
Run this command inside your D:\Flie\llama.cpp> folder:
|
| 41 |
+
llama-server --n-gpu-layers 28 --ctx-size 14096 -m models/Qwen3-VL-2B-Instruct-Q8_0.gguf --mmproj models/mmproj-Qwen3-VL-2B-Instruct-Q8_0.gguf --host 127.0.0.1 --port 8083
|
| 42 |
+
|
| 43 |
+
Part 3: Using the Model on WebUI
|
| 44 |
+
* Run the Command: The command prompt will start loading the model onto your GPU.
|
| 45 |
+
* Open URL: Once the console shows listening on http://127.0.0.1:8083, open this URL in your Chrome browser.
|
| 46 |
+
* Upload Image: You will find an image upload button next to the chat window.
|
| 47 |
+
* Fast Processing: The image processing (which was previously slow) will now be handled by your GPU and the model will respond quickly
|
| 48 |
+
|
| 49 |
+
|
| 50 |
+
|
| 51 |
+
|
| 52 |
+
|
| 53 |
+
Urdu
|
| 54 |
+
|
| 55 |
+
یہ ٹیوٹوریل WebUI (کروم براؤزر) پر تصویر اپلوڈ کرنے والے ماڈلز کو چلانے کا مکمل طریقہ ہے۔
|
| 56 |
+
ٹیوٹوریل: llama.cpp پر تصویر (Image) والا ماڈل چلانے کا طریقہ (GPU کے ساتھ)
|
| 57 |
+
عنوان: [Image to Text Model Setup Guide (WebUI)]
|
| 58 |
+
اردو میں 🇵🇰
|
| 59 |
+
یہ ہدایات کسی بھی نئے Vision ماڈل (جیسے Qwen-VL یا Gemma-Vision) کو آپ کے NVIDIA GPU پر چلا کر کروم براؤزر میں استعمال کرنے کے لیے ہیں۔
|
| 60 |
+
حصہ 1: فائلیں اور فولڈر سیٹ اپ
|
| 61 |
+
* بنیادی فولڈر: فرض کریں کہ آپ کا سارا سافٹ ویئر D:\Flie\llama.cpp فولڈر میں موجود ہے۔
|
| 62 |
+
* Vision ماڈل ڈاؤنلوڈ کرنا:
|
| 63 |
+
* آپ جس بھی Vision ماڈل کو چلانا چاہتے ہیں (مثلاً Qwen-VL یا Gemma-Vision)، آپ کو اس کی دو فائلیں ڈاؤنلوڈ کرنی ہوں گی (جیسے آپ نے Hugging Face سے کی تھیں):
|
| 64 |
+
* پہلی فائل (Main Model): یہ ماڈل کا بڑا حصہ ہے (جیسے Qwen3-VL-2B-Instruct-Q8_0.gguf)۔
|
| 65 |
+
* دوسری فائل (MM Projector): یہ ماڈل کا چھوٹا حصہ ہے جو تصویر کو پروسیس کرتا ہے (جیسے mmproj-Qwen3-VL-2B-Instruct-Q8_0.gguf)۔
|
| 66 |
+
* فائلوں کی جگہ: ان دونوں فائلوں کو D:\Flie\llama.cpp کے اندر موجود models نامی فولڈر میں رکھیں۔
|
| 67 |
+
* GPU سپورٹ (CUDA) یقینی بنانا:
|
| 68 |
+
* یقینی بنائیں کہ آپ کے D:\Flie\llama.cpp فولڈر میں موجود llama-server.exe فائل GPU (CUDA) سپورٹ کے ساتھ کمپائل ہوئی ہو (جیسا کہ ہم نے 373 MB والی CUDART زِپ کو استعمال کر کے تمام فائلیں تبدیل کی تھیں)۔
|
| 69 |
+
حصہ 2: کمانڈ تیار کرنا (سافٹ ویئر کو چلانا)
|
| 70 |
+
آپ کو ایک واحد کمانڈ لکھنی ہے جو سافٹ ویئر کو یہ بتائے کہ کون سی فائل کس کام کے لیے استعمال کرنی ہے اور GPU پر کتنی طاقت استعمال کرنی ہے۔
|
| 71 |
+
کمانڈ کا مکمل سٹرکچر:
|
| 72 |
+
llama-server --n-gpu-layers [GPU_LAYERS] --ctx-size 14096 -m models/[MAIN_MODEL_FILE.gguf] --mmproj models/[MMPROJ_FILE.gguf] --host 127.0.0.1 --port 8083
|
| 73 |
+
|
| 74 |
+
* llama-server: یہ کمانڈ براؤزر میں WebUI کو شروع کرنے کے لیے ضروری ہے۔
|
| 75 |
+
* --n-gpu-layers [GPU_LAYERS]:
|
| 76 |
+
* کون سی ویلیو ڈالیں؟ یہاں آپ اپنے GPU کی VRAM کے حساب سے ایک نمبر ڈالیں (جیسے 28 یا 20 اگر میموری کم ہے)۔ یہ ٹیکسٹ اور تصویر کی پروسیسنگ کو تیز کرتا ہے۔
|
| 77 |
+
* مثال: --n-gpu-layers 28
|
| 78 |
+
* -m models/[MAIN_MODEL_FILE.gguf]:
|
| 79 |
+
* کون سی ویلیو ڈالیں؟ یہاں آپ بڑی Vision ماڈل فائل کا نام ڈالیں گے جو آپ نے Hugging Face سے ڈاؤنلوڈ کی تھی۔
|
| 80 |
+
* مثال: -m models/Qwen3-VL-2B-Instruct-Q8_0.gguf
|
| 81 |
+
* --mmproj models/[MMPROJ_FILE.gguf]:
|
| 82 |
+
* کون سی ویلیو ڈالیں؟ یہ Vision Projector فائل کا پاتھ ہے۔ یہاں آپ چھوٹی MM Projector فائل کا نام ڈالیں گے۔
|
| 83 |
+
* یاد رکھیں: اگر آپ Gemma ماڈل استعمال کر رہے ہیں، تو آپ کو Gemma کا ہی mmproj استعمال کرنا ہو گا۔ کوئی بھی mmproj کسی بھی ماڈل کے ساتھ کام نہیں کرے گا۔ یہ دونوں فائلیں ایک ہی ماڈل کی ہونی چاہئیں۔
|
| 84 |
+
* مثال (Qwen-VL کے لیے): --mmproj models/mmproj-Qwen3-VL-2B-Instruct-Q8_0.gguf
|
| 85 |
+
آپ کی مکمل کمانڈ (Qwen-VL کی مثال):
|
| 86 |
+
D:\Flie\llama.cpp> میں جا کر یہ کمانڈ چلائیں:
|
| 87 |
+
llama-server --n-gpu-layers 28 --ctx-size 14096 -m models/Qwen3-VL-2B-Instruct-Q8_0.gguf --mmproj models/mmproj-Qwen3-VL-2B-Instruct-Q8_0.gguf --host 127.0.0.1 --port 8083
|
| 88 |
+
|
| 89 |
+
حصہ 3: ماڈل کو WebUI پر استعمال کرنا
|
| 90 |
+
* کمانڈ چلائیں: جب آپ Command Prompt میں یہ کمانڈ چلائیں گے تو یہ ماڈل کو آپ کے GPU پر لوڈ کرنا شروع کر دے گا۔
|
| 91 |
+
* URL کھولیں: کنسول میں جب listening on http://127.0.0.1:8083 کا میسج آئے، تو اپنے کروم براؤزر میں یہ URL کھولیں۔
|
| 92 |
+
* تصویر اپلوڈ کریں: آپ کو وہاں چیٹ ونڈو کے ساتھ ہی تصویر اپلوڈ کرنے کا بٹن مل جائے گا۔
|
| 93 |
+
* تصویر پروسیسنگ: جیسے ہی آپ تصویر اپلوڈ کریں گے، آپ کا GPU (Quadro P2000) کام کرنا شروع کر دے گا اور Vision پروسیسنگ تیزی سے مکمل ہو کر آپ کا ماڈل تصویر کے بارے میں جواب دے گا۔
|
| 94 |
+
|
| 95 |
+
|
| 96 |
+
|
| 97 |
+
|
| 98 |
+
|
| 99 |
+
|
| 100 |
+
|
| 101 |
+
|
| 102 |
+
|
| 103 |
+
|
| 104 |
+
NEW LAST
|
| 105 |
+
|
| 106 |
+
RUN.BAT
|
| 107 |
+
|
| 108 |
+
|
| 109 |
+
|
| 110 |
+
|
| 111 |
+
|
| 112 |
+
@echo off
|
| 113 |
+
Title 🦙 Llama.cpp Local Server - GPU + Model Selector + Mobile Access
|
| 114 |
+
|
| 115 |
+
REM --- PATH SETTINGS ---
|
| 116 |
+
SET BASE_DIR=D:\Flie\llama.cpp
|
| 117 |
+
SET MODELS_DIR=%BASE_DIR%\models
|
| 118 |
+
SET SERVER_EXE=%BASE_DIR%\llama-server.exe
|
| 119 |
+
|
| 120 |
+
REM --- SERVER SETTINGS ---
|
| 121 |
+
SET HOST_IP=0.0.0.0
|
| 122 |
+
SET PORT=8080
|
| 123 |
+
SET GPU_LAYERS=3
|
| 124 |
+
SET CONTEXT_SIZE=114096
|
| 125 |
+
|
| 126 |
+
echo ============================================
|
| 127 |
+
echo 🦙 Llama.cpp Local Server - Model Selector
|
| 128 |
+
echo ============================================
|
| 129 |
+
echo.
|
| 130 |
+
echo Available Models in: %MODELS_DIR%
|
| 131 |
+
echo.
|
| 132 |
+
|
| 133 |
+
REM --- LIST ALL MODELS ---
|
| 134 |
+
SETLOCAL ENABLEDELAYEDEXPANSION
|
| 135 |
+
SET COUNT=0
|
| 136 |
+
for %%f in ("%MODELS_DIR%\*.gguf") do (
|
| 137 |
+
SET /A COUNT+=1
|
| 138 |
+
echo !COUNT!. %%~nxf
|
| 139 |
+
SET "MODEL[!COUNT!]=%%~nxf"
|
| 140 |
+
)
|
| 141 |
+
|
| 142 |
+
echo.
|
| 143 |
+
echo --------------------------------------------
|
| 144 |
+
echo Type "NO" and press ENTER to start Vision Model (Qwen3-VL-2B)
|
| 145 |
+
echo --------------------------------------------
|
| 146 |
+
echo.
|
| 147 |
+
set /p choice=Enter model number or type NO:
|
| 148 |
+
|
| 149 |
+
REM --- IF USER TYPES NO ---
|
| 150 |
+
IF /I "%choice%"=="NO" (
|
| 151 |
+
echo.
|
| 152 |
+
echo 🧠 Starting Vision Model: Qwen3-VL-2B-Instruct-Q8_0
|
| 153 |
+
echo --------------------------------------------
|
| 154 |
+
start "" "%SERVER_EXE%" --n-gpu-layers 3 --ctx-size 114096 -m "%MODELS_DIR%\Qwen3-VL-2B-Instruct-Q8_0.gguf" --mmproj "%MODELS_DIR%\mmproj-Qwen3-VL-2B-Instruct-Q8_0.gguf" --host %HOST_IP% --port %PORT%
|
| 155 |
+
timeout /t 3 >nul
|
| 156 |
+
|
| 157 |
+
REM --- GET LOCAL IP FOR MOBILE ACCESS ---
|
| 158 |
+
for /f "tokens=2 delims=:" %%a in ('ipconfig ^| findstr /c:"IPv4 Address"') do set LOCAL_IP=%%a
|
| 159 |
+
set LOCAL_IP=%LOCAL_IP: =%
|
| 160 |
+
echo.
|
| 161 |
+
echo 🌐 Open on this PC: http://127.0.0.1:%PORT%
|
| 162 |
+
echo 📱 Open on your mobile: http://%LOCAL_IP%:%PORT%
|
| 163 |
+
echo.
|
| 164 |
+
start "" chrome http://127.0.0.1:%PORT%/
|
| 165 |
+
pause
|
| 166 |
+
exit /b
|
| 167 |
+
)
|
| 168 |
+
|
| 169 |
+
REM --- NORMAL MODEL SELECTION PATH ---
|
| 170 |
+
IF "%choice%"=="" (
|
| 171 |
+
echo No selection made. Exiting...
|
| 172 |
+
pause
|
| 173 |
+
exit /b
|
| 174 |
+
)
|
| 175 |
+
|
| 176 |
+
SET SELECTED_MODEL=!MODEL[%choice%]!
|
| 177 |
+
SET MODEL_PATH="%MODELS_DIR%\%SELECTED_MODEL%"
|
| 178 |
+
|
| 179 |
+
echo.
|
| 180 |
+
echo ✅ Selected model: %SELECTED_MODEL%
|
| 181 |
+
echo ---------------------------------------------
|
| 182 |
+
|
| 183 |
+
echo.
|
| 184 |
+
echo 🚀 Starting llama-server with %SELECTED_MODEL% ...
|
| 185 |
+
echo.
|
| 186 |
+
|
| 187 |
+
start "" "%SERVER_EXE%" --n-gpu-layers %GPU_LAYERS% --ctx-size %CONTEXT_SIZE% -m %MODEL_PATH% --host %HOST_IP% --port %PORT%
|
| 188 |
+
timeout /t 3 >nul
|
| 189 |
+
|
| 190 |
+
REM --- GET LOCAL IP FOR MOBILE ACCESS ---
|
| 191 |
+
for /f "tokens=2 delims=:" %%a in ('ipconfig ^| findstr /c:"IPv4 Address"') do set LOCAL_IP=%%a
|
| 192 |
+
set LOCAL_IP=%LOCAL_IP: =%
|
| 193 |
+
|
| 194 |
+
echo.
|
| 195 |
+
echo 🌐 Open on this PC: http://127.0.0.1:%PORT%
|
| 196 |
+
echo 📱 Open on your mobile: http://%LOCAL_IP%:%PORT%
|
| 197 |
+
echo.
|
| 198 |
+
start "" chrome http://127.0.0.1:%PORT%/
|
| 199 |
+
pause
|
| 200 |
+
|
| 201 |
+
|
| 202 |
+
|
| 203 |
+
|
llama_cpp_WebUI FILE/Install tutorial.txt
ADDED
|
@@ -0,0 +1,132 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
|
| 2 |
+
|
| 3 |
+
|
| 4 |
+
|
| 5 |
+
llama-server.exe --n-gpu-layers 0 --ctx-size 4096 -m "C:\Users\........"
|
| 6 |
+
|
| 7 |
+
|
| 8 |
+
|
| 9 |
+
Example command:
|
| 10 |
+
|
| 11 |
+
llama-server.exe --n-gpu-layers 0 --ctx-size 4096 -m "C:\Users\Mr_Nomi\Downloads\gemma-3-12b-it-Q4_K_S.gguf"
|
| 12 |
+
|
| 13 |
+
|
| 14 |
+
|
| 15 |
+
|
| 16 |
+
|
| 17 |
+
video:- https://youtu.be/FLp-_Ln8Wtg?si=txPUQqPgNyCQwYUd
|
| 18 |
+
|
| 19 |
+
|
| 20 |
+
github:- https://github.com/ggml-org/llama.cpp/releases
|
| 21 |
+
|
| 22 |
+
|
| 23 |
+
Model:- https://huggingface.co/models?num_parameters=min:0,max:1B&library=gguf&sort=trending
|
| 24 |
+
|
| 25 |
+
|
| 26 |
+
|
| 27 |
+
|
| 28 |
+
|
| 29 |
+
|
| 30 |
+
|
| 31 |
+
|
| 32 |
+
Cpu Only
|
| 33 |
+
|
| 34 |
+
|
| 35 |
+
llama-server.exe --n-gpu-layers 0 --ctx-size 4096 -m "C:\Users\Mr_Nomi\Downloads\gemma-3-12b-it-Q4_K_S.gguf"
|
| 36 |
+
|
| 37 |
+
|
| 38 |
+
|
| 39 |
+
Gpu Only/Cuda Olny
|
| 40 |
+
|
| 41 |
+
llama-server.exe --n-gpu-layers 999 --ctx-size 4096 -m "C:\Users\Mr_Nomi\Downloads\gemma-3-12b-it-Q4_K_S.gguf"
|
| 42 |
+
|
| 43 |
+
|
| 44 |
+
|
| 45 |
+
|
| 46 |
+
|
| 47 |
+
|
| 48 |
+
|
| 49 |
+
|
| 50 |
+
|
| 51 |
+
|
| 52 |
+
|
| 53 |
+
|
| 54 |
+
💻 Llama.cpp Setup Guide for Windows (English)
|
| 55 |
+
This guide provides the exact steps to download the correct Llama.cpp binaries for Windows and run an LLM (Large Language Model) locally using a command prompt.
|
| 56 |
+
Part 1: Download Llama.cpp Windows Binaries
|
| 57 |
+
* Search & Navigate: Open your web browser and search for the Llama.cpp GitHub page, or use the direct link below:
|
| 58 |
+
Link: https://github.com/ggerganov/llama.cpp/releases
|
| 59 |
+
* Select the Latest Release: On the right sidebar, click on the latest available release (e.g., a tag like b7028).
|
| 60 |
+
* Download the Windows Package: Scroll down to the Assets section. You must download the file specifically built for Windows 64-bit (x64) that supports your hardware.
|
| 61 |
+
* For CPU-ONLY Use (Recommended for maximum compatibility): Download the file containing cpu-win-x64 in its name.
|
| 62 |
+
* Example File Name: llama-bXXXX-bin-cpu-win-x64.zip
|
| 63 |
+
* For NVIDIA GPU (CUDA) Use: Download the file containing cuda-XX.X-x64 in its name.
|
| 64 |
+
* Example File Name: llama-bXXXX-bin-win-cuda-12.4-x64.zip
|
| 65 |
+
* Extract the Files: Once downloaded, Extract the entire contents of the .zip file into a new, easily accessible folder (e.g., E:\llama-setup). This will create a build folder containing the necessary bin subdirectory.
|
| 66 |
+
Part 2: Download the LLM Model (GGUF Format)
|
| 67 |
+
* Download the Model File: You need an LLM model in the GGUF format. We will use the Gemma 2B model as an example due to its small size and efficiency.
|
| 68 |
+
Model Link (Gemma 2B Q4_K_S GGUF): https://huggingface.co/lmstudio-community/gemma-2b-it-GGUF/blob/main/gemma-2b-it-Q4_K_S.gguf
|
| 69 |
+
* Save the Model: Download the GGUF file and place it in a simple location, like your Downloads folder:
|
| 70 |
+
* Model Path Example: C:\Users\YourName\Downloads\gemma-2b-it-Q4_K_S.gguf
|
| 71 |
+
Part 3: Run the Model (Command Line)
|
| 72 |
+
* Open the Bin Folder: Navigate to the folder where the executable files are located: E:\llama-setup\build\bin.
|
| 73 |
+
* Open Command Prompt: Right-click in an empty space within the bin folder and select Open in Terminal or Open PowerShell window here.
|
| 74 |
+
* Execute the Command: Now, run the llama-server.exe file, specifying the correct options and the path to your downloaded model (-m).
|
| 75 |
+
|
| 76 |
+
|
| 77 |
+
|
| 78 |
+
|
| 79 |
+
* If you downloaded the CPU-ONLY version (Recommended):
|
| 80 |
+
llama-server.exe --n-gpu-layers 0 --ctx-size 4096 -m "C:\Users\YourName\Downloads\gemma-2b-it-Q4_K_S.gguf"
|
| 81 |
+
|
| 82 |
+
|
| 83 |
+
|
| 84 |
+
|
| 85 |
+
|
| 86 |
+
* If you downloaded the CUDA (GPU) version:
|
| 87 |
+
|
| 88 |
+
|
| 89 |
+
llama-server.exe --n-gpu-layers 80 --ctx-size 4096 -m "C:\Users\YourName\Downloads\gemma-2b-it-Q4_K_S.gguf"
|
| 90 |
+
|
| 91 |
+
|
| 92 |
+
|
| 93 |
+
> Note: Replace "C:\Users\YourName\Downloads\gemma-2b-it-Q4_K_S.gguf" with the actual path where you saved your model.
|
| 94 |
+
>
|
| 95 |
+
|
| 96 |
+
* Access the Web Interface: Once the server starts running, it will display a local IP address (e.g., http://127.0.0.1:8080). Copy this address and paste it into your web browser to start chatting with the model!
|
| 97 |
+
|
| 98 |
+
|
| 99 |
+
|
| 100 |
+
|
| 101 |
+
|
| 102 |
+
|
| 103 |
+
💻 ونڈوز کے لیے Llama.cpp سیٹ اپ گائیڈ (اردو)
|
| 104 |
+
یہ گائیڈ آپ کو ونڈوز پر Llama.cpp کی درست باائنریز ڈاؤن لوڈ کرنے اور کمانڈ پرامپٹ کے ذریعے ایک LLM (لارج لینگویج ماڈل) کو لوکل مشین پر چلانے کا صحیح طریقہ بتائے گا۔
|
| 105 |
+
حصہ 1: Llama.cpp کی ونڈوز باائنریز ڈاؤن لوڈ کرنا
|
| 106 |
+
* سرچ اور وزٹ کریں: اپنا ویب براؤزر کھولیں اور Llama.cpp کے گٹ ہب پیج کو سرچ کریں، یا نیچے دیا گیا براہ راست لنک استعمال کریں:
|
| 107 |
+
لنک: https://github.com/ggerganov/llama.cpp/releases
|
| 108 |
+
* تازہ ترین ریلیز منتخب کریں: دائیں جانب موجود پینل میں، سب سے تازہ ترین دستیاب ریلیز پر کلک کریں۔
|
| 109 |
+
* ونڈوز پیکج ڈاؤن لوڈ کریں: Assets سیکشن تک نیچے سکرول کریں۔ آپ کو خاص طور پر ونڈوز 64-بٹ (x64) کے لیے بنائی گئی فائل ڈاؤن لوڈ کرنی ہے جو آپ کے ہارڈویئر کو سپورٹ کرے۔
|
| 110 |
+
* صرف CPU استعمال کے لیے (زیادہ مطابقت کے لیے تجویز کردہ): اس فائل کو ڈاؤن لو�� کریں جس کے نام میں cpu-win-x64 شامل ہو۔
|
| 111 |
+
* مثال فائل کا نام: llama-bXXXX-bin-cpu-win-x64.zip
|
| 112 |
+
* NVIDIA GPU (CUDA) استعمال کے لیے: اس فائل کو ڈاؤن لوڈ کریں جس کے نام میں cuda-XX.X-x64 شامل ہو۔
|
| 113 |
+
* مثال فائل کا نام: llama-bXXXX-bin-win-cuda-12.4-x64.zip
|
| 114 |
+
* فائلز کو ایکسٹریکٹ کریں: ڈاؤن لوڈ ہونے کے بعد، پوری .zip فائل کو ایک نئی، آسانی سے قابل رسائی جگہ پر ایکسٹریکٹ کر لیں (مثلاً، E:\llama-setup)۔ اس سے ایک build فولڈر بنے گا جس میں ضروری bin سب ڈائریکٹری موجود ہو گی۔
|
| 115 |
+
حصہ 2: LLM ماڈل ڈاؤن لوڈ کرنا (GGUF فارمیٹ)
|
| 116 |
+
* ماڈل فائل ڈاؤن لوڈ کریں: آپ کو GGUF فارمیٹ میں ایک LLM ماڈل درکار ہے۔ ہم چھوٹی سائز اور افادیت کی وجہ سے Gemma 2B ماڈل کو مثال کے طور پر استعمال کریں گے۔
|
| 117 |
+
ماڈل کا لنک (Gemma 2B Q4_K_S GGUF): https://huggingface.co/lmstudio-community/gemma-2b-it-GGUF/blob/main/gemma-2b-it-Q4_K_S.gguf
|
| 118 |
+
* ماڈل محفوظ کریں: GGUF فائل ڈاؤن لوڈ کریں اور اسے کسی سادہ مقام پر رکھیں، جیسے کہ آپ کا Downloads فولڈر:
|
| 119 |
+
* ماڈل پاتھ کی مثال: C:\Users\آپ کا نام\Downloads\gemma-2b-it-Q4_K_S.gguf
|
| 120 |
+
حصہ 3: ماڈل چلانا (کمانڈ لائن)
|
| 121 |
+
* Bin فولڈر کھولیں: اس فولڈر میں جائیں جہاں آپ کی llama-server.exe فائل موجود ہے: E:\llama-setup\build\bin۔
|
| 122 |
+
* کمانڈ پرامپٹ کھولیں: bin فولڈر کے اندر خالی جگہ پر رائٹ کلک کریں اور Open in Terminal یا Open PowerShell window here کو منتخب کریں۔
|
| 123 |
+
* کمانڈ ایگزیکیوٹ کریں: اب، llama-server.exe فائل کو چلائیں، اور صحیح آپشنز اور ماڈل کا پاتھ (-m) بتائیں۔
|
| 124 |
+
* اگر آپ نے صرف CPU ورژن ڈاؤن لوڈ کیا ہے (تجویز کردہ):
|
| 125 |
+
llama-server.exe --n-gpu-layers 0 --ctx-size 4096 -m "C:\Users\آپ کا نام\Downloads\gemma-2b-it-Q4_K_S.gguf"
|
| 126 |
+
|
| 127 |
+
* اگر آپ نے CUDA (GPU) ورژن ڈاؤن لوڈ کیا ہے:
|
| 128 |
+
llama-server.exe --n-gpu-layers 80 --ctx-size 4096 -m "C:\Users\آپ کا نام\Downloads\gemma-2b-it-Q4_K_S.gguf"
|
| 129 |
+
|
| 130 |
+
> نوٹ: "C:\Users\آپ کا نام\Downloads\gemma-2b-it-Q4_K_S.gguf" کی جگہ وہ اصل پاتھ استعمال کریں جہاں آپ نے اپنا ماڈل محفوظ کیا ہے۔
|
| 131 |
+
>
|
| 132 |
+
* ویب انٹرفیس تک رسائی: سرور کے چلنا شروع ہوتے ہی، یہ ایک لوکل IP ایڈریس ظاہر کرے گا (مثلاً: http://127.0.0.1:8080)۔ اس ایڈریس کو کاپی کریں اور اپنے ویب براؤزر میں پیسٹ کریں تاکہ ماڈل کے ساتھ چیٹنگ شروع کی جا سکے۔
|
llama_cpp_WebUI FILE/Run.BAT
ADDED
|
@@ -0,0 +1,59 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
@echo off
|
| 2 |
+
Title 🦙 Llama.cpp Local Server - GPU + Model Selector + Auto Chrome
|
| 3 |
+
|
| 4 |
+
REM --- PATH SETTINGS ---
|
| 5 |
+
SET BASE_DIR=D:\Flie\llama.cpp
|
| 6 |
+
SET MODELS_DIR=%BASE_DIR%\models
|
| 7 |
+
SET SERVER_EXE=%BASE_DIR%\llama-server.exe
|
| 8 |
+
|
| 9 |
+
REM --- SERVER SETTINGS ---
|
| 10 |
+
SET HOST_IP=0.0.0.0
|
| 11 |
+
SET PORT=8080
|
| 12 |
+
SET GPU_LAYERS=999
|
| 13 |
+
SET CONTEXT_SIZE=4096
|
| 14 |
+
|
| 15 |
+
echo ============================================
|
| 16 |
+
echo 🦙 Llama.cpp Local Server - Model Selector
|
| 17 |
+
echo ============================================
|
| 18 |
+
echo.
|
| 19 |
+
echo Available Models in: %MODELS_DIR%
|
| 20 |
+
echo.
|
| 21 |
+
|
| 22 |
+
REM --- LIST ALL MODELS ---
|
| 23 |
+
SETLOCAL ENABLEDELAYEDEXPANSION
|
| 24 |
+
SET COUNT=0
|
| 25 |
+
for %%f in ("%MODELS_DIR%\*.gguf") do (
|
| 26 |
+
SET /A COUNT+=1
|
| 27 |
+
echo !COUNT!. %%~nxf
|
| 28 |
+
SET "MODEL[!COUNT!]=%%~nxf"
|
| 29 |
+
)
|
| 30 |
+
|
| 31 |
+
echo.
|
| 32 |
+
set /p choice=Enter the model number to load:
|
| 33 |
+
|
| 34 |
+
IF "%choice%"=="" (
|
| 35 |
+
echo No selection made. Exiting...
|
| 36 |
+
pause
|
| 37 |
+
exit /b
|
| 38 |
+
)
|
| 39 |
+
|
| 40 |
+
SET SELECTED_MODEL=!MODEL[%choice%]!
|
| 41 |
+
echo.
|
| 42 |
+
echo ✅ Selected model: %SELECTED_MODEL%
|
| 43 |
+
echo ---------------------------------------------
|
| 44 |
+
|
| 45 |
+
SET MODEL_PATH="%MODELS_DIR%\%SELECTED_MODEL%"
|
| 46 |
+
|
| 47 |
+
echo Starting llama-server with %SELECTED_MODEL% on GPU...
|
| 48 |
+
echo.
|
| 49 |
+
|
| 50 |
+
REM --- START SERVER ---
|
| 51 |
+
start "" "%SERVER_EXE%" --n-gpu-layers %GPU_LAYERS% --ctx-size %CONTEXT_SIZE% --port %PORT% --host %HOST_IP% -m %MODEL_PATH%
|
| 52 |
+
|
| 53 |
+
REM --- OPEN CHROME AUTOMATICALLY ---
|
| 54 |
+
timeout /t 2 >nul
|
| 55 |
+
start "" chrome http://127.0.0.1:%PORT%/
|
| 56 |
+
|
| 57 |
+
echo.
|
| 58 |
+
echo 🦙 Server started. Browser should open automatically.
|
| 59 |
+
pause
|
llama_cpp_WebUI FILE/run_bat Edit tutorial.txt
ADDED
|
@@ -0,0 +1,267 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
chatgpt:= https://chatgpt.com/share/69141b4b-3448-800e-87ef-fb83c51228e9
|
| 2 |
+
|
| 3 |
+
https://chatgpt.com/share/69141b4b-3448-800e-87ef-fb83c51228e9
|
| 4 |
+
|
| 5 |
+
|
| 6 |
+
|
| 7 |
+
|
| 8 |
+
|
| 9 |
+
Tutorial: How to Edit Run.bat for Llama.cpp Local Server
|
| 10 |
+
|
| 11 |
+
Step 1: Locate the Run.bat File
|
| 12 |
+
|
| 13 |
+
Go to the folder where you downloaded Llama.cpp.
|
| 14 |
+
|
| 15 |
+
Example path:
|
| 16 |
+
|
| 17 |
+
|
| 18 |
+
D:\Flie\llama.cpp
|
| 19 |
+
|
| 20 |
+
You will see Run.bat inside this folder.
|
| 21 |
+
|
| 22 |
+
|
| 23 |
+
Step 2: Open Run.bat for Editing
|
| 24 |
+
|
| 25 |
+
Right-click Run.bat → Choose Edit or Open with Notepad.
|
| 26 |
+
|
| 27 |
+
This will open the batch file and you can see the code inside.
|
| 28 |
+
|
| 29 |
+
|
| 30 |
+
Step 3: Edit the Base Directory
|
| 31 |
+
|
| 32 |
+
Look for the line that defines the BASE_DIR.
|
| 33 |
+
|
| 34 |
+
Example:
|
| 35 |
+
|
| 36 |
+
|
| 37 |
+
SET BASE_DIR=D:\Flie\llama.cpp
|
| 38 |
+
|
| 39 |
+
Replace D:\Flie\llama.cpp with your own Llama.cpp folder location if it’s different.
|
| 40 |
+
|
| 41 |
+
|
| 42 |
+
Step 4: Check Models Folder
|
| 43 |
+
|
| 44 |
+
Make sure you have a models folder inside your base folder.
|
| 45 |
+
|
| 46 |
+
Place all your .gguf model files inside this folder.
|
| 47 |
+
|
| 48 |
+
The batch file line should look like:
|
| 49 |
+
|
| 50 |
+
|
| 51 |
+
SET MODELS_DIR=%BASE_DIR%\models
|
| 52 |
+
|
| 53 |
+
Step 5: Save the File
|
| 54 |
+
|
| 55 |
+
After editing the path, click File → Save in Notepad.
|
| 56 |
+
|
| 57 |
+
Close Notepad.
|
| 58 |
+
|
| 59 |
+
|
| 60 |
+
Step 6: Run the File
|
| 61 |
+
|
| 62 |
+
Double-click Run.bat.
|
| 63 |
+
|
| 64 |
+
You will see a list of models with numbers.
|
| 65 |
+
|
| 66 |
+
Type the number of the model you want to run and press Enter.
|
| 67 |
+
|
| 68 |
+
The server will start and automatically open the browser at:
|
| 69 |
+
|
| 70 |
+
|
| 71 |
+
http://127.0.0.1:8080/
|
| 72 |
+
|
| 73 |
+
|
| 74 |
+
---
|
| 75 |
+
|
| 76 |
+
Step 7: Optional GPU/CPU Settings
|
| 77 |
+
|
| 78 |
+
The batch file uses GPU by default:
|
| 79 |
+
|
| 80 |
+
|
| 81 |
+
--n-gpu-layers 999
|
| 82 |
+
|
| 83 |
+
If you want CPU only, edit the line in Run.bat like this:
|
| 84 |
+
|
| 85 |
+
|
| 86 |
+
--n-gpu-layers 0
|
| 87 |
+
|
| 88 |
+
|
| 89 |
+
---
|
| 90 |
+
|
| 91 |
+
✅ Now your Run.bat is ready and will always show your models and run the server correctly.
|
| 92 |
+
|
| 93 |
+
|
| 94 |
+
---
|
| 95 |
+
|
| 96 |
+
ٹیوٹوریل: Run.bat کو ایڈٹ کرنا اور ماڈل فولڈر لوکیشن دینا (اردو)
|
| 97 |
+
|
| 98 |
+
Step 1: Run.bat فائل تلاش کریں
|
| 99 |
+
|
| 100 |
+
وہ فولڈر کھولیں جہاں آپ نے Llama.cpp رکھا ہوا ہے۔
|
| 101 |
+
|
| 102 |
+
مثال:
|
| 103 |
+
|
| 104 |
+
|
| 105 |
+
D:\Flie\llama.cpp
|
| 106 |
+
|
| 107 |
+
یہاں آپ کو Run.bat نظر آئے گا۔
|
| 108 |
+
|
| 109 |
+
|
| 110 |
+
Step 2: Run.bat کھولیں
|
| 111 |
+
|
| 112 |
+
Run.bat پر Right-click → Edit یا Open with Notepad کریں۔
|
| 113 |
+
|
| 114 |
+
Notepad میں فائل کھل جائے گی اور آپ کو کوڈ نظر آئے گا۔
|
| 115 |
+
|
| 116 |
+
|
| 117 |
+
Step 3: Base Directory ایڈٹ کریں
|
| 118 |
+
|
| 119 |
+
وہ لائن تلاش کریں جو BASE_DIR define کرتی ہے۔
|
| 120 |
+
|
| 121 |
+
مثال:
|
| 122 |
+
|
| 123 |
+
|
| 124 |
+
SET BASE_DIR=D:\Flie\llama.cpp
|
| 125 |
+
|
| 126 |
+
اگر آپ نے Llama.cpp کسی اور فولڈر میں رکھا ہے تو اس کا path یہاں دیں۔
|
| 127 |
+
|
| 128 |
+
|
| 129 |
+
Step 4: Models فولڈر چیک کریں
|
| 130 |
+
|
| 131 |
+
یقین کریں کہ base folder میں models فولڈر موجود ہے۔
|
| 132 |
+
|
| 133 |
+
اپنے تمام .gguf ماڈلز اس میں رکھیں۔
|
| 134 |
+
|
| 135 |
+
Batch فائل میں یہ لائن اس طرح ہونی چاہیے:
|
| 136 |
+
|
| 137 |
+
|
| 138 |
+
SET MODELS_DIR=%BASE_DIR%\models
|
| 139 |
+
|
| 140 |
+
Step 5: فائل Save کریں
|
| 141 |
+
|
| 142 |
+
Notepad میں File → Save کریں۔
|
| 143 |
+
|
| 144 |
+
Notepad بند کر دیں۔
|
| 145 |
+
|
| 146 |
+
|
| 147 |
+
Step 6: Run کریں
|
| 148 |
+
|
| 149 |
+
Run.bat پر Double-click کریں۔
|
| 150 |
+
|
| 151 |
+
ماڈلز کی لسٹ نمبر کے ساتھ دکھائی دے گی۔
|
| 152 |
+
|
| 153 |
+
جس ماڈل کو چلانا ہے اس کا نمبر لکھیں اور Enter دبائیں۔
|
| 154 |
+
|
| 155 |
+
Server start ہو جائے گا اور browser خود بخود کھلے گا:
|
| 156 |
+
|
| 157 |
+
|
| 158 |
+
http://127.0.0.1:8080/
|
| 159 |
+
|
| 160 |
+
|
| 161 |
+
---
|
| 162 |
+
|
| 163 |
+
Step 7: GPU یا CPU موڈ
|
| 164 |
+
|
| 165 |
+
Default GPU استعمال ہوتا ہے:
|
| 166 |
+
|
| 167 |
+
|
| 168 |
+
--n-gpu-layers 999
|
| 169 |
+
|
| 170 |
+
اگر CPU پر چلانا ہو تو 0 لکھیں:
|
| 171 |
+
|
| 172 |
+
|
| 173 |
+
--n-gpu-layers 0
|
| 174 |
+
|
| 175 |
+
|
| 176 |
+
---
|
| 177 |
+
|
| 178 |
+
✅ اب آپ کا Run.bat بالکل تیار ہے۔
|
| 179 |
+
یہ ہمیشہ ماڈل لسٹ دکھائے گا اور server صحیح طریقے سے چلائے گا۔
|
| 180 |
+
|
| 181 |
+
|
| 182 |
+
|
| 183 |
+
|
| 184 |
+
|
| 185 |
+
|
| 186 |
+
|
| 187 |
+
|
| 188 |
+
|
| 189 |
+
|
| 190 |
+
|
| 191 |
+
|
| 192 |
+
|
| 193 |
+
|
| 194 |
+
|
| 195 |
+
|
| 196 |
+
|
| 197 |
+
|
| 198 |
+
|
| 199 |
+
|
| 200 |
+
|
| 201 |
+
|
| 202 |
+
|
| 203 |
+
run.bat
|
| 204 |
+
|
| 205 |
+
|
| 206 |
+
|
| 207 |
+
|
| 208 |
+
@echo off
|
| 209 |
+
Title 🦙 Llama.cpp Local Server - GPU + Model Selector + Auto Chrome
|
| 210 |
+
|
| 211 |
+
REM --- PATH SETTINGS ---
|
| 212 |
+
SET BASE_DIR=D:\Flie\llama.cpp
|
| 213 |
+
SET MODELS_DIR=%BASE_DIR%\models
|
| 214 |
+
SET SERVER_EXE=%BASE_DIR%\llama-server.exe
|
| 215 |
+
|
| 216 |
+
REM --- SERVER SETTINGS ---
|
| 217 |
+
SET HOST_IP=0.0.0.0
|
| 218 |
+
SET PORT=8080
|
| 219 |
+
SET GPU_LAYERS=999
|
| 220 |
+
SET CONTEXT_SIZE=4096
|
| 221 |
+
|
| 222 |
+
echo ============================================
|
| 223 |
+
echo 🦙 Llama.cpp Local Server - Model Selector
|
| 224 |
+
echo ============================================
|
| 225 |
+
echo.
|
| 226 |
+
echo Available Models in: %MODELS_DIR%
|
| 227 |
+
echo.
|
| 228 |
+
|
| 229 |
+
REM --- LIST ALL MODELS ---
|
| 230 |
+
SETLOCAL ENABLEDELAYEDEXPANSION
|
| 231 |
+
SET COUNT=0
|
| 232 |
+
for %%f in ("%MODELS_DIR%\*.gguf") do (
|
| 233 |
+
SET /A COUNT+=1
|
| 234 |
+
echo !COUNT!. %%~nxf
|
| 235 |
+
SET "MODEL[!COUNT!]=%%~nxf"
|
| 236 |
+
)
|
| 237 |
+
|
| 238 |
+
echo.
|
| 239 |
+
set /p choice=Enter the model number to load:
|
| 240 |
+
|
| 241 |
+
IF "%choice%"=="" (
|
| 242 |
+
echo No selection made. Exiting...
|
| 243 |
+
pause
|
| 244 |
+
exit /b
|
| 245 |
+
)
|
| 246 |
+
|
| 247 |
+
SET SELECTED_MODEL=!MODEL[%choice%]!
|
| 248 |
+
echo.
|
| 249 |
+
echo ✅ Selected model: %SELECTED_MODEL%
|
| 250 |
+
echo ---------------------------------------------
|
| 251 |
+
|
| 252 |
+
SET MODEL_PATH="%MODELS_DIR%\%SELECTED_MODEL%"
|
| 253 |
+
|
| 254 |
+
echo Starting llama-server with %SELECTED_MODEL% on GPU...
|
| 255 |
+
echo.
|
| 256 |
+
|
| 257 |
+
REM --- START SERVER ---
|
| 258 |
+
start "" "%SERVER_EXE%" --n-gpu-layers %GPU_LAYERS% --ctx-size %CONTEXT_SIZE% --port %PORT% --host %HOST_IP% -m %MODEL_PATH%
|
| 259 |
+
|
| 260 |
+
REM --- OPEN CHROME AUTOMATICALLY ---
|
| 261 |
+
timeout /t 2 >nul
|
| 262 |
+
start "" chrome http://127.0.0.1:%PORT%/
|
| 263 |
+
|
| 264 |
+
echo.
|
| 265 |
+
echo 🦙 Server started. Browser should open automatically.
|
| 266 |
+
pause
|
| 267 |
+
|