nzgnzg73 commited on
Commit
601055b
·
verified ·
1 Parent(s): 92c153b

Delete run_bat Edit tutorial.txt

Browse files
Files changed (1) hide show
  1. run_bat Edit tutorial.txt +0 -267
run_bat Edit tutorial.txt DELETED
@@ -1,267 +0,0 @@
1
- chatgpt:= https://chatgpt.com/share/69141b4b-3448-800e-87ef-fb83c51228e9
2
-
3
- https://chatgpt.com/share/69141b4b-3448-800e-87ef-fb83c51228e9
4
-
5
-
6
-
7
-
8
-
9
- Tutorial: How to Edit Run.bat for Llama.cpp Local Server
10
-
11
- Step 1: Locate the Run.bat File
12
-
13
- Go to the folder where you downloaded Llama.cpp.
14
-
15
- Example path:
16
-
17
-
18
- D:\Flie\llama.cpp
19
-
20
- You will see Run.bat inside this folder.
21
-
22
-
23
- Step 2: Open Run.bat for Editing
24
-
25
- Right-click Run.bat → Choose Edit or Open with Notepad.
26
-
27
- This will open the batch file and you can see the code inside.
28
-
29
-
30
- Step 3: Edit the Base Directory
31
-
32
- Look for the line that defines the BASE_DIR.
33
-
34
- Example:
35
-
36
-
37
- SET BASE_DIR=D:\Flie\llama.cpp
38
-
39
- Replace D:\Flie\llama.cpp with your own Llama.cpp folder location if it’s different.
40
-
41
-
42
- Step 4: Check Models Folder
43
-
44
- Make sure you have a models folder inside your base folder.
45
-
46
- Place all your .gguf model files inside this folder.
47
-
48
- The batch file line should look like:
49
-
50
-
51
- SET MODELS_DIR=%BASE_DIR%\models
52
-
53
- Step 5: Save the File
54
-
55
- After editing the path, click File → Save in Notepad.
56
-
57
- Close Notepad.
58
-
59
-
60
- Step 6: Run the File
61
-
62
- Double-click Run.bat.
63
-
64
- You will see a list of models with numbers.
65
-
66
- Type the number of the model you want to run and press Enter.
67
-
68
- The server will start and automatically open the browser at:
69
-
70
-
71
- http://127.0.0.1:8080/
72
-
73
-
74
- ---
75
-
76
- Step 7: Optional GPU/CPU Settings
77
-
78
- The batch file uses GPU by default:
79
-
80
-
81
- --n-gpu-layers 999
82
-
83
- If you want CPU only, edit the line in Run.bat like this:
84
-
85
-
86
- --n-gpu-layers 0
87
-
88
-
89
- ---
90
-
91
- ✅ Now your Run.bat is ready and will always show your models and run the server correctly.
92
-
93
-
94
- ---
95
-
96
- ٹیوٹوریل: Run.bat کو ایڈٹ کرنا اور ماڈل فولڈر لوکیشن دینا (اردو)
97
-
98
- Step 1: Run.bat فائل تلاش کریں
99
-
100
- وہ فولڈر کھولیں جہاں آپ نے Llama.cpp رکھا ہوا ہے۔
101
-
102
- مثال:
103
-
104
-
105
- D:\Flie\llama.cpp
106
-
107
- یہاں آپ کو Run.bat نظر آئے گا۔
108
-
109
-
110
- Step 2: Run.bat کھولیں
111
-
112
- Run.bat پر Right-click → Edit یا Open with Notepad کریں۔
113
-
114
- Notepad میں فائل کھل جائے گی اور آپ کو کوڈ نظر آئے گا۔
115
-
116
-
117
- Step 3: Base Directory ایڈٹ کریں
118
-
119
- وہ لائن تلاش کریں جو BASE_DIR define کرتی ہے۔
120
-
121
- مثال:
122
-
123
-
124
- SET BASE_DIR=D:\Flie\llama.cpp
125
-
126
- اگر آپ نے Llama.cpp کسی اور فولڈر میں رکھا ہے تو اس کا path یہاں دیں۔
127
-
128
-
129
- Step 4: Models فولڈر چیک کریں
130
-
131
- یقین کریں کہ base folder میں models فولڈر موجود ہے۔
132
-
133
- اپنے تمام .gguf ماڈلز اس میں رکھیں۔
134
-
135
- Batch فائل میں یہ لائن اس طرح ہونی چاہیے:
136
-
137
-
138
- SET MODELS_DIR=%BASE_DIR%\models
139
-
140
- Step 5: فائل Save کریں
141
-
142
- Notepad میں File → Save کریں۔
143
-
144
- Notepad بند کر دیں۔
145
-
146
-
147
- Step 6: Run کریں
148
-
149
- Run.bat پر Double-click کریں۔
150
-
151
- ماڈلز کی لسٹ نمبر کے ساتھ دکھائی دے گی۔
152
-
153
- جس ماڈل کو چلانا ہے اس کا نمبر لکھیں اور Enter دبائیں۔
154
-
155
- Server start ہو جائے گا اور browser خود بخود کھلے گا:
156
-
157
-
158
- http://127.0.0.1:8080/
159
-
160
-
161
- ---
162
-
163
- Step 7: GPU یا CPU موڈ
164
-
165
- Default GPU استعمال ہوتا ہے:
166
-
167
-
168
- --n-gpu-layers 999
169
-
170
- اگر CPU پر چلانا ہو تو 0 لکھیں:
171
-
172
-
173
- --n-gpu-layers 0
174
-
175
-
176
- ---
177
-
178
- ✅ اب آپ کا Run.bat بالکل تیار ہے۔
179
- یہ ہمیشہ ماڈل لسٹ دکھائے گا اور server صحیح طریقے سے چلائے گا۔
180
-
181
-
182
-
183
-
184
-
185
-
186
-
187
-
188
-
189
-
190
-
191
-
192
-
193
-
194
-
195
-
196
-
197
-
198
-
199
-
200
-
201
-
202
-
203
- run.bat
204
-
205
-
206
-
207
-
208
- @echo off
209
- Title 🦙 Llama.cpp Local Server - GPU + Model Selector + Auto Chrome
210
-
211
- REM --- PATH SETTINGS ---
212
- SET BASE_DIR=D:\Flie\llama.cpp
213
- SET MODELS_DIR=%BASE_DIR%\models
214
- SET SERVER_EXE=%BASE_DIR%\llama-server.exe
215
-
216
- REM --- SERVER SETTINGS ---
217
- SET HOST_IP=0.0.0.0
218
- SET PORT=8080
219
- SET GPU_LAYERS=999
220
- SET CONTEXT_SIZE=4096
221
-
222
- echo ============================================
223
- echo 🦙 Llama.cpp Local Server - Model Selector
224
- echo ============================================
225
- echo.
226
- echo Available Models in: %MODELS_DIR%
227
- echo.
228
-
229
- REM --- LIST ALL MODELS ---
230
- SETLOCAL ENABLEDELAYEDEXPANSION
231
- SET COUNT=0
232
- for %%f in ("%MODELS_DIR%\*.gguf") do (
233
- SET /A COUNT+=1
234
- echo !COUNT!. %%~nxf
235
- SET "MODEL[!COUNT!]=%%~nxf"
236
- )
237
-
238
- echo.
239
- set /p choice=Enter the model number to load:
240
-
241
- IF "%choice%"=="" (
242
- echo No selection made. Exiting...
243
- pause
244
- exit /b
245
- )
246
-
247
- SET SELECTED_MODEL=!MODEL[%choice%]!
248
- echo.
249
- echo ✅ Selected model: %SELECTED_MODEL%
250
- echo ---------------------------------------------
251
-
252
- SET MODEL_PATH="%MODELS_DIR%\%SELECTED_MODEL%"
253
-
254
- echo Starting llama-server with %SELECTED_MODEL% on GPU...
255
- echo.
256
-
257
- REM --- START SERVER ---
258
- start "" "%SERVER_EXE%" --n-gpu-layers %GPU_LAYERS% --ctx-size %CONTEXT_SIZE% --port %PORT% --host %HOST_IP% -m %MODEL_PATH%
259
-
260
- REM --- OPEN CHROME AUTOMATICALLY ---
261
- timeout /t 2 >nul
262
- start "" chrome http://127.0.0.1:%PORT%/
263
-
264
- echo.
265
- echo 🦙 Server started. Browser should open automatically.
266
- pause
267
-