fine-tuning of the base LLM model with politic speaches from the website kremlin.ru, converted into GGUF, quantized as Q4KM

github

https://github.com/mazurkin/ptn

llama.cpp

Download the ptn-8B-q4km.gguf file

Run the local command line chat:

llama-cli \
    --temp 0.5 \
    --ctx-size 2048 \
    --repeat-penalty 1.2 \
    --repeat-last-n 256 \
    --frequency-penalty 0.5 \
    --presence-penalty 0.5 \
    --model "ptn-8B-q4km.gguf"

As alternative run the local web-server chat:

llama-server \
    --temp 0.5 \
    --ctx-size 2048 \
    --repeat-penalty 1.2 \
    --repeat-last-n 256 \
    --frequency-penalty 0.5 \
    --presence-penalty 0.5 \
    --host 127.0.0.1 \
    --port 8080 \
    --model "ptn-8B-q4km.gguf"

ollama

Download the ptn-8B-q4km.gguf file and the ptn-8B-q4km.ollama file

Create a local model first:

ollama create ptn-8B-q4km -f ./ptn-8B-q4km.ollama

Run the model:

ollama run ptn-8B-q4km

example

Q: как лучше всего пропатчить KDE под FreeBSD?

A: Не знаю, не могу вам сказать. Это очень специальные вещи и вопросы: как правильно настроить то или другое программное обеспечение на той либо иной платформе – это уже специалисты должны заниматься конкретно этим продуктом в данной операционной системе.

Downloads last month
234
GGUF
Model size
8B params
Architecture
llama
Hardware compatibility
Log In to add your hardware

We're not able to determine the quantization variants.

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for mazurkin/ptn-GGUF

Quantized
(14)
this model