How to use from the
Use from the
llama-cpp-python library
# !pip install llama-cpp-python

from llama_cpp import Llama

llm = Llama.from_pretrained(
	repo_id="Iamgm/magic-paste-gemma-3n-4b",
	filename="",
)
llm.create_chat_completion(
	messages = [
		{
			"role": "user",
			"content": "What is the capital of France?"
		}
	]
)

Magic Paste (Gemma 3n 4B LoRa Fine-Tuned)

Это GGUF-квантованная (Q4_K_M) версия модели Gemma 3n 4B, дообученная (LoRa) для задачи голосового управления текстом.

Используется в проекте: magic-paste

Файлы:

  • gemma_3n_q4_k_m.gguf: Основная модель (Text/Chat).
  • mmproj_gemma_3n_f16.gguf: Аудио-проектор для Native ASR (Экспериментально / Требует поддержки в backend).

Как использовать (Python):

Модель оптимизирована для запуска через llama-server.exe или llama-cpp-python.

Downloads last month
2
GGUF
Model size
7B params
Architecture
gemma3n
Hardware compatibility
Log In to add your hardware

4-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support