🔗 Link-270M-GGUF

Model Size Format Quantized Framework Status Maintained

Link-270M é um modelo de linguagem leve e eficiente, desenvolvido pela LambdaXi Corp, ideal para execução local, dispositivos com poucos recursos e pipelines baseados em GGUF.

Este repositório funciona como um hub único contendo todas as quantizações oficiais do modelo Link-270M, prontas para uso imediato.


📦 Modelos Disponíveis

Quantização Bits Arquivo
IQ4_NL 4-bit link1-270m-iq4_nl.gguf
Q4_K_M 4-bit link1-270m-q4_k_m.gguf
Q8_0 8-bit link1-270m-q8_0.gguf

📌 Todos os arquivos seguem o padrão GGUF oficial e são compatíveis com llama.cpp.


🧠 Sobre o Modelo

  • Nome: Link-270M
  • Parâmetros: ~270 milhões
  • Arquitetura: Causal Language Model
  • Contexto máximo: 32K tokens
  • Foco: velocidade, eficiência e execução local
  • Formato: GGUF

Projetado para ser rápido, direto e altamente utilizável em ambientes restritos.


🚀 Como Usar

llama.cpp (CLI)

llama -m link1-270m-q4_k_m.gguf -p "Olá, quem é você?"

LM Studio

  1. Abra o LM Studio
  2. Importe o arquivo .gguf
  3. Selecione o modelo
  4. Gere texto normalmente

text-generation-webui

  • Coloque o .gguf na pasta de modelos
  • Inicie o webui
  • Selecione Link-270M

⚙️ Configurações Recomendadas

Parâmetro Valor
temperature 0.7 – 1.0
top_k 40 – 64
top_p 0.85 – 0.95
repeat_penalty 1.1

Ajuste conforme o caso de uso (chat, código, texto criativo).


⚠️ Limitações Conhecidas

  • Modelo pequeno → menor profundidade que LLMs grandes
  • Pode alucinar em tarefas altamente técnicas
  • Melhor desempenho com prompts claros e objetivos

🧩 Compatibilidade

✔ llama.cpp
✔ LM Studio
✔ text-generation-webui
✔ KoboldCPP
✔ Qualquer runtime compatível com GGUF


🏷️ Identidade do Modelo

Nome: Link
Criador: LambdaXi Corp
Responsável: Marius Jabami

Link é um modelo independente, projetado para execução local e uso livre.


📚 Citação

@misc{link270m_2026,
  title={Link 270M GGUF},
  author={LambdaXi Corp},
  year={2026},
  howpublished={Hugging Face},
  note={https://huggingface.co/lxcorp/Link-270M-GGUF}
}

❤️ Agradecimentos

Obrigado por usar Link-270M-GGUF.
Este repositório existe para centralizar todas as quantizações oficiais em um único lugar.

Desenvolvido com foco em liberdade, eficiência e execução local.

Downloads last month
114
GGUF
Model size
0.3B params
Architecture
gemma3
Hardware compatibility
Log In to add your hardware

4-bit

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Space using lxcorp/Link-270M-GGUF 1