Llama-3.1-8B-Thinking-Distill-R1-GGUF

模型简介

本模型基于 meta-llama/Llama-3.1-8B 进行微调训练,使用满血版 DeepSeek-R1 蒸馏的中文数据集进行训练,使模型具备深度思考(Thinking)能力,同时显著提升了中文理解和推理能力。

主要特点

  • 🧠 深度思考模式:相较于原版 Llama-3.1-8B,新增了深度思考能力,能够进行更复杂的推理
  • 🇨🇳 中文能力增强:通过中文蒸馏数据集训练,大幅提升中文理解和生成能力
  • 💾 轻量化部署:Q4_K_M 量化版本,内存占用极小,适合本地部署
  • 高效训练:使用 Unsloth 实现 2 倍训练加速

训练数据

训练集和验证集使用 Congliu/Chinese-DeepSeek-R1-Distill-data-110k,这是一个开源的中文 DeepSeek-R1 蒸馏数据集。

数据分布

类别 样本数量 说明
Math 36,568 数学推理题目
Exam 2,432 考试题目
STEM 12,648 科学、技术、工程、数学相关
General 58,352 包含弱智吧、逻辑推理、小红书、知乎、Chat 等多样化内容
总计 110,000 -

使用方法

llama.cpp

文本生成:

./llama.cpp/llama-cli -hf suyu-io/Llama-3.1-8B-Thinking-Distill-R1-GGUF --jinja

多模态模型:

./llama.cpp/llama-mtmd-cli -hf suyu-io/Llama-3.1-8B-Thinking-Distill-R1-GGUF --jinja

Ollama

本仓库包含 Ollama Modelfile,可直接用于部署。

可用模型文件

文件名 量化方式 说明
Meta-Llama-3.1-8B-Instruct.Q4_K_M.gguf Q4_K_M 4-bit 量化,平衡质量与大小

模型信息

适用场景

  • 中文问答与对话
  • 数学推理与计算
  • 逻辑推理任务
  • STEM 领域问题解答
  • 通用中文文本生成

致谢

Downloads last month
79
GGUF
Model size
8B params
Architecture
llama
Hardware compatibility
Log In to add your hardware

4-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for suyu-io/Llama-3.1-8B-Thinking-Distill-R1-GGUF

Quantized
(308)
this model

Dataset used to train suyu-io/Llama-3.1-8B-Thinking-Distill-R1-GGUF