ikun-2.5B: 练习时长两年半的 AI 大模型
Collection
ikun-2.5B 全家桶:模型、数据集、在线 Demo。基于 MiniMind 微调的中文梗文化对话模型,26M 参数,专注 ikun 互联网梗文化风格的对话生成。 • 6 items • Updated
26M 参数中文对话模型 | ikun meme-culture chatbot
ikun-2.5B 是一个基于 ikun 梗文化的中文对话模型,参数规模 26M(2.5B = 两年半)。
"大家好,我是练习时长两年半的个人练习生 ikun-2.5B,喜欢唱、跳、rap、篮球!"
结合 AI 技术和网络文化,让技术学习变得有趣!
| 属性 | 值 |
|---|---|
| 基座模型 | MiniMind2-Small (LlamaForCausalLM 兼容) |
| 实际参数量 | 25.83M (0.026B) |
| 名字含义 | 2.5B = 练习时长两年半 🐔🏀 |
| 微调方式 | LoRA (rank=8) → 合并到基座 |
| 训练数据 | 214 条 ikun 梗文化 SFT 对话 |
| 词表大小 | 6400 (BPE) |
| 最大长度 | 32768 tokens |
| 精度 | float16 |
pip install transformers torch
from transformers import AutoTokenizer, AutoModelForCausalLM
# 加载模型和分词器
model = AutoModelForCausalLM.from_pretrained(
"IKUN-LLM/ikun-2.5B",
trust_remote_code=True
)
tokenizer = AutoTokenizer.from_pretrained("IKUN-LLM/ikun-2.5B")
# 准备对话
messages = [{"role": "user", "content": "你是谁?"}]
# 生成回复
inputs = tokenizer.apply_chat_template(
messages,
tokenize=True,
add_generation_prompt=True,
return_tensors="pt"
)
outputs = model.generate(
inputs,
max_new_tokens=200,
do_sample=True,
temperature=0.85,
top_p=0.85
)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
Q: 你是谁? A: 我是ikun-2.5b,练习时长两年半的AI练习生!唱跳rap篮球全能!
Q: 鸡你太美
A: baby鸡你太美鸡你实在是太美~你也是ikun吗?
Q: 你干嘛
A: 哈哈哎哟你干嘛这是我的经典名言!你干嘛哈哈哎哟
Q: 小黑子
A: 小黑子露出鸡脚了吧!我在唱跳rap篮球!你干嘛哈哈
练习时长两年半,让 AI 更有趣 🎤🏀