AI & ML interests
Pioneering the first Native Chain-of-Thought (CoT) models specialized for ACGN and Light Novel translation. We redefine literary translation by integrating System 2 reasoning to solve ultra-long context consistency and capture complex narrative nuances. The first logic-driven architecture for immersive reading. Creators of the Murasaki-ACGN Benchmark.
Recent Activity
🌌 Our Vision (愿景)
Murasaki Project 致力于探索大语言模型在 垂直领域文学翻译 中的极限。
翻译不仅仅是语言的转换,更是意境的重构。传统的直觉式(System 1)模型难以处理轻小说中复杂的长距离伏笔、细腻的人物语气和频繁的人称省略和转换。
我们提出了 System 2 Translation Paradigm —— 通过引入显式思维链(Chain-of-Thought),让模型像人类资深译者一样:
(先阅读语境 -> 分析语境 -> 落笔翻译)
这种机制精准解决了 ACGN 翻译中"主语省略"、"人称混淆"及"风格漂移"的三大难题。
🏆 Benchmark Performance
在 Murasaki-ACGN Benchmark 的综合评测中,Murasaki-14B-v0.2 取得了总分第一,Murasaki-8B 在8B的小参数下取得了总分第二和第三(均为4-bit量化版本评测得出)
| Rank | Model | Overall Avg | Short | Long |
|---|---|---|---|---|
| 🥇 | Murasaki-14B-v0.2 | 0.8545 | 0.8289 | 0.8801 |
| 🥈 | Murasaki-8B-v0.1 | 0.8523 | 0.8269 | 0.8778 |
| 🥉 | Murasaki-8B-v0.2 | 0.8522 | 0.8271 | 0.8773 |
| 4 | Gemini-3-Flash-Preview | 0.8512 | 0.8262 | 0.8765 |
| 5 | Sakura-Qwen-2.5-14B | 0.8509 | 0.8282 | 0.8735 |
🧬 Model Matrix (模型矩阵)
✨ Now Live: 无需下载模型,点击 Online Demo 在线体验模型。
| Model Name | Type | Size | VRAM (Est.) | Description |
|---|---|---|---|---|
| Murasaki-14B-v0.2 | BF16 | ~28GB | 32GB+ | 旗舰版。全精度权重,最佳性能。 |
| Murasaki-14B-v0.2-GGUF | GGUF | 6.4~12GB | 12GB+ | 进阶本地版。适合大显存用户。 |
| Murasaki-8B-v0.2 | BF16 | ~16GB | 24GB+ | 标准版。全精度权重,均衡之选。 |
| Murasaki-8B-v0.2-GGUF | GGUF | 3.6~6.3GB | 6GB+ | 推荐/轻量版。兼容性最强,适合大多数显卡。 |
🛠️ Ecosystem (生态系统)
我们为模型提供了完整的工具链以降低使用门槛:
* 为Murasaki系列模型设计和优化的开箱即用的轻量级高性能翻译工具。
* 首个专注于长文本逻辑连贯性的ACGN翻译评测集。
🤝 Credits & License
Murasaki 系列模型基于 SakuraLLM -(Qwen-3)-Base 微调。 我们严格遵守开源协议,所有模型权重均采用 CC BY-NC-SA 4.0 许可。
- Special thanks to the SakuraLLM team for their foundational work in the ACGN domain.
- Powered by Qwen architecture.
Made with 💜 by the Murasaki Team