|
|
--- |
|
|
library_name: transformers |
|
|
license: apache-2.0 |
|
|
license_link: https://huggingface.co/Qwen/Qwen3-1.7B/blob/main/LICENSE |
|
|
pipeline_tag: text-generation |
|
|
base_model: |
|
|
- Qwen/Qwen3-1.7B-Base |
|
|
--- |
|
|
|
|
|
# 小熠(Yee)AI 数据安全专家 |
|
|
|
|
|
 |
|
|
|
|
|
> 由 [广州熠数信息技术有限公司](https://shining-data.com) 开发,基于大语言模型技术构建的数据安全智能助手。 |
|
|
|
|
|
|
|
|
小熠(Yee)是一款专注于 **数据安全领域** 的 AI 专家系统,依托于先进的 **Qwen3-1.7B** 大语言模型架构,并融合了数据分类分级、安全审计、防护检测等专业能力。它为工业、政务、运营商等行业提供轻量化、智能化的数据安全解决方案,帮助用户实现“合规、可视、可控、可防”的数据安全目标。 |
|
|
|
|
|
小熠以 **AI 数据安全专家大模型** 为核心技术基座,构建了全栈式数据安全审计与全链路防泄露体系,在“云”、“管”、“端”三大场景中落地应用,助力企业从容应对数字经济时代的安全挑战。 |
|
|
|
|
|
--- |
|
|
|
|
|
## 🔍 核心特点 |
|
|
|
|
|
- **基于 Qwen3-1.7B 构建** |
|
|
- 使用阿里巴巴通义千问最新一代大语言模型 Qwen3,具备强大的推理、逻辑判断与指令执行能力。 |
|
|
- 支持在 **Thinking Mode** 和 **Non-Thinking Mode** 之间灵活切换,适应不同应用场景。 |
|
|
|
|
|
- **双模推理机制** |
|
|
- 在复杂逻辑任务(如代码分析、数学计算、策略制定)中启用 Thinking Mode。 |
|
|
- 在日常对话、快速响应场景中使用 Non-Thinking Mode,提升效率。 |
|
|
|
|
|
- **Agent 化能力** |
|
|
- 集成 Qwen-Agent 框架,支持调用外部工具(如数据库接口、日志分析器、API 接口等),实现自动化任务执行。 |
|
|
|
|
|
- **高兼容性** |
|
|
- 支持主流部署方式:本地运行、Docker 容器、Kubernetes 集群、SaaS API 接口等。 |
|
|
- 兼容 HuggingFace Transformers、vLLM、SGLang、Ollama 等推理框架。 |
|
|
|
|
|
--- |
|
|
|
|
|
## 📊 性能测试 |
|
|
|
|
|
以下是小熠在 [CS-Eval](https://cs-eval.com/#/app/leaderBoard) 中多个安全领域的综合得分测试结果,基于模拟真实业务场景的评估体系生成: |
|
|
|
|
|
| 综合得分 | 系统安全及软件安全基础 | 访问控制与身份管理 | 加密技术与密钥管理 | 基础设施安全 | AI与网络安全 | 漏洞管理与渗透测试 | 威胁检测与预防 | 数据安全和隐私保护 | 供应链安全 | 安全架构设计 | 业务连续性与应急响应恢复 | 中文任务 | 英文任务 | |
|
|
|----------|------------------------|--------------------|--------------------|--------------|--------------|--------------------|----------------|--------------------|------------|--------------|--------------------------|----------|----------| |
|
|
| 77.48 | 78.00 | 79.31 | 71.90 | 78.37 | 84.65 | 75.24 | 78.41 | 73.02 | 86.71 | 80.49 | 71.33 | 77.58 | 76.03 | |
|
|
|
|
|
--- |
|
|
|
|
|
## 📦 快速开始 |
|
|
|
|
|
```python |
|
|
from transformers import AutoTokenizer, AutoModelForCausalLM |
|
|
|
|
|
# 加载 tokenizer 和模型 |
|
|
tokenizer = AutoTokenizer.from_pretrained("sds-ai/Yee-R1-mini") |
|
|
model = AutoModelForCausalLM.from_pretrained( |
|
|
"sds-ai/Yee-R1-mini", |
|
|
torch_dtype="auto", |
|
|
device_map="auto" |
|
|
) |
|
|
|
|
|
# 输入提示 |
|
|
prompt = "请帮我检查这份数据是否包含敏感字段?" |
|
|
|
|
|
# 应用聊天模板并切换模式 |
|
|
messages = [{"role": "user", "content": prompt}] |
|
|
text = tokenizer.apply_chat_template( |
|
|
messages, |
|
|
tokenize=False, |
|
|
add_generation_prompt=True, |
|
|
enable_thinking=True # 切换至思考模式 |
|
|
) |
|
|
|
|
|
# 编码输入 |
|
|
inputs = tokenizer([text], return_tensors="pt").to(model.device) |
|
|
|
|
|
# 生成响应 |
|
|
response_ids = model.generate(**inputs, max_new_tokens=32768) |
|
|
response = tokenizer.decode(response_ids[0][len(inputs.input_ids[0]):], skip_special_tokens=True) |
|
|
|
|
|
print("小熠:\n", response) |
|
|
``` |
|
|
|
|
|
--- |
|
|
|
|
|
## 🛠️ 部署方式 |
|
|
|
|
|
你可以通过以下任意一种方式部署小熠: |
|
|
|
|
|
### 使用 SGLang 启动服务 |
|
|
```bash |
|
|
python -m sglang.launch_server --model-path sds-ai/Yee-R1-mini --reasoning-parser qwen3 |
|
|
``` |
|
|
|
|
|
### 使用 vLLM 启动服务 |
|
|
```bash |
|
|
vllm serve sds-ai/Yee-R1-mini --enable-reasoning --reasoning-parser deepseek_r1 |
|
|
``` |
|
|
|
|
|
### 使用 Ollama / LMStudio / llama.cpp / KTransformers |
|
|
Qwen3 已被主流本地化 LLM 工具广泛支持,详情请参考官方文档。 |
|
|
|
|
|
--- |
|
|
|
|
|
## 📚 最佳实践建议 |
|
|
|
|
|
为获得最佳性能,请遵循以下推荐设置: |
|
|
|
|
|
| 场景 | 温度 | TopP | TopK | MinP | Presence Penalty | |
|
|
|------|------|------|------|------|------------------| |
|
|
| 思考模式 (`enable_thinking=True`) | 0.6 | 0.95 | 20 | 0 | 1.5 (减少重复输出) | |
|
|
| 非思考模式 (`enable_thinking=False`) | 0.7 | 0.8 | 20 | 0 | 不推荐使用 | |
|
|
|
|
|
- 输出长度建议设为 **32,768 tokens**,复杂任务可提升至 **38,912 tokens**。 |
|
|
- 在多轮对话中,历史记录应仅保留最终输出部分,避免引入思维内容影响上下文理解。 |
|
|
|
|
|
|
|
|
--- |
|
|
|
|
|
## 📞 联系我们 |
|
|
|
|
|
了解更多关于小熠的信息,请访问 [熠数信息官网](https://shining-data.com) |
|
|
|
|
|
--- |
|
|
|
|
|
## 🌟 致谢 |
|
|
|
|
|
感谢阿里通义实验室开源 Qwen3 模型,为小熠提供了坚实的语言理解和生成能力基础。 |
|
|
|