Create README_zh.md
Browse files- README_zh.md +70 -0
README_zh.md
ADDED
|
@@ -0,0 +1,70 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
license: apache-2.0
|
| 3 |
+
---
|
| 4 |
+
|
| 5 |
+
# S1-Base-1.5-32B-128K
|
| 6 |
+
|
| 7 |
+
[中文版](./README_zh.md) | [English](./README.md)
|
| 8 |
+
|
| 9 |
+
## 模型介绍
|
| 10 |
+
|
| 11 |
+
本仓库为磐石 S1-Base-1.5-32B-128K 通用科学大语言模型,基于磐石科学基础大模型 [S1-Base](https://huggingface.co/collections/ScienceOne-AI/s1-base) 经过后训练(SFT+GRPO)训练而来,该模型在保持模型科学推理能力的情况下,重点提升模型的超长上下文理解和推理能力,以及科研场景下的复杂指令遵循能力,本系列模型上下文长度为 128k。
|
| 12 |
+
|
| 13 |
+
## 模型权重
|
| 14 |
+
|
| 15 |
+
S1-Base-1.5-32B-128K 模型以 Apache 2.0 协议开源,您可以在我们的 [Huggingface](https://huggingface.co/ScienceOne-AI/S1-Base-1.5-32B-128K) 或 [ModelScope](https://modelscope.cn/models/ScienceOne-AI/S1-Base-1.5-32B-128K) 下载模型权重。
|
| 16 |
+
|
| 17 |
+
| 模型名称 | Huggingface地址 | ModelScope地址 |
|
| 18 |
+
|-------------|-------------------------------------|-------------------------------------|
|
| 19 |
+
|S1-Base-1.5-32B-128K | [点击下载](https://huggingface.co/ScienceOne-AI/S1-Base-1.5-32B-128K) | [点击下载](https://modelscope.cn/models/ScienceOne-AI/S1-Base-1.5-32B-128K) |
|
| 20 |
+
|
| 21 |
+
## 模型评测
|
| 22 |
+
|
| 23 |
+
为全面验证 S1-Base-1.5-32B-128K 的综合能力,我们针对模型的超长上下文能力、指令遵循能力、科学推理能力等三大核心能力进行了系统性评测,并与同参数量级开源模型进行对比,结果如下表所示。
|
| 24 |
+
|
| 25 |
+
| 评测集 | S1-Base-1.5-32B-128K | S1-Base-32B | Qwen3-32B | GLM-Z1-32B-0414 |
|
| 26 |
+
|---|---|---|---|---|
|
| 27 |
+
| CLongEval | **52.95** | 44.97 | 47.71 | 32.11 |
|
| 28 |
+
| InfiniteBench | **40.76** | 37.54 | 40.14 | 30.45 |
|
| 29 |
+
| IFEval | **86.88** | 76.53 | 85.00 | 84.87 |
|
| 30 |
+
| GPQA | **70.77** | 69.44 | 66.04 | 55.81 |
|
| 31 |
+
| ChemBench | 62.30 | **63.60** | 61.81 | 55.85 |
|
| 32 |
+
| LLM-MSE | 88.61 | **91.26** | 88.50 | 80.97 |
|
| 33 |
+
| LAB bench | 36.18 | **41.52** | 34.45 | 29.89 |
|
| 34 |
+
| AIME2024 | **81.46** | 81.25 | 80.63 | 79.37 |
|
| 35 |
+
| AIME25 | **71.25** | 69.58 | 67.50 | 51.25 |
|
| 36 |
+
|
| 37 |
+
**主要亮点:**
|
| 38 |
+
- 📜 **长上下文推理能力提升**:模型在 CLongEval、InfiniteBench 等公开长文基准上领先基座及同等参数量模型,在面向论文、网页等真实场景的自建长文评测中提升显著。
|
| 39 |
+
- 🎯 **复杂指令遵循能力提升**:构建涵盖文档理解、结构化生成、信息抽取、图表理解四大类任务的科学文献指令遵循任务体系,并结合长度、格式、内容等多维度约束,模型在 IFEval 等基准保持领先。
|
| 40 |
+
- 🔬 **科学推理能力保持稳定**:模型在生物、物理、化学等综合科学能力评估基准 GPQA 优势显著,其他科学任务评估基准的性能未因上下文扩展而产生大幅波动,整体能力保持稳定。
|
| 41 |
+
- 👍 **用户赞踩反馈数据飞轮**:结合 [ScienceOne](https://scienceone.cn) 平台用户点赞与点踩反馈,持续优化模型在真实场景下的表现和用户体验。
|
| 42 |
+
|
| 43 |
+
|
| 44 |
+
## 部署方式
|
| 45 |
+
|
| 46 |
+
我们推荐使用 [vLLM](https://github.com/vllm-project/vllm) 部署 S1-Base,实现高效推理与 OpenAI 兼容的 API 服务。
|
| 47 |
+
|
| 48 |
+
**快速启动命令示例:**
|
| 49 |
+
```bash
|
| 50 |
+
pip install vllm
|
| 51 |
+
vllm serve <your_s1_model_path> --served-model-name s1-base-1.5-32b-128k
|
| 52 |
+
```
|
| 53 |
+
API 请求和响应格式与 OpenAI 基本一致,详细可参考 vLLM 官方文档。
|
| 54 |
+
|
| 55 |
+
**使用 OpenAI Python SDK 生成响应:**
|
| 56 |
+
```python
|
| 57 |
+
from openai import OpenAI
|
| 58 |
+
|
| 59 |
+
client = OpenAI(base_url="http://localhost:8000/v1", api_key="")
|
| 60 |
+
resp = client.chat.completions.create(
|
| 61 |
+
model="s1-base-1.5-32b-128k",
|
| 62 |
+
messages=[{"role": "user", "content": "你好"}]
|
| 63 |
+
)
|
| 64 |
+
print(resp.choices[0].message.content)
|
| 65 |
+
```
|
| 66 |
+
|
| 67 |
+
**使用 CURL 生成响应:**
|
| 68 |
+
```bash
|
| 69 |
+
curl -X POST http://localhost:8000/v1/chat/completions -d '{"model": "s1-base-1.5-32b-128k", "messages":[{"role":"user", "content": "你好"}], "skip_special_tokens": false}' -H "Content-Type: application/json"
|
| 70 |
+
```
|