ScienceOne-AI commited on
Commit
93d1150
·
verified ·
1 Parent(s): 73a9baf

Create README_zh.md

Browse files
Files changed (1) hide show
  1. README_zh.md +70 -0
README_zh.md ADDED
@@ -0,0 +1,70 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ ---
4
+
5
+ # S1-Base-1.5-32B-128K
6
+
7
+ [中文版](./README_zh.md) | [English](./README.md)
8
+
9
+ ## 模型介绍
10
+
11
+ 本仓库为磐石 S1-Base-1.5-32B-128K 通用科学大语言模型,基于磐石科学基础大模型 [S1-Base](https://huggingface.co/collections/ScienceOne-AI/s1-base) 经过后训练(SFT+GRPO)训练而来,该模型在保持模型科学推理能力的情况下,重点提升模型的超长上下文理解和推理能力,以及科研场景下的复杂指令遵循能力,本系列模型上下文长度为 128k。
12
+
13
+ ## 模型权重
14
+
15
+ S1-Base-1.5-32B-128K 模型以 Apache 2.0 协议开源,您可以在我们的 [Huggingface](https://huggingface.co/ScienceOne-AI/S1-Base-1.5-32B-128K) 或 [ModelScope](https://modelscope.cn/models/ScienceOne-AI/S1-Base-1.5-32B-128K) 下载模型权重。
16
+
17
+ | 模型名称 | Huggingface地址 | ModelScope地址 |
18
+ |-------------|-------------------------------------|-------------------------------------|
19
+ |S1-Base-1.5-32B-128K | [点击下载](https://huggingface.co/ScienceOne-AI/S1-Base-1.5-32B-128K) | [点击下载](https://modelscope.cn/models/ScienceOne-AI/S1-Base-1.5-32B-128K) |
20
+
21
+ ## 模型评测
22
+
23
+ 为全面验证 S1-Base-1.5-32B-128K 的综合能力,我们针对模型的超长上下文能力、指令遵循能力、科学推理能力等三大核心能力进行了系统性评测,并与同参数量级开源模型进行对比,结果如下表所示。
24
+
25
+ | 评测集 | S1-Base-1.5-32B-128K | S1-Base-32B | Qwen3-32B | GLM-Z1-32B-0414 |
26
+ |---|---|---|---|---|
27
+ | CLongEval | **52.95** | 44.97 | 47.71 | 32.11 |
28
+ | InfiniteBench | **40.76** | 37.54 | 40.14 | 30.45 |
29
+ | IFEval | **86.88** | 76.53 | 85.00 | 84.87 |
30
+ | GPQA | **70.77** | 69.44 | 66.04 | 55.81 |
31
+ | ChemBench | 62.30 | **63.60** | 61.81 | 55.85 |
32
+ | LLM-MSE | 88.61 | **91.26** | 88.50 | 80.97 |
33
+ | LAB bench | 36.18 | **41.52** | 34.45 | 29.89 |
34
+ | AIME2024 | **81.46** | 81.25 | 80.63 | 79.37 |
35
+ | AIME25 | **71.25** | 69.58 | 67.50 | 51.25 |
36
+
37
+ **主要亮点:**
38
+ - 📜 **长上下文推理能力提升**:模型在 CLongEval、InfiniteBench 等公开长文基准上领先基座及同等参数量模型,在面向论文、网页等真实场景的自建长文评测中提升显著。
39
+ - 🎯 **复杂指令遵循能力提升**:构建涵盖文档理解、结构化生成、信息抽取、图表理解四大类任务的科学文献指令遵循任务体系,并结合长度、格式、内容等多维度约束,模型在 IFEval 等基准保持领先。
40
+ - 🔬 **科学推理能力保持稳定**:模型在生物、物理、化学等综合科学能力评估基准 GPQA 优势显著,其他科学任务评估基准的性能未因上下文扩展而产生大幅波动,整体能力保持稳定。
41
+ - 👍 **用户赞踩反馈数据飞轮**:结合 [ScienceOne](https://scienceone.cn) 平台用户点赞与点踩反馈,持续优化模型在真实场景下的表现和用户体验。
42
+
43
+
44
+ ## 部署方式
45
+
46
+ 我们推荐使用 [vLLM](https://github.com/vllm-project/vllm) 部署 S1-Base,实现高效推理与 OpenAI 兼容的 API 服务。
47
+
48
+ **快速启动命令示例:**
49
+ ```bash
50
+ pip install vllm
51
+ vllm serve <your_s1_model_path> --served-model-name s1-base-1.5-32b-128k
52
+ ```
53
+ API 请求和响应格式与 OpenAI 基本一致,详细可参考 vLLM 官方文档。
54
+
55
+ **使用 OpenAI Python SDK 生成响应:**
56
+ ```python
57
+ from openai import OpenAI
58
+
59
+ client = OpenAI(base_url="http://localhost:8000/v1", api_key="")
60
+ resp = client.chat.completions.create(
61
+ model="s1-base-1.5-32b-128k",
62
+ messages=[{"role": "user", "content": "你好"}]
63
+ )
64
+ print(resp.choices[0].message.content)
65
+ ```
66
+
67
+ **使用 CURL 生成响应:**
68
+ ```bash
69
+ curl -X POST http://localhost:8000/v1/chat/completions -d '{"model": "s1-base-1.5-32b-128k", "messages":[{"role":"user", "content": "你好"}], "skip_special_tokens": false}' -H "Content-Type: application/json"
70
+ ```