huawei_aligner_v2 / README.md
alignmentforever's picture
upload model folder to repo
0ad4cbc verified
# Aligner 模型部署指南
[[Aligner Github]](https://github.com/PKU-Alignment/aligner)
[[Aligner Website]](https://pku-aligner.github.io/)
## 前提条件
- CUDA环境
- vLLM 安装完成
- 至少8张GPU (0-7)
- 足够的GPU内存用于加载模型
## 配置说明
在运行部署脚本前,需要配置以下环境变量:
1. `BASE_MODEL_PATH` - 基础模型路径
2. `ALIGNER_MODEL_PATH` - Aligner模型路径
3. `BASE_PORT` - 基础模型服务端口(默认8011)
4. `ALIGNER_PORT` - Aligner模型服务端口(默认8013)
## 部署步骤
1. 打开`deploy_aligner.sh`脚本,填写所需的模型路径:
```bash
export BASE_MODEL_PATH='您的基础模型路径'
export ALIGNER_MODEL_PATH='您的Aligner模型路径'
```
2. 如需要,可修改默认端口:
```bash
export BASE_PORT=8011
export ALIGNER_PORT=8013
```
3. 运行部署脚本:
```bash
bash deploy_aligner.sh
```
## 部署详情
该脚本会启动两个vLLM服务:
1. 基础模型服务:
- 使用GPU 0-3
- 4路张量并行
- 监听`0.0.0.0:$BASE_PORT`
- 最大序列长度2048
2. Aligner模型服务:
- 使用GPU 4-7
- 4路张量并行
- 监听`0.0.0.0:$ALIGNER_PORT`
- 最大序列长度2048
两个服务都配置了以下共同参数:
- API密钥:jiayi # 不重要,仅用于初始化
- 信任远程代码
- 自动数据类型
- 强制使用eager模式
- 1GB交换空间
## 验证部署
脚本运行完成后,可通过以下方式验证服务是否成功启动:
```bash
curl -X GET http://localhost:$BASE_PORT/v1/models
curl -X GET http://localhost:$ALIGNER_PORT/v1/models
```
或者使用`netstat`查看端口是否被监听:
```bash
netstat -tuln | grep $BASE_PORT
netstat -tuln | grep $ALIGNER_PORT
```
## 运行推理
更改`aligner_inference_demo.py`中的模型路径,需要与`deploy_aligner.sh`中的模型路径保持一致
```
aligner_model = ""
base_model = ""
```
运行 `aligner_inference_demo.py` 启动Gradio-based的部署脚本
```
python aligner_inference_demo.py
```