File size: 5,018 Bytes
71123b1 1688f96 71123b1 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 |
---
language:
- zh
- en
tags:
- VLM
- MLLM
---
# openPangu-VL-7B
中文 | [English](README_EN.md) | [技术报告](doc/technical_report.pdf)
## 1. 简介
openPangu-VL-7B 是基于昇腾 NPU ,基于openPangu-Embedded-7B-V1.1语言基模和openPangu-ViT-600M视觉编码器训练的高效多模态模型。openPangu-VL-7B 训练了约 3T tokens,具备通用视觉对话、文档理解、目标定位与计数、视频理解、视觉高阶推理等能力。该模型为快思考模型。
## 2. 模型架构
| | openPangu-VL-7B |
| :---------------------------: | :----------------: |
| **语言模型** | |
| Architecture | Dense |
| Parameters (Non-Embedding) | 7B |
| Number of Layers | 34 |
| Hidden Dimension | 12800 |
| Attention Mechanism | GQA |
| Number of Attention Heads | 32 for Q,8 for KV |
| Vocabulary Size | 153k |
| Context Length (Natively) | 128k |
| **视觉编码器** | |
| Architecture | 22 Window Attention + 4 Full Attention |
| Number of Layers | 26 |
| Attention Hidden Size | 1536 |
| FFN Hidden Size | 4608 |
| Number of Attention Heads | 16 |
| Parameters | 615M |
## 3. 测评结果
| 测评集 | openPangu-VL-7B |
| :------------: | :--------: |
| **通用视觉对话** | |
| MMBench V1.1 DEV | 86.5 |
| MMStar | 70.1 |
| RealWorldQA | 76.1 |
| AI2D | 84.7 |
| **光学符号识别/文档理解** | |
| OCRBench | 907 |
| TextVQA | 85.1 |
| DocVQA | 96.0 |
| ChartQA | 88.3 |
| CharXiv dq/rq | 83.9/54.3 |
| **视觉学科能力** | |
| MMMU | 65.2 |
| MMMU-Pro | 52.6 |
| MathVista | 75.0 |
| **目标定位/计数** | |
| RefCOCO-avg | 90.6 |
| ODinW-13 | 51.5 |
| CountBench | 96.1 |
| Point-Bench | 65.4 |
| **多图** | |
| BLINK | 63.3 |
| MUIRBench | 61.6 |
| **视频理解** | |
| MVBench | 74.0 |
| VideoMME (w/o sub) | 68.0 |
| MLVU | 76.9 |
| **语言能力** | |
| MMLU-Pro | 78.2 |
| MMLU-Redux | 87.3 |
| GPQA-Diamond | 65.2 |
| C-Eval | 83.2 |
| AIME25 | 36.5 |
| Math-500 | 89.4 |
| LiveCodeBenchV6 | 24.6 |
| MBPP+ | 68.5 |
| IFEval | 83.0 |
**注:** 评测使用**vllm-ascend部署推理,系统prompt为空**。一般而言,图片最小分辨率设置为2304\*28\*28能获得最优的测评效果。(OCRBench中的极小图OCR除外,建议设置为不大于64\*28\*28。)具体prompt和分辨率设置参见[技术报告](doc/technical_report.pdf)附录。
## 4. 部署和使用
### vllm-ascend部署(推荐)
- 使用vllm-ascend推理框架,参考[[vllm_ascend_for_openpangu_vl_7b](doc/vllm_ascend_for_openpangu_vl_7b.md)]进行服务部署。
- 完成推理服务部署后,使用此脚本测试是否部署成功。
```bash
cd inference/vllm_ascend/examples; python quick_start.py
```
### 直接推理
环境配置:
- python==3.10
- CANN==8.1.RC1
```bash
cd inference; pip install -r requirements.txt
```
推理:
```bash
cd inference; python generate.py
```
### 能力展示
- 更多推理样例和能力展示,请参见`cookbooks`。
## 5. 模型许可证
除文件中对开源许可证另有约定外,openPangu-VL-7B 模型根据 OPENPANGU MODEL LICENSE AGREEMENT VERSION 1.0 授权,旨在允许使用并促进人工智能技术的进一步发展。有关详细信息,请参阅模型存储库根目录中的 [LICENSE](LICENSE) 文件。
## 6. 免责声明
由于 openPangu-VL-7B (“模型”)所依赖的技术固有的限制,以及人工智能生成的内容是由盘古自动生成的,华为无法对以下事项做出任何保证:
- 该模型的输出通过AI算法自动生成,不能排除某些信息可能存在缺陷、不合理或引起不适的可能性,生成的内容不代表华为的态度或立场;
- 无法保证该模型100%准确、可靠、功能齐全、及时、安全、无错误、不间断、持续稳定或无任何故障;
- 该模型的输出内容不构成任何建议或决策,也不保证生成的内容的真实性、完整性、准确性、及时性、合法性、功能性或实用性。生成的内容不能替代医疗、法律等领域的专业人士回答您的问题。生成的内容仅供参考,不代表华为的任何态度、立场或观点。您需要根据实际情况做出独立判断,华为不承担任何责任。
## 7. 反馈
如果有任何意见和建议,请提交issue或联系[openPangu@huawei.com](url)。 |