| ## internlm/internlm2-7b 的裁剪版本 | |
| 仅供单元测试使用,hg上的internlm/internlm2-7b 的原始版本,32层深度裁剪到只有2层,用来做快速验证,使用记得打开 convert_from_hf=True开关 | |
| ## 模型描述 | |
| 具体模型的介绍说明,参考官方说明: https://huggingface.co/internlm/internlm2-7b | |
| ## 期望模型使用方式以及适用范围 | |
| 测试internlm2-7b 模型在paddle上的适配兼容性,仅用来做推理测试。 | |
| ### 如何使用 | |
| 使用PaddleFormers的最新版本(当前还未合并到主线)进行推理测试。 | |
| ### 代码范例 | |
| ```python | |
| 因为32层裁剪到2层,实际上已经不能正常推理,仅供单元测试使用 | |
| ``` | |
| ### 模型局限性以及可能的偏差 | |
| 因为32层裁剪到2层,实际上已经不能正常推理,仅供单元测试使用 |