Chinese-CLIP

Chinese-CLIP 是 CLIP 模型的中文版本。CLIP 通过对比学习方式,同时学习图像和文本的表示,并能够理解两者之间的语义关联。Chinese-CLIP 使用约 2 亿规模的中文图文对进行训练,其核心目标是解决中文场景下的跨模态检索、图像表示生成等任务。

Mirror Metadata

  • Hugging Face repo: shadow-cann/hispark-modelzoo-chinese-clip
  • Portal model id: j3m8r949vs00
  • Created at: 2026-03-16 19:22:14
  • Updated at: 2026-03-26 09:35:38
  • Category: 多模态

Framework

  • PyTorch

Supported OS

  • OpenHarmony
  • Linux

Computing Power

  • Hi3403V100 SVP_NNN

Tags

  • 图文匹配

Detail Parameters

  • 输入: 224x224
  • 参数量: 86.193M
  • 计算量: 36.381GFLOPs

Files In This Repo

  • clip_img_om-A16W8.om (编译模型 / A16W8)
  • clip_text_om-A16W8.om (编译模型 / A16W8)
  • vit-b-16_img_sim.onnx (源模型 / 源模型下载; 源模型 / 源模型元数据)
  • vit-b-16_txt_sim.onnx (源模型 / 源模型下载; 源模型 / 源模型元数据)
  • clip_cn_vit-b-16.pt (源模型 / 源模型下载; 源模型 / 源模型元数据)
  • clip_img.om (编译模型 / OM 元数据 / A16W8)
  • clip_text.om (编译模型 / OM 元数据 / A16W8)
  • SVP_NNN_PC_V1.0.6.0.tgz (附加资源 / 附加资源)

Upstream Links

Notes

  • This repository was mirrored from the HiSilicon Developer Portal model card and local downloads captured on 2026-03-27.
  • File ownership follows the portal card mapping, not just filename similarity.
  • Cover image: 1734291744751619_clip.png
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support