Swin-Transformer

Swin-Transformer是针对于图片处理设计的基于Transformer架构的神经网络。该网络针对原始Transformer迁移到图片端后计算量过大,复用困难的问题,提出了新的swin-block以代替原有的attention架构。模型以窗口的attention方式极大地减少了图像不同区域间的互相响应,同时也避免了部分冗余信息的产生。最终,模型在减少了大量计算量的同时,在不同的视觉传统任务上也有了效果的提升。

Mirror Metadata

  • Hugging Face repo: shadow-cann/hispark-modelzoo-swin-transformer
  • Portal model id: j3m873lcso00
  • Created at: 2026-03-16 19:19:28
  • Updated at: 2026-03-26 09:35:38
  • Category: 计算机视觉

Framework

  • PyTorch

Supported OS

  • OpenHarmony
  • Linux

Computing Power

  • Hi3403V100 SVP_NNN
  • Hi3403V100 NNN

Tags

  • 分类

Detail Parameters

  • 输入: 224x224
  • 参数量: 28.798M
  • 计算量: 9.567GFLOPs

Files In This Repo

  • swin_om-A8W8.om (编译模型 / A8W8)
  • swin.om (编译模型 / FP16; 编译模型 / OM 元数据 / A8W8)
  • swin.onnx (源模型 / 源模型下载; 源模型 / 源模型元数据)
  • swin_tiny_patch4_window7_224.pth (源模型 / 源模型下载; 源模型 / 源模型元数据)
  • swin_sim.onnx (源模型 / 源模型下载; 源模型 / 源模型元数据)
  • SVP_NNN_PC_V1.0.6.0.tgz (附加资源 / 附加资源)

Upstream Links

Notes

  • This repository was mirrored from the HiSilicon Developer Portal model card and local downloads captured on 2026-03-27.
  • File ownership follows the portal card mapping, not just filename similarity.
  • Cover image: 1701485580845059_swint.png
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support