Upload README_zh.md with huggingface_hub
Browse files- README_zh.md +129 -0
README_zh.md
ADDED
|
@@ -0,0 +1,129 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
<!-- ---
|
| 2 |
+
license: MIT License
|
| 3 |
+
tags:
|
| 4 |
+
- physics
|
| 5 |
+
- understanding
|
| 6 |
+
- generation
|
| 7 |
+
- reasoning
|
| 8 |
+
- multimodal
|
| 9 |
+
language:
|
| 10 |
+
- en
|
| 11 |
+
--- -->
|
| 12 |
+
<p align="center" width="100%">
|
| 13 |
+
<a target="_blank"><img src="figs/FysicsWorld-logo.png" alt="" style="width: 50%; min-width: 200px; display: block; margin: auto;"></a>
|
| 14 |
+
</p>
|
| 15 |
+
|
| 16 |
+
|
| 17 |
+
|
| 18 |
+
<div align="center">
|
| 19 |
+
<br>
|
| 20 |
+
<h1>FysicsWorld: 统一的全模态理解、生成与推理评测基准</h1>
|
| 21 |
+
|
| 22 |
+
|
| 23 |
+
<font size=3><div align='center' >
|
| 24 |
+
[[🏠 主页](https://github.com/Fysics-AI/FysicsWorld)]
|
| 25 |
+
[[📖 论文](https://arxiv.org/pdf/2512.12756)]
|
| 26 |
+
[[🤗 数据集](https://huggingface.co/datasets/Fysics-AI/FysicsWorld)]
|
| 27 |
+
[[👾 数据集 (魔搭)](https://www.modelscope.cn/datasets/Fysics-AI/FysicsWorld)]
|
| 28 |
+
[[🏆 排行榜](https://huggingface.co/spaces/Fysics-AI/FysicsWorld-Leaderboard)]
|
| 29 |
+
</div></font>
|
| 30 |
+
|
| 31 |
+
</div>
|
| 32 |
+
|
| 33 |
+
## 🚀 最新进展
|
| 34 |
+
- **`2025-12-14`** 我们正式推出了首个面向真实物理世界的统一全模态评测基准——[***FysicsWorld***](https://huggingface.co/datasets/Fysics-AI/FysicsWorld)。该基准不仅能够评测模型在图像、视频、音频与文本间进行双向输入与输出的能力,还覆盖对真实物理世界场景的感知、理解、生成以及跨模态推理等核心能力。
|
| 35 |
+
|
| 36 |
+
|
| 37 |
+
|
| 38 |
+
## 🎯 ***FysicsWorld*** 概述
|
| 39 |
+
<img src="figs/fig-teaser.jpg" width="100%" height="100%">
|
| 40 |
+
|
| 41 |
+
我们正式推出了 ***FysicsWorld***,这是首个支持图像、视频、音频与文本之间双向输入–输出的统一全模态基准,能够对真实物理世界的感知、理解、生成与推理等能力进行全面的 any-to-any 评测。该基准采用系统化的设计范式,任务覆盖从基础单模态感知到跨模态信息强耦合下的复杂推理过程,从而全面探索了当前多模态与全模态(omni-modal)架构的局限性与新兴优势。相较于现有的全模态与多模态基准,***FysicsWorld*** 具备以下优势:
|
| 42 |
+
|
| 43 |
+
- **高质量 & 高度多样性:** ***FysicsWorld*** 以 8 个“多”维特性为核心特征,全面体现了其覆盖范围的广泛性、多样性与鲁棒性,具体包括:
|
| 44 |
+
- 多维度(理解、生成、推理与语音交互)
|
| 45 |
+
- 多模态(文本、图像、视频与音频的全模态I/O)
|
| 46 |
+
- 多任务(16 项主要任务、200 余项子任务)
|
| 47 |
+
- 多数据源(共 3,268 个样本,涵盖 40 余个数据源及人工筛选的网络数据)
|
| 48 |
+
- 多领域(170 余个细粒度的开放领域类别)
|
| 49 |
+
- 多类型(封闭式问答、开放式问答、多项选择题以及图像/视频/音频生成)
|
| 50 |
+
- 多目标(评测对象涵盖全模态模型、通用多模态模型、特定模态的专用模型、以及统一理解生成模型)
|
| 51 |
+
- 多重保障(多阶段质量控制策略)
|
| 52 |
+
- **跨模态融合依赖的推理:** 我们提出了一种全模态数据构建方法,称为 **“跨模态互补性筛选策略”** (Cross-Modal Complementarity Screening,CMCS)。该策略确保任务中保持跨模态强耦合关系,有效避免模型通过单一模态走捷径,从而强制实现真正的全模态融合的协同感知。
|
| 53 |
+
- **语音驱动的跨模态交互:** 为支持真实物理世界场景中跨模态交流与人机交互,我们构建了一套以语音为核心锚点的多模态数据生成流水线,在语音交互场景中同时保证语言流畅性与语义保真度,并涵盖 10 余种真实语音与语调。
|
| 54 |
+
|
| 55 |
+
基于 ***FysicsWorld***,我们对多种最先进模型进行了系统而全面的评测,包括全模态模型、通用多模态模型、特定模态的专用模型、以及统一理解生成模型,建立了统一的评测基线并揭示关键能力缺口,不仅为多模态模态架构的性能评估奠定了坚实基础,也为下一代新兴全模态架构实现真正的跨模态感知-理解-推理-生成指明了前进方向。
|
| 56 |
+
|
| 57 |
+
|
| 58 |
+
<p align="center">
|
| 59 |
+
<img src="figs/fig-statiscs.jpg" width="100%" height="100%">
|
| 60 |
+
</p>
|
| 61 |
+
|
| 62 |
+
## 🔍 数据下载
|
| 63 |
+
完整数据集和相应的多媒体文件(图像、视频、音频):
|
| 64 |
+
|
| 65 |
+
- 下载路径 1(🤗 HuggingFace):[[链接](https://huggingface.co/datasets/Fysics-AI/FysicsWorld)]
|
| 66 |
+
- 下载路径 2(👾 ModelScope):[[链接](https://www.modelscope.cn/datasets/Fysics-AI/FysicsWorld)]
|
| 67 |
+
|
| 68 |
+
|
| 69 |
+
|
| 70 |
+
## 🔮 基准评测
|
| 71 |
+
|
| 72 |
+
为确保评测协议的公平性与标准化,第一阶段我们公开发布完整的 ***FysicsWorld*** 数据集,以及一个包含正确答案的 test-mini 子集(300 个样本),用于本地验证与调试。相应的问答数据分别位于 [./data](https://github.com/Fysics-AI/FysicsWorld/tree/main/data) 与 [./test-mini](https://github.com/Fysics-AI/FysicsWorld/tree/main/test-mini)中。
|
| 73 |
+
|
| 74 |
+
🕹️ **使用指南**:
|
| 75 |
+
|
| 76 |
+
1. 下载完整的 Fysics 数据集。
|
| 77 |
+
2. 按需选用 Fysics 中感兴趣的目标任务用于评测你的本地模型。
|
| 78 |
+
3. 将模型输出内容格式化为:[参考格式](https://github.com/Fysics-AI/FysicsWorld/blob/main/eval/submission_format.json).
|
| 79 |
+
4. 将待测评结果��送至 *t1.jiangyue@outlook.com*,我们会尽快给您反馈并在排行榜上更新您的成绩。
|
| 80 |
+
|
| 81 |
+
|
| 82 |
+
## 📈 评测结果
|
| 83 |
+
- **全模态/视觉语言大模型在图像为中心任务上的性能对比**
|
| 84 |
+
|
| 85 |
+
<p align="center">
|
| 86 |
+
<img src="figs/tab-image.png" width="90%" height="100%">
|
| 87 |
+
</p>
|
| 88 |
+
|
| 89 |
+
*任务 ID:*
|
| 90 |
+
Task1-1 (图像理解), Task2-1 (语音驱动的图像理解), Task2-2 (图像-音频跨模态推理), Task2-3 (基于语音的图像内容问答), Task2-4 (基于图像人物角色的语音生成), and Task2-5 (基于图像内容的音频匹配)。
|
| 91 |
+
|
| 92 |
+
- **全模态/视觉语言大模型在视频为中心任务上的性能对比**
|
| 93 |
+
|
| 94 |
+
<p align="center">
|
| 95 |
+
<img src="figs/tab-video.png" width="90%" height="100%">
|
| 96 |
+
</p>
|
| 97 |
+
|
| 98 |
+
*任务 ID:*
|
| 99 |
+
Task1-2 (视频理解), Task3-1 (语音驱动的视频理解), Task3-2 (视频-音频跨模态推理), Task3-3 (基于语音的图像内容问答), Task3-4 (基于图像人物角色的语音生成), Task3-5 (基于图像内容的音频匹配), and Task3-6 (基于视频动作序列和当前状态的后续行为预测)。
|
| 100 |
+
|
| 101 |
+
- **开源多模态大模型在部分模态支持的任务上的性能对比**
|
| 102 |
+
|
| 103 |
+
<p align="center">
|
| 104 |
+
<img src="figs/fig-open-mllm.jpg" width="60%" height="100%">
|
| 105 |
+
</p>
|
| 106 |
+
|
| 107 |
+
*任务 ID:*
|
| 108 |
+
Task1-1 (图像理解), Task1-2 (视频理解), and Task3-6 (基于视频动作序列和当前状态的后续行为预测)。
|
| 109 |
+
|
| 110 |
+
|
| 111 |
+
- **不同模型在 (a)音频推理和 (b)视频生成任务上的性能对比**
|
| 112 |
+
|
| 113 |
+
<p align="center">
|
| 114 |
+
<img src="figs/fig-exp-audio-video.jpg" width="90%" height="100%">
|
| 115 |
+
</p>
|
| 116 |
+
|
| 117 |
+
|
| 118 |
+
## 📖 引用
|
| 119 |
+
|
| 120 |
+
如果 ***FysicsWorld*** 对你的研究有所帮助,欢迎引用我们的工作。感谢支持!
|
| 121 |
+
|
| 122 |
+
```bibtex
|
| 123 |
+
@article{jiang2025fysicsworld,
|
| 124 |
+
title={FysicsWorld: A Unified Full-Modality Benchmark for Any-to-Any Understanding, Generation, and Reasoning},
|
| 125 |
+
author={Jiang, Yue and Yang, Dingkang and Han, Minghao and Han, Jinghang and Chen, Zizhi and Liu, Yizhou and Li, Mingcheng and Zhai, Peng and Zhang, Lihua},
|
| 126 |
+
journal={arXiv preprint arXiv:2512.12756},
|
| 127 |
+
year={2025}
|
| 128 |
+
}
|
| 129 |
+
```
|