我们正式推出了 ***FysicsWorld***,这是首个支持图像、视频、音频与文本之间双向输入–输出的统一全模态基准,能够对真实物理世界的感知、理解、生成与推理等能力进行全面的 any-to-any 评测。该基准采用系统化的设计范式,任务覆盖从基础单模态感知到跨模态信息强耦合下的复杂推理过程,从而全面探索了当前多模态与全模态(omni-modal)架构的局限性与新兴优势。相较于现有的全模态与多模态基准,***FysicsWorld*** 具备以下优势:
- **高质量 & 高度多样性:** ***FysicsWorld*** 以 8 个“多”维特性为核心特征,全面体现了其覆盖范围的广泛性、多样性与鲁棒性,具体包括:
- 多维度(理解、生成、推理与语音交互)
- 多模态(文本、图像、视频与音频的全模态I/O)
- 多任务(16 项主要任务、200 余项子任务)
- 多数据源(共 3,268 个样本,涵盖 40 余个数据源及人工筛选的网络数据)
- 多领域(170 余个细粒度的开放领域类别)
- 多类型(封闭式问答、开放式问答、多项选择题以及图像/视频/音频生成)
- 多目标(评测对象涵盖全模态模型、通用多模态模型、特定模态的专用模型、以及统一理解生成模型)
- 多重保障(多阶段质量控制策略)
- **跨模态融合依赖的推理:** 我们提出了一种全模态数据构建方法,称为 **“跨模态互补性筛选策略”** (Cross-Modal Complementarity Screening,CMCS)。该策略确保任务中保持跨模态强耦合关系,有效避免模型通过单一模态走捷径,从而强制实现真正的全模态融合的协同感知。
- **语音驱动的跨模态交互:** 为支持真实物理世界场景中跨模态交流与人机交互,我们构建了一套以语音为核心锚点的多模态数据生成流水线,在语音交互场景中同时保证语言流畅性与语义保真度,并涵盖 10 余种真实语音与语调。
基于 ***FysicsWorld***,我们对多种最先进模型进行了系统而全面的评测,包括全模态模型、通用多模态模型、特定模态的专用模型、以及统一理解生成模型,建立了统一的评测基线并揭示关键能力缺口,不仅为多模态模态架构的性能评估奠定了坚实基础,也为下一代新兴全模态架构实现真正的跨模态感知-理解-推理-生成指明了前进方向。