H1W0XXX
Restore missing license content in README.md
46cb3ef
metadata
license: cc-by-nc-4.0
task_categories:
  - visual-question-answering
  - image-to-text
language:
  - en
  - zh
tags:
  - benchmark
  - visual-reasoning
  - multimodal
  - structural-mechanics
  - image-to-json
  - visual-question-answering
  - stem
size_categories:
  - n<1K

StructuralEval: 结构力学大模型视觉推理评测基准

StructuralEval 是一个专注于结构力学领域的垂直大模型评测基准。本项目旨在评估多模态大语言模型(LMMs)在专业工程场景下的视觉感知空间推理以及结构建模能力。

与传统的数学或通用视觉评测不同,本基准并不要求 AI 直接输出计算结果,而是要求 AI 扮演“建模工程师”的角色,将结构图片转化为计算机可识别的标准结构定义(JSON)。

核心理念

"AI 负责建模,引擎负责计算"

  1. 视觉转译 (Visual-to-Schema): AI 模型输入一张包含梁 (Beam)、刚架 (Frame) 或 桁架 (Truss) 的图片,识别其中的节点坐标、构件连接关系、支座类型(铰接、固接等)以及荷载信息。
  2. 物理验证 (Physics-Based Verification): AI 输出的 JSON 模型会被送入内置的 WASM 物理求解器 (FrameCalc) 进行有限元分析。
  3. 结果对齐: 系统通过比较 AI 模型的物理响应(支座反力、最大弯矩)与真值(Ground Truth)来判定 AI 是否真正“读懂”了结构,而非简单的文本匹配。

可视化与调试

本项目的 JSON 定义格式与 FrameCalc 在线结构分析工具 完全兼容。

  • 可视化方法: 您可以将 data/raw_models/ 中的任何 JSON 文件内容复制并导入到上述网站中,进行图形化查看和结果校核。
  • 经典题目:
    • frame_010.json: 该题目源自 天津大学 2021 年结构力学考研真题,具有极高的专业难度,挑战 AI 对复杂多跨静定/超静定结构的理解。

项目特点

  • 基于真实物理引擎: 集成 WebAssembly (WASM) 编译的高性能结构求解器,确保评测结果的物理严谨性。
  • 多维度难度分级: 数据集包含从简单的简支梁到复杂的超静定刚架,难度分为 1-5 级。
    • Level 1-2: 基础梁结构,考察基本的构件与支座识别。
    • Level 3: 简单桁架与刚架,考察节点连接性与多构件推理。
    • Level 4-5: 复杂多跨刚架与大型桁架,考察对复杂拓扑和混合荷载的全局理解。
  • 容错性解析: 内置鲁棒的 JSON 解析机制,专注于模型内容的准确性,而非格式的微小瑕疵。

目录结构

structural-eval-benchmark/
├── bin/                 # 物理求解器核心 (framecalc.wasm)
├── data/
│   ├── images/          # 题目图片 (png/jpg)
│   ├── ground_truth_meta/ # 包含标准答案与难度分级的元数据
│   └── raw_models/      # 原始建模文件 (用于生成 GT)
├── src/                 # 核心源码 (加载器、评测逻辑、Prompt)
├── tools/               # 辅助工具 (生成真值、可视化等)
├── run_eval.py          # 评测主程序
└── requirements.txt     # 依赖清单

快速开始

1. 环境准备

确保安装 Python 3.8+,并安装项目依赖:

pip install -r requirements.txt

(注:主要依赖包括 openai, tqdm, wasmtime 等)

2. 运行评测

使用 run_eval.py 启动评测。您需要提供兼容 OpenAI 接口的模型 API Key。

# 标准评测模式
python run_eval.py --model "gpt-4o" --api-key "sk-..." 

# 任务过滤 (按 ID 关键字筛选,例如只评测“beam”类题目)
python run_eval.py --model "gemini-3-pro-preview" --api-base https://generativelanguage.googleapis.com/v1beta/openai/ --filter "beam"

# 指定 API Base URL ,允许模型答错后重试3次
python run_eval.py --model "qwen-vl-plus-2025-01-25" --api-base "https://dashscope.aliyuncs.com/compatible-mode/v1" --api-key "sk-..." --max-retries 3

3. 调试模式 (Debug)

如果您想测试环境或验证 Ground Truth 数据的正确性(不调用 AI):

python run_eval.py --debug

扩展数据集

如果您希望添加新的测试题目,请遵循以下步骤,系统会自动计算难度并生成真值:

  1. 准备数据:
    • 将结构建模 JSON 放入 data/raw_models/
    • 将对应的图片放入 data/images/(支持 .png 或 .jpg)。
  2. 生成真值: 运行以下命令,工具会自动调用求解器计算物理真值,并根据构件数量和特征自动打分(Difficulty 1-5)。
    python tools/generate_gt.py
    
  3. 开始评测: 新题目将自动包含在下一次评测中。

评分与诊断机制 (Scoring & Diagnosis)

为了更细致地评估模型在结构分析中的思维盲区,本基准采用了一套分级诊断评分系统。当 AI 的答案不正确时,系统并不会直接判定为 0 分,而是通过一系列“控制变量”实验来诊断错误原因,并给予部分分数。

1. 诊断流程 (Step-by-Step Diagnosis)

当 AI 生成的结构无法通过全量验证时,评测脚本会自动按以下顺序进行排查:

  1. 几何/拓扑检查 (Geometry Check):

    • 将 AI 模型与真值模型的材质统一、连接方式全部改为刚接、移除原始载荷并施加统一标准载荷,同时暂时将所有支座改为固定端。
    • 判定: 如果此时反力一致,说明节点位置和杆件连接关系是正确的。
    • 失败后果: 得分 0.0 (Structure Wrong)。
  2. 边界条件检查 (Support Check):

    • 在通过几何检查的基础上,恢复原始的支座定义(保留统一刚接和标准载荷)。
    • 判定: 如果此时反力一致,说明支座类型和位置是正确的。
    • 失败后果: 得分 0.25 (Supports Wrong)。
  3. 连接方式检查 (Connection Check):

    • 在通过上述检查的基础上,恢复原始的构件连接定义(如铰接/刚接),但仍使用标准载荷。
    • 判定: 如果此时反力不一致,说明构件的 Release (铰接) 设置有误。
    • 失败后果: 得分 0.50 (Connections Wrong)。
  4. 载荷检查 (Load Check):

    • 如果上述步骤全对,但原始模型的全量计算结果不对,则唯一剩下的变量是原题载荷
    • 判定: 结构完全正确,仅载荷参数错误。
    • 得分: 0.75 (Loads Wrong)。
  5. 完全正确 (Perfect):

    • 所有物理响应与真值完全匹配。
    • 得分: 1.00

2. 最终得分计算 (Weighted Accuracy)

为了体现题目难度的差异,最终榜单采用加权准确率计算:

单题得分=题目难度 (1-5)×诊断系数 (0.0 - 1.0) \text{单题得分} = \text{题目难度 (1-5)} \times \text{诊断系数 (0.0 - 1.0)}

加权准确率 (Weighted Accuracy)=所有单题得分所有题目的总难度分×100% \text{加权准确率 (Weighted Accuracy)} = \frac{\sum \text{所有单题得分}}{\sum \text{所有题目的总难度分}} \times 100\%

例如:

  • 一道难度为 3 的刚架题,模型结构做对了但载荷写错(系数 0.75),得分为 $3 \times 0.75 = 2.25$。
  • 一道难度为 1 的梁题,模型全对(系数 1.0),得分为 $1 \times 1.0 = 1.0$。
  • 总得分 3.25,满分 4.0,加权准确率为 81.25%。

📊 评测榜单 (Leaderboard)

模型 (Model) 加权准确率 (Weighted Acc) 平均成功率 (Avg Success Ratio) 备注 (Notes)
Gemini-3-Pro-Preview 17.65% - Retries: 3
GLM-4.5V 16.18% 21.25% Retries: 3
Qwen3-VL-32B-Instruct 13.24% 23.75% Retries: 3

注:数据更新于 2026-01-31,基于 v1.0 数据集 (20题).

许可证

本项目采用 CC BY-NC 4.0 (署名-非商业性使用) 许可协议:

  • 禁止商用: 未经许可,不得将本项目及其包含的数据集用于商业目的。
  • 标注来源: 免费使用的前提是必须在您的项目说明、论文或作品中明确标注本项目来源(StructuralEval 基准)。