File size: 8,172 Bytes
a152d97
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
<p align="center">
    <img src="./docs/assets/logo.svg" alt="Logo" width="120" />
    <p align="center">
        <a href="https://github.com/PKU-DAIR">
            <img alt="Static Badge" src="https://img.shields.io/badge/%C2%A9-PKU--DAIR-%230e529d?labelColor=%23003985">
        </a>
    </p>
</p>


## **WebRenderBench: Enhancing Web Interface Generation through Layout-Style Consistency and Reinforcement Learning**

[Paper](https://arxiv.org/pdf/2510.04097)

## **🔍 概述 (Overview)**

WebRenderBench 是一个全新的大规模基准测试,旨在通过对真实世界网页的评估,推动多模态大语言模型(MLLMs)在 WebUI-to-Code 任务上的发展。我们的基准测试提供:

* **45,100个** 从真实门户网站收集的网页样本  
* **高多样性和复杂性**,涵盖广泛的行业和设计风格  
* **全新的评估指标**,基于渲染后页面的**布局与样式一致性**  
* **ALISA 强化学习框架**,利用新指标作为奖励信号,优化模型生成质量

## **🚀 主要特性 (Key Features)**

### **超越传统基准的局限性**

WebRenderBench 旨在解决现有 WebUI-to-Code 基准测试在数据质量和评估方法上的核心痛点:

| 方面 (Aspect) | 传统基准 (Traditional Benchmarks) | WebRenderBench 优势 (Advantage) |
| :---- | :---- | :---- |
| **数据质量 (Data Quality)** | 规模较小,结构简单,或由LLM合成,多样性有限 | 源自真实世界的大规模复杂网页,更具挑战性 |
| **评估可靠性 (Evaluation Reliability)** | 依赖视觉API(成本高)或代码结构对比(无法处理代码不对称问题) | 基于最终渲染结果进行客观、高效的布局与样式量化评估 |
| **训练有效性 (Training Effectiveness)** | 难以在代码不对称的爬取数据上进行有效优化 | 提出的评估指标可直接用作强化学习奖励,提升模型性能 |

### **数据集特征 (Dataset Characteristics)**

<p align="center">  
<img src="./docs/assets/framework.svg" alt="WebRenderBench an ALISA Framework" width="80%" />  
</p>  
<p align="center"><i>图1: 数据集构建流程与 ALISA 框架</i></p>  
我们的数据集通过一个系统化的流程构建,确保其高质量和多样性:

1. **数据收集**: 从公开的企业门户网站数据集中获取URL,并使用高并发爬虫抓取了21万个网页及其静态资源。  
2. **数据处理**: 将 MHTML 页面转换为 HTML 文件,并处理跨域资源,确保页面可本地渲染并进行全页面截图。  
3. **数据清洗**: 过滤掉尺寸异常、渲染异常或样式缺失的页面。利用多模态模型进行QA,去除存在大面积空白或元素重叠的低质量样本,最终筛选出11万个页面。  
4. **数据分类**: 根据行业和元素复杂度(通过 Group Count 衡量)进行分类,确保数据集在复杂度和领域上分布均衡。

最终,我们构建了包含 **45.1k** 样本的数据集,并平均划分为训练集和测试集。

## **🌟 评估框架 (Evaluation Framework)**

我们提出了一种新颖的、基于最终渲染页面的评估协议,从布局和样式两个核心维度进行量化评估。

### **RDA (Relative Layout Difference of Associated Elements)**

**目的**: 评估关联元素的相对布局差异。

* **关联元素匹配**: 通过文本相似度(LCS)和位置/尺寸差异来匹配生成页面与目标页面中的对应元素。  
* **位置偏差量化**: 将页面划分为九宫格,严格比较关联元素对所在的象限。若象限不同则得分为0,否则根据其相对偏移计算得分。  
* **唯一性加权**: 根据元素的重复度(Race Group大小)为其分配权重,越独特的元素权重越高。

### **GDA (Group-wise Difference in Element Counts)**

**目的**: 评估轴对齐元素的群组一致性。

* **元素分组**: 将在同一水平或垂直轴上对齐的元素视为一个群组。  
* **数量一致性比较**: 比较生成页面与目标页面中对应群组的元素数量是否一致。  
* **唯一性加权**: 同样采用元素的唯一性进行加权,以突出关键布局结构的对齐。

### **SDA (Style Difference of Associated Elements)**

**目的**: 评估关联元素的细粒度样式差异。

* **多维度样式提取**: 评估前景颜色、背景颜色、字体大小和边框圆角等关键视觉属性。  
* **加权平均**: 对每个关联元素对的各项样式得分进行加权平均,计算出最终的页面整体样式得分。

## **⚙️ 安装指南 (Installation Guide)**

### **核心依赖 (Core Dependencies)**

<!-- \# 推荐使用 vLLM 以获得更快的推理速度  
pip install vllm transformers\>=4.40.0 torch\>=2.0

\# 其他通用依赖  
pip install selenium pandas scikit-learn pillow

或者通过需求文件安装:

pip install \-r requirements.txt -->

Coming Soon

## **📊 基准测试流程 (Benchmark Workflow)**

### **目录结构 (Directory Structure)**

|- docs/                  \# 文档
|- scripts                \# 评测脚本  
|- web_render_test.jsonl                \# 测试数据  
|- web_render_train.jsonl               \# 训练数据
|- test_webpages.zip                 \# 测试集网页数据
|- train_webpages.zip               \# 训练集网页数据 
|- test_screenshots.zip                 \# 测试集截图数据
|- train_screenshots.zip                 \# 训练集截图数据 

### **使用流程 (Implementation Steps)**

1. **数据准备 (Data Preparation)**  
   * 从指定位置下载 WebRenderBench 数据集并将网页和截图分别解压。  
   * 数据集包含成对的网页截图和对应的真实网页代码(HTML及相关资源)。  
2. **模型推理 (VLM Inference)**  
   * 使用 vLLM/LLM Deploy 等引擎运行推理保存结果至指定目录。  
3. **结果评估 (Evaluation)**  
   * 运行 scripts/1_get_evalutation.py 脚本。  
   * 该脚本会启动一个 Web Server,用于渲染生成的 HTML 和目标 HTML。  
   * 通过 WebDriver 提取 DOM 信息,并计算 RDA, GDA, SDA 分数。  
   * 单例评估结果将保存在 save_results/ 目录中。
   * 评估结果通过 scripts/2_compute_alisa_scores.py 计算
4. **ALISA 框架训练 (Optional: ALISA Training)**  
   * 使用 models/train\_rl.py 脚本进行强化学习训练。  (Coming Soon)
   * 评估脚本计算出的分数将作为奖励信号,通过 GRPO 等算法优化策略模型。

## **📈 模型性能洞察 (Model Performance Insights)**

我们对17个不同规模和架构的闭源及开源多模态大语言模型进行了评估。

* **RDA, GDA, and SDA 综合得分 (%)**

![Inference Results](./docs/assets/inference_results.png)

* **关键发现**:  
  * 整体而言,模型规模越大,性能越好。GPT-4.1-mini 和 Qwen-VL-Plus 在闭源模型中表现最佳。  
  * 所有模型在处理简单页面(Group Count \< 50)时表现尚可,但随着页面复杂度增加,RDA(布局)得分急剧下降,表明精确布局对齐仍是巨大挑战。  
  * 通过 ALISA 框架训练后,Qwen2.5-VL-7B 在所有复杂度区间的性能均得到显著提升,甚至在简单页面上超越了 GPT-4.1-mini。

## **📅 未来计划 (TO-DO)**

* \[ \] 发布经过 ALISA 框架微调的预训练模型。  
* \[ \] 扩充数据集,涵盖更多行业垂直领域和更多动态交互场景。  
* \[ \] 开源用于数据采集、清洗和评估的全套工具链。

## **📜 许可证 (License)**

WebRenderBench 数据集遵循 仅供研究使用 的原则。代码部分将基于 Apache License 2.0 发布。

数据集中的网页均来自公开可访问的企业门户网站。为保护隐私,所有个人及敏感信息已被移除或修改。

## **📚 如何引用 (Citation)**

如果您在研究中使用了我们的数据集或框架,请引用我们的论文:

```bibtex
@article{webrenderbench2025,  
      title={WebRenderBench: Enhancing Web Interface Generation through Layout-Style Consistency and Reinforcement Learning},   
      author={Anonymous Author(s)},  
      year={2025},  
      journal={arXiv preprint},  
}
```