| 好的,这是基于我们之前的讨论,并且**假设你已经将Mermaid图成功转换为名为 `conceptual_knowledge_graph.png` 的图片,并打算将其上传到你的Hugging Face仓库根目录**的 `README.md` 完整内容。 | |
| **请注意:** 你需要将 `[你的训练样本数]`、`[你的训练epoch数]`、`[你的测试样本数]` 这些占位符替换为你的实际数值。 | |
| ```markdown | |
| --- | |
| license: apache-2.0 | |
| language: | |
| - zh | |
| - en | |
| tags: | |
| - trajectory-prediction | |
| - llm | |
| - lora | |
| - gpt2 | |
| - physics-informed | |
| - autonomous-driving | |
| - motion-forecasting | |
| pipeline_tag: text-generation | |
| base_model: gpt2 | |
| --- | |
| # GPT-2 LoRA for Physics-Informed Trajectory Prediction | |
| This repository contains a LoRA (Low-Rank Adaptation) adapter fine-tuned on the `gpt2` base model. The goal is to predict physically plausible future trajectories for autonomous driving scenarios, implicitly incorporating simple physical laws through data and training. | |
| **开发团队/作者:** 天算AI科技研发实验室 (Natural Algorithm AI R&D Lab) | |
| **项目/研究主页 (可选):** [如果适用,请在此处添加链接] | |
| ## 模型描述 | |
| 该模型是一个经过微调的 `gpt2` 版本,通过LoRA技术高效地学习从历史轨迹数据预测未来轨迹。微调的核心思想是让语言模型不仅学习序列模式,还能在一定程度上遵循基本的物理运动规律,如匀速和匀加速运动。 | |
| ## 微调过程简述 | |
| 1. **基础模型:** `gpt2` (来自Hugging Face Transformers)。 | |
| 2. **数据集:** | |
| * **类型:** 综合生成的文本格式轨迹数据。 | |
| * **格式:** 每个样本包含一段历史轨迹和对应的未来真实轨迹,表示为 `历史: x1,y1,vx1,vy1; ... 预测: xN,yN,vxN,vyN; ...`。 | |
| * **物理规律:** 数据生成脚本中包含了匀速直线运动和匀加速直线运动模型,确保训练数据在理想情况下符合基础物理。时间步长 `dt` 设置为 0.1秒。 | |
| * **规模:** 使用了约 [你的训练样本数,例如 300] 条样本进行微调演示。 | |
| 3. **微调技术:** | |
| * **LoRA (Low-Rank Adaptation):** 主要对`gpt2`模型中的注意力权重 (`c_attn`) 应用LoRA层。 | |
| * **LoRA参数:**秩 (r) = 8, alpha = 16, dropout = 0.05。 | |
| * **训练设置:** 在Google Colab T4 GPU上进行了 [你的训练epoch数,例如 5] 个epoch的训练,批次大小为4,学习率为3e-4。 | |
| 4. **目标:** 模型学习根据给定的历史轨迹(包括位置x, y和速度vx, vy)续写生成未来若干时间步的轨迹。 | |
| ## 如何使用 | |
| 下面的代码片段展示了如何加载基础 `gpt2` 模型并应用此LoRA适配器进行推理: | |
| ```python | |
| from transformers import AutoModelForCausalLM, AutoTokenizer | |
| from peft import PeftModel | |
| import torch | |
| # 你的模型在Hugging Face Hub上的ID | |
| adapter_repo_id = "jinv2/gpt2-lora-trajectory-prediction" | |
| base_model_name = "gpt2" | |
| # 1. 加载基础模型 | |
| base_model = AutoModelForCausalLM.from_pretrained(base_model_name) | |
| # 2. 加载分词器 (通常与适配器一起保存,或者与基础模型一致) | |
| tokenizer = AutoTokenizer.from_pretrained(adapter_repo_id) | |
| if tokenizer.pad_token is None: | |
| tokenizer.pad_token = tokenizer.eos_token | |
| # 3. 加载LoRA适配器 | |
| model = PeftModel.from_pretrained(base_model, adapter_repo_id) | |
| model.eval() # 设置为评估模式 | |
| device = torch.device("cuda" if torch.cuda.is_available() else "cpu") | |
| model.to(device) | |
| # 4. 准备输入并进行预测 | |
| # 假设历史轨迹有2个点,预测未来2个点 | |
| # dt = 0.1 (与训练时一致) | |
| history_points_str = "1.00,1.00,0.50,0.00; 1.05,1.00,0.50,0.00" # 示例历史 | |
| prompt = f"历史: {history_points_str}; 预测:" | |
| inputs = tokenizer(prompt, return_tensors="pt", padding=True, truncation=True).to(device) | |
| with torch.no_grad(): | |
| outputs = model.generate( | |
| **inputs, | |
| max_new_tokens=50, # 足够生成 NUM_FUTURE_POINTS 个点 | |
| num_return_sequences=1, | |
| pad_token_id=tokenizer.eos_token_id, | |
| eos_token_id=tokenizer.eos_token_id, # 确保模型知道何时停止 | |
| do_sample=False # 使用贪婪解码进行确定性输出 | |
| ) | |
| generated_text_full = tokenizer.decode(outputs[0], skip_special_tokens=True) | |
| predicted_part = "" | |
| if "预测:" in generated_text_full: | |
| predicted_part = generated_text_full.split("预测:")[1].strip() | |
| # 清理可能的末尾分号或eos token的文本残留 | |
| if predicted_part.endswith(tokenizer.eos_token): | |
| predicted_part = predicted_part[:-len(tokenizer.eos_token)].strip() | |
| if predicted_part.endswith(';'): | |
| predicted_part = predicted_part[:-1].strip() | |
| else: | |
| if prompt in generated_text_full: | |
| predicted_part = generated_text_full[len(prompt):].strip() | |
| else: | |
| predicted_part = generated_text_full.strip() | |
| if predicted_part.endswith(tokenizer.eos_token): | |
| predicted_part = predicted_part[:-len(tokenizer.eos_token)].strip() | |
| if predicted_part.endswith(';'): | |
| predicted_part = predicted_part[:-1].strip() | |
| print(f"提示: {prompt}") | |
| print(f"模型预测的未来轨迹点 (文本): {predicted_part}") | |
| # 示例:解析预测文本的函数 | |
| def parse_trajectory_string(traj_str): | |
| points = [] | |
| if not traj_str or not traj_str.strip(): return points | |
| point_strs = traj_str.strip().split(';') | |
| for p_str in point_strs: | |
| if p_str.strip(): | |
| try: | |
| coords = [float(c.strip()) for c in p_str.split(',')] | |
| if len(coords) == 4: points.append({'x': coords[0], 'y': coords[1], 'vx': coords[2], 'vy': coords[3]}) | |
| except ValueError: print(f"Warning: Could not parse point string: '{p_str}'") | |
| return points | |
| predicted_points = parse_trajectory_string(predicted_part) | |
| print(f"解析后的预测点: {predicted_points}") | |
| ``` | |
| ## 评估结果 | |
| 在包含 [你的测试样本数,例如 50] 条样本的独立测试集上进行了评估。评估指标主要关注预测轨迹的准确性和物理一致性。 | |
| * **平均位移误差 (Average Displacement Error, ADE):** `0.2684` 米 (平均每个预测时间步与真值的欧氏距离) | |
| * **最终位移误差 (Final Displacement Error, FDE):** `0.2810` 米 (预测轨迹最后一个点与真值的欧氏距离) | |
| * **运动学一致性 (平均绝对误差):** | |
| * **Vx (X轴速度) 误差:** `0.2844` m/s (模型预测的Vx与根据位移变化推断的Vx之间的差异) | |
| * **Vy (Y轴速度) 误差:** `0.1708` m/s (模型预测的Vy与根据位移变化推断的Vy之间的差异) | |
| * *解读:这些值越小,表明模型在预测速度和预测位置之间的一致性越好。当前的误差值表明还有提升空间,特别是在某些样本中,预测速度与实际位移变化不太吻合。* | |
| * **动力学约束 (速度限制):** | |
| * **速度限制违反率 (V_max = 2.5 m/s):** `0.00%` | |
| * *解读:模型生成的轨迹点速度值均未超过设定的2.5 m/s的上限,这表明模型学习到了训练数据中的速度范围。* | |
| * **模型输出观察点:** | |
| * 模型通常能按要求数量生成预测点,但有时会生成略多于请求数量的点,此时需要截取。 | |
| * 在少数情况下,模型输出末尾可能包含非标准格式的文本片段,导致解析警告。这可能与 `max_new_tokens` 设置或序列结束标记的学习有关。 | |
| * 部分样本的ADE/FDE或运动学误差显著高于平均水平,表明模型在特定场景或运动模式下的预测能力有待加强。 | |
| **总体而言,对于一个基于小型基础模型 (`gpt2`) 并经过短时间、小数据量LoRA微调的实验性模型,其展现了学习轨迹模式和部分物理规律的潜力。** | |
| ## 可视化知识图谱 (概念性) | |
| 为了更好地理解LLM与物理常识模块在无人驾驶轨迹预测中的结合,我们可以构想一个概念性的知识图谱。 | |
|  | |
| *(上图展示了系统的主要组件和数据流。请确保名为 `conceptual_knowledge_graph.png` 的图片已上传到本仓库的根目录。)* | |
| ## 局限性与未来工作 | |
| * 当前模型基于简化的2D物理场景,未考虑复杂的车辆动力学、与环境的交互(如避障)。 | |
| * 物理规律的遵循主要依赖于训练数据的质量和覆盖度。 | |
| * 模型输出的稳定性和对特定场景的泛化能力有待提升。 | |
| * **未来工作:** | |
| * 引入更复杂的、可微的物理模块直接集成到模型或损失函数中。 | |
| * 使用更丰富的真实世界数据集进行训练。 | |
| * 探索多模态输入(如图像、LiDAR)与轨迹预测的结合。 | |
| * 对模型的可解释性进行研究。 | |
| ## 版权与许可 | |
| © 2024 天算AI科技研发实验室 (Natural Algorithm AI R&D Lab). | |
| 本项目根据 Apache License 2.0 许可证授权。详情请参阅仓库中的 `LICENSE` 文件。 | |
| *(请确保在仓库根目录添加一个名为 `LICENSE` 的文件,其中包含 Apache 2.0 许可证的完整文本。)* | |
| --- |