Update README.md
Browse files
README.md
CHANGED
|
@@ -44,4 +44,15 @@ license: cc-by-nd-4.0
|
|
| 44 |
| 2024/12/05 | 王梓辰 | CVPR 2024 | SocialCircle: Learning the Angle-based Social Interaction Representation for Pedestrian Trajectory Prediction | https://arxiv.org/pdf/2310.05370 | 在预测行人轨迹的时候,行人之间社会交互的多样性和不确定性使预测具有很大的挑战性。目前轨迹预测中建模交互的方法可以分为基于模型的和无模型的两类,基于模型的方法以特定的“规则”作为预测的主要基础,无模型的方法主要由数据驱动的方式进行预测。然而,基于模型的方式难以设计一个适合大多数社会交互的通用“规则”,无模型的方式严重依赖不同的网络结构,缺乏可解释性。本篇文章受海洋动物在水下通过回声定位同伴位置的启发,提出基于角度的可训练社会交互表示法,即SocialCircle,用于持续反应目标行人的不同角度方向上的社会交互环境。实验表明,SocialCircle 不仅在提高了预测性能,而且定性分析实验表明它有助于在预测行人轨迹时更好地模拟社会互动,从而与人类的直觉保持一致。|
|
| 45 |
| 2024/12/12 | 于志刚 | NeurIPS 2024 | Beyond Redundancy: Information-aware Unsupervised Multiplex Graph Structure Learning | https://arxiv.org/abs/2409.17386 | 现实图数据通常包含大量与任务无关的噪声,严重影响了无监督多重图学习(UMGL)的性能。此外,现有的方法主要依赖于对比学习来最大化不同视图之间的互信息,这将它们限制于多视图冗余场景,在非冗余场景有一定的局限性。本文聚焦于如何以无监督的方式从原始多重图中学习融合图,从而减轻与任务无关的噪声,同时保留充分的任务相关信息,提出了一种信息感知的无监督多重图融合框架(InfoMGF)。|
|
| 46 |
| 2024/12/19 | 杨珂懿 | NeurIPS 2024 | Large Language Models as Urban Residents: An LLM Agent Framework for Personal Mobility Generation | https://arxiv.org/abs/2402.14744 | 本文介绍了一种使用大型语言模型(LLM)集成到智能体框架中的新颖方法,以实现灵活高效的个人移动轨迹生成。LLM通过有效处理语义数据并提供对各种任务建模的多功能性,克服了以前模型的局限性。本文的方法解决了将LLM与现实世界城市交通数据结合起来的迫切需求,重点关注三个研究问题:将LLM与丰富的移动数据结合起来,制定可靠的移动生成策略,以及探索LLM在城市交通中的应用。关键的技术贡献是提出了一个新颖的LLM智能体框架,该框架考虑了个人移动模式和动机,包括使LLM与现实世界移动数据保持一致的自洽方法以及用于生成可解释移动的检索增强策略。在实验研究中,使用真实世界数据进行综合验证。这项研究标志着基于现实世界人类移动数据设计用于移动生成的 LLM 智能体框架的开创性工作,为城市交通分析提供了一个有前景的工具。|
|
| 47 |
-
| 2024/12/26 | 曹敏君 | NeurIPS 2024 | AutoTimes:Autoregressive Time Series Forecasters via Large Language Models | https://arxiv.org/abs/2402.02370 | 作者团队来自清华大学。本文探索基于大语言模型的自回归时间序列预测,(1)提出AutoTimes将 LLM 重新用作自回归时间序列预测器,该预测器可以处理灵活的序列长度并实现与流行模型一样的有竞争力的性能。(2)提出了token-wise prompting,利用相应的时间戳使该方法适用于多模态场景。(3)AutoTimes继承了LLM的零样本和上下文学习能力。|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 44 |
| 2024/12/05 | 王梓辰 | CVPR 2024 | SocialCircle: Learning the Angle-based Social Interaction Representation for Pedestrian Trajectory Prediction | https://arxiv.org/pdf/2310.05370 | 在预测行人轨迹的时候,行人之间社会交互的多样性和不确定性使预测具有很大的挑战性。目前轨迹预测中建模交互的方法可以分为基于模型的和无模型的两类,基于模型的方法以特定的“规则”作为预测的主要基础,无模型的方法主要由数据驱动的方式进行预测。然而,基于模型的方式难以设计一个适合大多数社会交互的通用“规则”,无模型的方式严重依赖不同的网络结构,缺乏可解释性。本篇文章受海洋动物在水下通过回声定位同伴位置的启发,提出基于角度的可训练社会交互表示法,即SocialCircle,用于持续反应目标行人的不同角度方向上的社会交互环境。实验表明,SocialCircle 不仅在提高了预测性能,而且定性分析实验表明它有助于在预测行人轨迹时更好地模拟社会互动,从而与人类的直觉保持一致。|
|
| 45 |
| 2024/12/12 | 于志刚 | NeurIPS 2024 | Beyond Redundancy: Information-aware Unsupervised Multiplex Graph Structure Learning | https://arxiv.org/abs/2409.17386 | 现实图数据通常包含大量与任务无关的噪声,严重影响了无监督多重图学习(UMGL)的性能。此外,现有的方法主要依赖于对比学习来最大化不同视图之间的互信息,这将它们限制于多视图冗余场景,在非冗余场景有一定的局限性。本文聚焦于如何以无监督的方式从原始多重图中学习融合图,从而减轻与任务无关的噪声,同时保留充分的任务相关信息,提出了一种信息感知的无监督多重图融合框架(InfoMGF)。|
|
| 46 |
| 2024/12/19 | 杨珂懿 | NeurIPS 2024 | Large Language Models as Urban Residents: An LLM Agent Framework for Personal Mobility Generation | https://arxiv.org/abs/2402.14744 | 本文介绍了一种使用大型语言模型(LLM)集成到智能体框架中的新颖方法,以实现灵活高效的个人移动轨迹生成。LLM通过有效处理语义数据并提供对各种任务建模的多功能性,克服了以前模型的局限性。本文的方法解决了将LLM与现实世界城市交通数据结合起来的迫切需求,重点关注三个研究问题:将LLM与丰富的移动数据结合起来,制定可靠的移动生成策略,以及探索LLM在城市交通中的应用。关键的技术贡献是提出了一个新颖的LLM智能体框架,该框架考虑了个人移动模式和动机,包括使LLM与现实世界移动数据保持一致的自洽方法以及用于生成可解释移动的检索增强策略。在实验研究中,使用真实世界数据进行综合验证。这项研究标志着基于现实世界人类移动数据设计用于移动生成的 LLM 智能体框架的开创性工作,为城市交通分析提供了一个有前景的工具。|
|
| 47 |
+
| 2024/12/26 | 曹敏君 | NeurIPS 2024 | AutoTimes:Autoregressive Time Series Forecasters via Large Language Models | https://arxiv.org/abs/2402.02370 | 作者团队来自清华大学。本文探索基于大语言模型的自回归时间序列预测,(1)提出AutoTimes将 LLM 重新用作自回归时间序列预测器,该预测器可以处理灵活的序列长度并实现与流行模型一样的有竞争力的性能。(2)提出了token-wise prompting,利用相应的时间戳使该方法适用于多模态场景。(3)AutoTimes继承了LLM的零样本和上下文学习能力。|
|
| 48 |
+
| 2025/01/09 | 颜浩 | NeurIPS 2023 | MeZO: Fine-Tuning Language Models with Just Forward Passes | https://arxiv.org/abs/2305.17333 | 随着LMs大小的增长,通过一般化的反向传播算法来微调模型需要大量内存。本文基于零阶优化算法,改进了一种内存高效的零阶优化器MeZO,使得能以与推理相同的内存占用进行微调。与上下文学习、线性探测、全参数微调等进行了比较,验证了算法的高效性与有效性。 |
|
| 49 |
+
| 2025/01/09 | 胡杨 | AAAI 2025 | STD-PLM: Understanding Both Spatial and Temporal Properties of Spatial-Temporal Data with PLM| https://arxiv.org/abs/2407.09096 | 本文提出了一种基于预训练语言模型的空间-时间数据理解框架(STD-PLM),能够同时执行空间-时间预测与数据补全任务。STD-PLM 通过专门设计的spatial and temporal tokenizer来理解空间和时间的关联关系。此外,设计了拓扑感知的节点嵌入,使预训练语言模型能够理解并利用数据的拓扑结构。为缓解预训练语言模型带来的效率问题,本文设计了一种sandglass attention module,这显著提升了模型的效率,同时保证了性能。 |
|
| 50 |
+
| 2025/01/16 | 程铭 | TKDE 2024 | FELight: Fairness-Aware Traffic Signal Control via Sample-Efficient Reinforcement Learning | https://ieeexplore.ieee.org/document/10471901/ | 本文提出了一种提出了一种公平意识强、样本效率高的交通信号控制方法FELight。具体来说,首先设计一种新颖的公平性指标并将其集成到决策过程中,通过设置激活公平机制的阈值来惩罚高延迟的情况。与其他公平性研究的理论比较证明了我们的公平性为何以及何时可以带来优势。此外,采用反事实数据增强来丰富交互数据,提高了FELight的样本效率。引入自监督状态表示以从原始状态中提取信息特征,进一步提高样本效率。在真实交通数据集上进行的实验表明,与最先进的方法相比,FELight 提供了相对更公平的交通信号控制,同时又不影响性能。 |
|
| 51 |
+
| 2025/02/21 | 曹敏君 | ICML 2024 | Timer: Generative Pre-trained Transformers Are Large Time Series Models | https://arxiv.org/abs/2402.02368 | 本文探索了基于大规模预训练模型的时间序列分析方法,提出了 Timer 模型,旨在通过预训练提升时间序列任务的性能,尤其是在数据稀缺场景下。(1)作者构建了包含高达 10 亿时间点 的大规模时间序列数据集,并提出了 单序列序列(S3)格式,将异构时间序列统一为单序列格式,以便更好地进行预训练。(2)Timer 采用类似 GPT 的架构,通过预测下一个时间点(标记)来进行预训练,并将时间序列的预测、填补缺失值和异常检测等任务统一为一个生成任务。(3)Timer 继承了大规模预训练模型的泛化能力和可扩展性,在少样本情况下展现出与流行任务专用模型相媲美甚至更优的性能。 |
|
| 52 |
+
| 2025/02/28 | 刘若尘 | WWW 2025 | SPRec: Self-Play to Debias LLM-based Recommendation | https://arxiv.org/abs/2412.09243 | 现有的基于大语言模型的推荐方法往往使用有监督微调的方式进行训练,而在SFT的基础之上,DPO由于其能够直接将LLM与用户的兴趣进行对齐,所以受到关注。而本文发现,使用DPO的微调方法天然地会加剧推荐是的偏移,使模型更加青睐于高流行度的物品。为了解决这个问题,本文设计了一个自我博弈框架,具体来说,在每次自我博弈迭代中,模型首先进行SFT步骤,然后进行DPO步骤,将离线交互数据视为正样本,并将前一次迭代的预测输出视为负样本。通过使用模型的logits重新加权DPO损失函数,从而自适应地抑制偏倚项。 |
|
| 53 |
+
| 2025/03/07 | 杨珂懿 | AAAI 2025 | Holistic Semantic Representation for Navigational Trajectory Generation | https://arxiv.org/abs/2501.02737 | 本文提出了一个用于导航轨迹生成的全息语义表示(HOlistic SEmantic Representation,HOSER)框架。给定一个起终点(OD)对和潜在轨迹的起始时间点,该框架首先提出了一个道路网络编码器来扩展道路级和区域级语义的感受野。其次,设计了一个多粒度轨迹编码器来整合生成轨迹的时空语义,同时考虑点级和轨迹级特征。最后,采用目的地导向导航器来无缝集成目的地导向引导。在三个真实世界数据集上的广泛实验表明,HOSER在性能上显著优于最先进的基准方法。此外,该模型在少样本学习和零样本学习场景下的表现进一步验证了全息语义表示的有效性。这项研究为轨迹生成领域提供了一个重要的多层次语义理解框架,有助于生成更符合实际导航行为的高质量轨迹。 |
|
| 54 |
+
| 2025/03/14 | 徐榕桧 | NeurIPS 2024 | From Similarity to Superiority: Channel Clustering for Time Series Forecasting | https://arxiv.org/abs/2404.01340 | 时序数据建模策略可以分为通道独立策略(CI)和通道依赖策略(CD)。CI策略忽视了通道之间可能必要的交互作用,且在未见实例上的泛化能力较差。CD策略虽然可以捕捉复杂的通道关系,但容易导致过度平滑问题,限制了预测准确性。本文提出了一种自适应通道聚类模块(CCM)来提高时间序列预测模型的性能,CCM通过动态聚类具有内在相似性的通道,并结合这两种策略的优点。CCM的框架主要包括聚类分配器和基于聚类的前馈网络。聚类分配器根据内在相似性学习通道聚类,并通过交叉注意机制生成每个聚类的原型嵌入。CCM能够为每个聚���分配一个单独的前馈网络,并利用相似性进行加权聚合得到预测输出。此外,CCM通过学习聚类原型可以实现零样本预测,使得模型在处理未见样本时不需要重新训练。 |
|
| 55 |
+
| 2025/03/28 | 罗子罗文 | AAAI 2024 | Fast Machine Unlearning without Retraining through Selective Synaptic Dampening | https://arxiv.org/abs/2308.07707 | 随着当今机器学习模型规模日益庞大,其(预)训练数据集增长到难以理解的体量,人们越来越关注“机器遗忘”这一概念——旨在无需从头重新训练模型的情况下,通过编辑手段移除私有数据、过时知识、受版权保护内容、有害/不安全信息、危险能力及错误信息等不必要元素。然而,现有的一些MU方法需要对模型部分参数进行重训,开销往往很大,同时需要过往模型训练的权重参数以及训练数据已知,这在实际应用场景中往往难以支撑。鉴于此,本文提出了一种基于选择性参数抑制(Selective Synaptic Dampening)的两阶段方法 ,该方法无需重新训练,快速简单,只需要选择少量参数进行修改,即可完成高效遗忘。首先,该方法基于 Fisher information matrix 计算参数与遗忘数据集的相关性,然后基于稀疏性约束从中抑制与数据集高相关性的参数量,从而达成对Unlearning Request的快速处理。充分实验表明,无需重新训练的 SSD 方法在 Resnet18 以及 ViT 上几种不同种类的遗忘请求的基准测试中表现与重新训练的模型一致。 |
|
| 56 |
+
| 2025/04/11 | 于志刚 | KDD 2024 | Representation Learning of Temporal Graphs with Structural Roles | https://dl.acm.org/doi/10.1145/3637528.3671854 | 结构角色是指节点在图中的连接模式和结构特征。具有相似连接模式的节点被认为属于同一结构角色。现有的大多数时序图方法通常基于局部连接邻近性生成节点表示,忽略了全局结构相似性,没有发挥节点的结构角色带来的积极作用。简单来说,节点的表示学习不仅仅依赖于与之相邻的节点,那些与目标节点具有相似结构特征的不相邻的节点也可能会对目标节点的表示学习有一定帮助。因此,本文将全局结构角色信息引入时序图的表示学习中,能够充分利用时序图中的全局结构角色信息,以克服现有方法在捕捉全局结构相似性方面的不足。 |
|
| 57 |
+
| 2025/04/18 | 赵远博 | ICLR 2025 | Language Representations Can Be What Recommeders Need: Findings and Potentials | https://arxiv.org/abs/2407.05441 | 大量研究已经证明语言模型能够在少量语义信息上编码丰富的知识。然而在推荐系统领域,语言模型能否编码用户偏好信息仍然是未知的。与通常认为的语言模型和传统推荐模型学习到的是两种不同的表示相反,这一工作重新检验了这一理解并探索直接从语言表示空间中提取推荐空间,最终导向语言表示空间和行为空间的同态。基于此,本文提出只依赖语言表示而不使用ID信息的推荐算法。具体来说,只使用MLP、图卷积和InfoNCE loss等关键组件就能够搭建出简单而有效的模型。大量实验证明在多个数据集上该模型的表现优于领先的协同过滤模型,并且能够提供对item表示的较好初始化,极强的zero-shot性能和用户感知能力。这一发现从实验上证明了语言建模和行为建模之间的联系。 |
|
| 58 |
+
| 2025/04/25 | 王梓辰 | ECCV 2024 | Progressive Pretext Task Learning for Human Trajectory Prediction | https://arxiv.org/abs/2407.11588 | 人类轨迹预测旨在预测行人的未来轨迹,通常涵盖从短期到长期的所有时间范围。然而现有工作往往使用统一的训练范式来处理整个轨迹预测任务,忽略了人类轨迹中短期动态和长期依赖的区别。为了解决这个问题,本文提出了一种新颖的渐进式预训练任务学习框架,该框架逐步增强模型捕捉短期动态与长期依赖的能力,以实现最终的轨迹预测。该模型框架PPT包含三个阶段的训练任务:第一阶段,模型通过逐步的下一位置预测任务来学习短期动态;第二阶段,模型进一步通过终点预测任务增强对长期依赖的理解;第三阶段,模型在前两个阶段所学知识的基础上,解决整体轨迹预测任务。 |
|