Datasets:

ArXiv:
License:
Files changed (1) hide show
  1. README.md +1 -0
README.md CHANGED
@@ -39,3 +39,4 @@ license: cc-by-nd-4.0
39
  | 2024/10/24 | 颜浩 | Arxiv.2410 | GraphCLIP: Enhancing Transferability in Graph Foundation Models for Text-Attributed Graphs | https://arxiv.org/pdf/2410.10329 | 本文提出的GraphCLIP通过将图与文本总结进行对比预训练来学习图基础模型。主要包括利用LLM生成大规模"图-总结"配对数据,并设计了一种图提示方法来减轻少样本学习场景下的灾难性遗忘。 |
40
  | 2024/10/31 | 殷珺 | Arxiv.2405 | NoteLLM-2: Multimodal Large Representation Models for Recommendation | https://arxiv.org/pdf/2405.16789 | 本文探索基于大语言模型的多模态推荐系统,尝试采用:(1)multi-modal in-context learning和(2)late fusion来缓解现有模型过度依赖文本、忽视视觉信息的问题。 |
41
  | 2024/10/31 | 金志晗 | Nature 2023 | Skilful nowcasting of extreme precipitation with NowcastNet | https://www.nature.com/articles/s41586-023-06184-4 | 这篇文章于2023年7月发表于Nature正刊,清华大学与中国气象局基于极端降水预报目前的方法容易出现强度、位置误差的问题,提出NowcastNet,它将物理演化方案和生成式学习统一到具有端到端预测优化的神经网络中,效果上超越了谷歌的短临降水预报模型DGMR。 |
 
 
39
  | 2024/10/24 | 颜浩 | Arxiv.2410 | GraphCLIP: Enhancing Transferability in Graph Foundation Models for Text-Attributed Graphs | https://arxiv.org/pdf/2410.10329 | 本文提出的GraphCLIP通过将图与文本总结进行对比预训练来学习图基础模型。主要包括利用LLM生成大规模"图-总结"配对数据,并设计了一种图提示方法来减轻少样本学习场景下的灾难性遗忘。 |
40
  | 2024/10/31 | 殷珺 | Arxiv.2405 | NoteLLM-2: Multimodal Large Representation Models for Recommendation | https://arxiv.org/pdf/2405.16789 | 本文探索基于大语言模型的多模态推荐系统,尝试采用:(1)multi-modal in-context learning和(2)late fusion来缓解现有模型过度依赖文本、忽视视觉信息的问题。 |
41
  | 2024/10/31 | 金志晗 | Nature 2023 | Skilful nowcasting of extreme precipitation with NowcastNet | https://www.nature.com/articles/s41586-023-06184-4 | 这篇文章于2023年7月发表于Nature正刊,清华大学与中国气象局基于极端降水预报目前的方法容易出现强度、位置误差的问题,提出NowcastNet,它将物理演化方案和生成式学习统一到具有端到端预测优化的神经网络中,效果上超越了谷歌的短临降水预报模型DGMR。 |
42
+ | 2024/11/07 | 刘若尘 | KDD 2023 | Generative Flow Network for Listwise Recommendation | https://dl.acm.org/doi/abs/10.1145/3580305.3599364 | 大家好,本周我分享的论文是发表在KDD2023上的“Generative Flow Network for Listwise Recommendation”,list-wise recommendation旨在将呈现在用户面前的所有item作为一个整体向用户进行推荐。研究表明,基于列表的方式能通过建模列表内部的物品关联性提升推荐效果。然而,探索组合列表空间具有挑战性,使用交叉熵损失的方法可能存在多样性不足的问题。本文提出GFN4Rec,一种生成式方法,借鉴流网络的思想以确保列表生成概率与其奖励的对齐。其核心优势在于对数尺度奖励匹配损失,提升了生成的多样性,并通过自回归物品选择模型捕捉物品间的相互影响和列表的未来奖励。感兴趣的同学可以提前浏览论文 |