软件学院齐聚讲堂(第33期):特邀澳大利亚麦考瑞大学刘凡桢博士作学术报告

发布单位:软件学院 编辑:周舒发布时间:2025-10-26浏览量:

地点 临江楼A914-915报告厅 报告人 刘凡桢 博士
报告时间 2025-10-27 10:00:00 主持人 项昊龙 博士

报告题目:深度图学习的再思考:无监督异常检测与自解释模型

报 告 人:刘凡桢 博士

报告时间:10月27日(周一)上午10:00

报告地点:临江楼A914-915报告厅

主 持 人:项昊龙 博士

报告人简介:

刘凡桢博士,现为澳大利亚麦考瑞大学(Macquarie University)博士后研究员,2024至2025年曾担任澳大利亚联邦科学与工业研究组织(CSIRO)访问科学家。研究方向包括图神经网络、可信AI,以及异常检测、社交网络等应用。他在 KDD、ICDM、EMNLP、IJCAI、VLDBJ、IEEE TKDE、IEEE TNNLS等数据科学和人工智能国际会议和期刊上发表多篇论文,担任IJCNN会议领域主席,WWW、IJCAI、AAAI等会议程序委员会成员和NeurIPS、ICML、KDD、ICDM、CIKM、IEEE TKDE、IEEE TNNLS、IEEE TDSC等会议和期刊审稿人。曾获IJCAI 2020最具影响力论文奖、澳大利亚麦考瑞大学校长学术卓越奖、研究生学术卓越奖等荣誉和奖项。

报告简介:

将结构化的网络数据表示为图时,异常个体(如在线评论网络中的恶意用户和社交媒体中的虚假新闻)通常表示为异常节点,表现出偏离多数个体的结构模式或属性特征。基于残差分析的无监督异常检测方法遵循异常个体引入较大残差误差(即图重构损失)的假设。然而,该类方法采用的经典学习目标(均方误差MSE和交叉熵损失)在学习主要数据分布时存在重大限制。初步研究表明,残差分析的基本方法无法有效捕捉丰富的图结构模式来有效识别异常。基于这些发现,我们提出了一种结构偏向的图异常检测框架,通过特定设计的节点表示增强方法来捕捉异常的不同模式。引入新的训练目标,使该框架在训练过程中减少对异常个体的关注,从而更有效地学习主要的结构特征和属性分布。

此外,图神经网络(GNN)的可解释性对于确保模型决策结果的可靠性至关重要。尽管如ProtGNN、PGIB等自解释模型试图学习类别“原型”,但其评估方法局限于实例级别,使得实例级的解释“原型”能否泛化到整个类别仍是一个问题。为此,我们设计了一个新颖的自解释GNN框架,不仅能生成类级别的解释(即具有类别判别性的子图),更创新性地提出了一套评估类级别解释有效性的策略。实验证明,该框架通过一体化训练以及高效的子图提取,在保真度、可解释性和可扩展性上显著优于现有的可解释模型,为GNN提供了忠实且高效的类级别解释方案。

欢迎广大师生踊跃参加!

软件学院

2025年10月27日