实验室团队博士生宋子帆一篇论文” Learning Scene-Pedestrian Graph for End to end Person Searchn”被IEEE Transactions on Industrial Informatics录用。本文提出了一种基于图结构的端到端行人搜索方法。现有的端到端行人搜索方法侧重于分析前景(即行人)信息,而忽略背景(即场景)信息。然而,场景信息中暗含可为行人搜索提供帮助的线索:例如,行人通常出现在道路上,而不是树顶,出现在相近位置的行人可能存在相似的遮挡问题等。为了建模行人和场景之间的潜在联系,本文构建了一种场景行人图(Scene-Pedestrian Graph, SPG),将场景中的行人与所在的场景分块联系在一起。基于所构建的图结构,提出了一种在同一场景中使用高质量行人检测框来引导低质量行人检测框的策略,以提高行人检测框的质量。此外,设计了一种上下文和时序图匹配(CTGM)算法,有效地利用所构建的场景行人图中存在的上下文信息和时序信息来提高行人匹配的性能。得益于对复杂场景的鲁棒性,本文所提方法在两个大型行人搜索基准(CUHK-SYSU和PRW)上取得了强大性能。