近日,“社会计算与认知智能”教育部重点实验室尹宝才教授、杨鑫教授的关于基于头戴式智能设备的单眼情绪识别方法、基于单张全景图的自监督室内场景点云补全方法的2项研究成果被人工智能领域国际A类会议(IJCAI 2024)、计算机图形学领域国际高水平学术期刊(The Visual Computer 2024)接收。
IJCAI是国际人工智能领域的顶级学术会议,代表人工智能领域的高水平和发展方向,被中国计算机学会(CCF)推荐国际学术会议列表认定为A类会议。
The Visual Computer是计算机图形学领域的国际高水平学术期刊,被国际权威数据库EI、SCI、SCIE收录,跟踪并发表最新关于捕捉、识别、建模、分析和生成形状和图像的相关研究领域的文章。
研究成果1:博士生王洋作为第一作者与硕士生包骐瑞等人共同完成,新加坡工程院院士、IEEE Fellow李海洲教授作为共同作者的在人机交互领域的研究成果“Apprenticeship-Inspired Elegance: Synergistic Knowledge Distillation Empowers Spiking Neural Networks for Efficient Single-Eye Emotion Recognition”被IJCAI2024所录用。该工作面向当前人机交互领域的头戴式智能设备在用户情绪变化实时识别应用时所面临的数据冗余、延迟高、能耗高、准确率低等问题,提出基于脉冲神经网络(SNN)的多模态协同知识蒸馏单眼情绪识别方法,该方法针对SNN模拟生物神经网络的动态和时序信息处理的特性,设计了两个新颖的蒸馏一致性Loss(HCKD和TCKD),其分别可以有效地提高SNN蒸馏过程中的时间一致性和命中一致性,使轻量化后的单模态脉冲学生网络可以从多模态教师网络中学习到多维的、丰富的时间线索知识;在降低现有网络计算复杂度和能耗的同时,进一步提升识别的准确度。
面向人机交互领域的基于头戴式智能设备的单眼情绪识别方法
基于脉冲神经网络的多模态协同知识蒸馏算法框架
研究成果2:博士生李童作为第一作者与博士生张肇轩等人共同完成的计算机图形学领域的研究成果“Self-Supervised Learning, Panorama, Indoor Scene, Point Cloud Completion”被The Visual Computer 2024所录用。该工作提出一种基于单张全景图的自监督室内场景点云补全方法,以单张全景图作为输入,比单视角图像视野范围更广,比多视角图像获取更方便,能够在一个视点快速覆盖360°更大场景重建范围,并且在难以获取3D完整监督数据的情况下,实现了自监督场景点云补全,兼顾了场景重建范围、补全效果,以及方法的灵活性,可应用于开放环境下室内场景单站快速、完整重建,减少冗余扫描,提升建模效率。本工作设计了视点转换策略模拟场景遮挡构造自监督辅助任务,并解决了等矩形投影过程中点对点遮挡问题提出自监督数据集生成方法,设计了邻域集成和特征扩散模块,用于在大规模点云下采样前进行特征提取和特征保留,使补全网络能够处理大规模场景点云,提出了一种基于Transformer的场景点云补全网络,有效补全场景缺失区域,并展示了与相关监督学习方法相比具有竞争力的补全结果。
基于单张全景图的自监督室内场景点云补全方法
场景点云邻域集成和特征散播算法框架
基于Transformer的场景点云补全算法框架
详细工作请参见主页:https://xinyangdut.github.io/.
[1] Apprenticeship-Inspired Elegance: Synergistic Knowledge Distillation Empowers Spiking Neural Networks for Efficient Single-Eye Emotion Recognition. The 33rd International Joint Conference on Artificial Intelligence (IJCAI) 2024.
[2] Self-Supervised Learning, Panorama, Indoor Scene, Point Cloud Completion. The Visual Computer (Visual Comput.) 2024.