[本站讯]3月16日-21日,虚拟现实研究领域的国际顶级学术会议(CCF推荐A类会议)IEEE VR (IEEE Virtual Reality Conference and 3D User Interfaces)在美国奥兰多召开。以山东大学软件学院硕士研究生张桐瑜为第一作者,沈益冉、周元峰教授指导的论文“Swift-Eye: Towards Anti-blink Pupil Tracking for Precise and Robust High-Frequency Near-Eye Movement Analysis with Event Cameras”获得了本次会议的最佳论文奖,沈益冉教授为该论文的通讯作者。这一工作的第一作者和通讯作者单位均为山东大学软件学院,是软件学院首次在计算学会推荐的CCF A类顶级会议上获得最佳论文奖。本次会议共有6篇论文获得最佳论文奖(获奖比例1%),Swift-Eye是唯一一篇来自中国的获奖论文。本论文相关工作由山东大学软件学院领衔,香港科技大学、北京工商大学合作共同完成。
本篇获奖论文主要研究的是高频眼动追踪问题。由于眼球在快速扫视期间速度可以达到很快(角速度可以达到700◦/s, 角加速度可以达到24,000◦/s2), 本团队的上一篇发表在NeurIPS2024的论文“EV-Eye: Rethinking High-frequency Eye Tracking through the Lenses of Event Cameras”,收集了一个事件与RGB图片组成的眼动多模态数据集。其中事件数据相比于RGB数据, 可以捕获高频率(微秒级)的眼动。Swift-Eye是EV-Eye的后续工作,其使用插帧模型Timelens, 将事件数据转变为可视化的眼动数据,使得研究人员更直观地对其进行研究。现有的瞳孔检测算法, 在眨眼过程中, 检测到的瞳孔会发生异常的形变, Swift-Eye提出使用旋转目标检测算法, 以利用瞳孔是椭圆这一先验信息,同时, 以自监督的方式,生成大量的眨眼数据来训练模型, 并使用时间域上的特征融合模块, 来辅助对遮挡瞳孔的检测。本论文中的消融实验, 证明了生成眨眼数据方法, 以及时间域上的特征融合模块的有效性。同时,在与其他瞳孔检测算法的对比过程中, Swift-Eye得到了最好的效果。