苏黎世大学研究人员推出了“迅捷”:一种基于视觉的自主无人机,可以在多个公平的一对一比赛中击败人类世界冠军
Researchers at the University of Zurich have developed Swift, a vision-based autonomous drone that can defeat human world champions in multiple fair one-on-one competitions.
第一视角(FPV)无人机竞速是一项令人兴奋且快速发展的运动,飞行员使用专用的FPV护目镜从第一视角控制竞速无人机。这些无人机拥有强大的电机、轻质框架和高质量的摄像头,用于在这项运动中进行低延迟视频传输。飞行员佩戴FPV护目镜,可以从无人机的摄像头获取实时视频。这种身临其境的体验使他们可以实时看到无人机所见的景象。
我们能否拥有一种可以击败人类冠军的自动驾驶移动无人机呢?苏黎世大学机器人和感知组的研究人员构建了一种名为“SWIFT”的无人机系统,可以与人类世界冠军在比赛中展开竞争。Swift可以在其物理极限内飞行,同时使用传感器估计其在赛道上的速度和位置。
Swift将模拟中的深度强化学习(RL)与从物理世界收集的数据相结合。它包括一个将高维表示转换为低维表示的感知系统和一个接收感知系统产生的低维表示并生成控制命令的控制策略。
感知系统包括视觉惯性估计器和门探测器(一种用于检测赛门的卷积神经网络)。检测到的赛门进一步用于估计无人机的轨迹以及沿着赛道所需的无人机方向。Swift使用相机重定位算法结合赛道地图进行此分析。为了获得更准确的无人机方向,他们使用从门探测器获得的全局姿态与利用滤波器的视觉惯性估计器相结合。
控制策略由两层感知器组成,将滤波器输出映射到无人机的控制命令,并通过保持相机视野中的下一个赛门来最大化感知目标。看到下一个赛门是有希望的,因为它可以提高姿态估计的准确性。然而,如果模拟和现实之间存在差异,仅在模拟中优化这些方法将导致性能较差。
模拟和实际动力学之间的差异会导致无人机选择错误的轨迹,从而导致碰撞。影响安全轨迹的另一个因素是对无人机状态的噪声估计。团队通过在现实世界中收集少量数据并使用这些数据来增加模拟器的真实性来缓解这些缺陷。他们在无人机通过赛道时使用机载传感器记录数据,并利用运动捕捉系统进行高精度估计。
研究人员表示,Swift在与每个人类飞行员的大多数比赛中获胜,并且创下了最快的比赛时间记录,比人类飞行员的最佳时间领先了半秒钟。他们还表示,在转弯时,Swift始终比人类飞行员更快,并且在从起点起飞时反应时间更短,平均提前人类飞行员120毫秒。