Sources
告别关于基于学习的Vehicle Motion Planning的误解 来自: 深蓝学院全域星球 用户头像 扫地猿 2024年11月09日 08:01 Parting with Misconceptions about Learning-based Vehicle Motion Planning 这里是「深蓝学院」的资源共建库,欢迎各位志同道合的朋友们。本篇资源分享,面向「规划控制」方向的论文通读,以便大家进一步交流学习。 🌟如有错误,请于文档评论区指正,欢迎交流见解。——《深蓝学院》 《足式机器人运动控制》从机器人学的基础知识到常见的强化学习控制方法,“虚实”实践结合,在仿真环境中实现控制模型的实物化应用。☞联合足式机器人知名企业共同推出,打通理论-仿真-实物部署的整套流程! 研读有言: 起笔之初,作为研读者,在此想先对本论文作者们,表示诚挚的谢意。学海浩渺,因有诸位执炬先行者,才使我等后辈读者得以循光而行。感谢各位作者。——梁松 (文末↓获取原文) 摘要 nuPlan的发布标志着车辆运动规划研究的新时代,提供了第一个大规模真实世界数据集和评估方案,要求同时进行精确的短期规划和长期自我预测。现有系统难以同时满足这两个要求。实际上,我们发现这些任务根本上是不一致的,应该独立处理。我们进一步评估了该领域当前的闭环规划状态,揭示了基于学习方法在复杂真实世界场景中的局限性,以及简单的基于规则的先验知识(如通过车道图搜索算法选择中心线)的价值。更令人惊讶的是,对于开环子任务,我们观察到仅使用中心线作为场景上下文(即忽略所有关于地图和其他代理的信息)就能获得最佳结果。结合这些见解,我们提出了一个非常简单高效的规划器,它超越了众多竞争对手,赢得了2023年nuPlan规划挑战。 关键词 运动规划,自动驾驶,数据驱动仿真 1、引言 尽管基于学习系统在车辆运动规划研究中取得了成功[1, 2, 3, 4, 5],但缺乏标准化的大规模数据集阻碍了它们从研究到应用的转化[6, 7, 8]。最近发布的nuPlan数据集和模拟器[9],包含了1300小时的真实世界车辆运动数据,改变了这一现状,使得新一代的学习型运动规划器的发展成为可能,这些规划器承诺减少手动设计工作量并提高可扩展性。有了这个新的基准,我们对一个大规模、开源和数据驱动的模拟器进行了首次严格的实证分析,包括一系列最新的(SoTA)规划器[10, 11, 12],使用官方指标。我们的分析得出了几个令人惊讶的发现: 开环和闭环评估是不一致的。大多数学习型规划器都是通过监督学习任务来训练的,即预测自我车辆的未来运动,条件是期望的目标位置。我们将这种设置称为自我预测[2, 3, 13, 14]。在nuPlan中,规划器可以通过两种方式进行评估:(1)在开环评估中,使用基于距离的指标来衡量自我预测的准确性;(2)在闭环评估中,使用进度或碰撞率等指标来评估模拟中的实际驾驶性能。开环评估缺乏动态反馈,可能与闭环驾驶的相关性很小,如之前在简单的CARLA模拟器上所示[15, 16]。我们的主要贡献在于揭示了这两种评估方案之间的负相关性。学习型规划器在自我预测方面表现出色,但在制定安全的闭环计划方面却表现不佳,而基于规则的规划器则表现出相反的趋势。 基于规则的规划具有泛化性。我们惊讶地发现,一个建立于二十多年前的基于规则的规划基线[17],在闭环评估指标方面超越了所有SoTA基于学习方法在我们的基准测试中。这与大多数关于学习型规划器的研究中普遍使用的动机声明相矛盾,即基于规则的规划在泛化方面面临困难。 这之前只在更简单的基准测试上得到了验证[4, 10, 11]。因此,大多数当前关于学习型规划的工作只与其他学习方法进行比较,忽略了基于规则的基线[3, 5, 18]。 对于自我预测,一条中心线就足够了。我们实现了一个简单的学习型规划基线,它不包含任何关于场景中其他代理的输入,只是根据期望路线的中心线表示来外推自我状态。这个基线在我们的基准测试中为开环评估设定了新的SoTA。它不需要复杂的场景表示(例如,车道图、矢量化地图、光栅化地图、标记化对象),这些一直是之前工作[10, 11, 12]中的核心研究对象。这些先前的研究都没有考虑过一个简单的仅中心线表示作为基线,或许是因为它的非凡简单性。 我们的贡献如下:(1)我们展示了规划中开环和闭环评估方案之间的不一致性,并进行了分析。(2)我们提出了一个轻量级的IDM[17]扩展,具有实时能力,实现了最先进的闭环性能。(3)我们进行了一个开环规划器的实验,该规划器仅受当前动态状态和中心线的条件限制,显示出它超越了具有复杂输入表示的复杂模型。(4)通过将两个模型结合成一个混合规划器,我们建立了一个简单的基线,超越了其他24个,通常是基于学习的,竞争方法,并在2023年nuPlan挑战中获胜。 2、相关工作 基于规则的规划 基于规则的规划器提供了一个结构化、可解释的决策框架[17, 19, 20, 21, 22, 23, 24, 25, 26]。它们采用明确的规则来确定自动驾驶车辆的行为(例如,当正前方有物体时刹车)。基于规则规划的一个开创性方法是智能驾驶模型(IDM[17]),旨在在保持安全距离的同时跟随交通中的前车。存在IDM的扩展[27],专注于在高速公路上启用车道变换。然而,这并不是我们工作的目标。相反,我们通过执行具有不同超参数的多个策略,并评分以选择最佳选项,来扩展IDM。先前的工作也将基于规则的决策制定与学习组件相结合,例如,通过学习代理预测[28]、可负担性指标[23, 24]、基于成本的模仿学习[4, 29, 30, 31, 32],或基于规则的安全过滤的学习型规划[33]。这些混合规划器经常预测未来的环境状态,使得知情和随机的驾驶决策成为可能。这种预测可以是代理中心的[34, 35, 36],为每个参与者确定轨迹,或者是环境中心的[4, 31, 30, 29, 37, 38],涉及占用或成本地图。此外,预测可以根据自我计划进行条件设置,模拟自我车辆对场景未来的影响[39, 40, 41, 42]。我们采用了一个代理中心的预测模块,它比现有方法简单得多,允许其作为新发布的nuPlan框架的起点。 自我预测 与预测性规划不同,自我预测方法使用观测数据直接确定未来的轨迹。自我预测方法包括端到端方法[43],这些方法利用激光雷达扫描[44, 45]、RGB图像[46, 47, 48, 49, 14, 50]或两者[13, 51, 5, 52],以及涉及低维输入的模块化方法,如鸟瞰图(BEV)网格或状态向量[24, 53, 11, 54, 55, 56]。一个并行研究引入了一个简单的MLP输入当前动态状态,在没有场景上下文输入的情况下,在nuScenes数据集上产生了有竞争力的自我预测结果[57][58]。我们的发现补充了这些结果,通过评估在具有挑战性的2023 nuPlan挑战场景测试分布中的长期(8秒)自我预测[9]。我们表明,在这种设置中,完全移除场景上下文(如[58]中)是有害的,而一个简单的中心线表示足以实现强大的开环性能。 3、自我预测和规划不一致 在本节中,我们提供了关于数据驱动模拟器nuPlan的相关背景。我们描述了两个基线,用于初步实验,以证明尽管自我预测和规划通常被认为是相关任务,但它们在nuPlan的定义下并没有很好地对齐。一个任务的改进往往会导致另一个任务的退化。 图1:规划与自我预测。我们展示了一个nuPlan场景,将可行驶区域用灰色标出,并将原始人类轨迹作为虚线黑线。在每个快照中,我们显示了自我代理及其预测。(左)观察到IDM预测(受限于基于规则的中心线)与人类轨迹之间存在显著位移,导致开环得分较低。(中+右)模拟0.5秒后,学习型PDM-Open规划器外推其自身的错误,最终驶离道路,导致次优的闭环得分。 3.1 背景 nuPlan。 nuPlan模拟器是第一个公开提供的真实世界规划基准,它允许快速原型设计和测试运动规划器。nuPlan通过数据驱动的仿真尽可能地构建一个接近真实驾驶环境的模拟环境[59, 60, 61, 62, 63, 64, 65]。这种方法从一个包含1300小时真实驾驶的预录数据集中提取道路地图、交通模式和对象属性(位置、方向和速度)。然后使用这些元素来初始化场景,这些场景是15秒的模拟,用于评估开环和闭环驾驶性能。因此,在模拟中,我们的方法依赖于详细的高清地图信息和真实感知,即不考虑定位误差、地图不完善或误检。在开环模拟中,整个日志仅仅是重放(对于自我车辆和其他行动者)。相反,在闭环模拟中,自我车辆在被测试的规划器的控制下运行。闭环模拟有两个版本:非反应性,所有其他行动者沿着它们的原始轨迹重放,和反应性,其他车辆采用IDM规划器[17],详细情况如下。 指标。 nuPlan提供了三个官方评估指标:开环得分(OLS)、非反应性闭环得分(CLS-NR)和反应性闭环得分(CLS-R)。尽管CLS-NR和CLS-R的计算方式相同,但它们在背景交通行为上有所不同。每个得分都是由一系列子得分的加权平均值组成,这些子得分会乘以一组惩罚。在OLS中,子得分考虑了位移和航向误差,包括平均值和最终值,持续时间为8秒。此外,如果预测误差超过阈值,惩罚会导致该场景的OLS得分为零。同样,CLS中的子得分包括碰撞时间、沿着专家路线的进度、速度限制合规性和舒适性。CLS的乘法惩罚包括责任碰撞、可行驶区域或驾驶方向侵权以及未取得进展。这些惩罚会导致CLS大幅降低,大多数情况下会降至零,例如,当与车辆发生碰撞时。值得注意的是,CLS主要依赖于短期行动而不是一致的长期规划。所有得分(包括OLS/CLS)的范围是0到100,分数越高越好。鉴于nuPlan指标的复杂组成,我们参考补充材料中的详细描述。 智能驾驶模型。 简单的规划基线IDM[17]不仅模拟了nuPlan CLS-R评估中的非自我车辆,而且也作为自我车辆规划的基线。nuPlan地图被提供为一个图,中心线段作为节点。在选择一组这样的节点通过图搜索算法后,IDM推断出沿所选中心线的纵向轨迹。给定当前纵向位置x、速度v和沿中心线到前车的距离s,它迭代地应用以下策略来计算纵向加速度: 加速度限制a、目标速度v0、安全余量s和指数δ是手动选择的。直观地说,该策略使用加速度a,除非速度已经接近v0或前车的距离仅为s。更多的细节和我们确切的超参数选择可以在补充材料中找到。 3.2 不一致性 中心线条件自我预测。 我们现在提出预测性驾驶模型(开放),即PDM-Open,这是一个简单的多层感知器(MLP),旨在预测未来的航点。这个MLP的输入是由IDM提取的中心线(c)和自我历史(h)。为了适应nuPlan中观察到的高速度(达到15米/秒)和自我预测范围(延伸到8秒),中心线以1米的分辨率被采样,长达120米。与此同时,自我历史包含了车辆在过去两秒内的位置、速度和加速度,以5Hz的速率采样。c和h都被线性投影到大小为512的特征向量中,连接起来,并输入到具有两个512维隐藏层的MLP ϕOpen中。输出是8秒范围内的未来航点,每隔0.5秒一个,表示为wOpen = ϕOpen(c, h)。模型是使用L1损失在我们177k样本的训练数据集上训练的(在第4节中描述)。按设计,PDM-Open比现有的学习型规划器[10, 12]简单得多。 OLS与CLS。 在表1中,我们使用nuPlan指标对IDM和PDM-Open基线进行基准测试。我们展示了两种IDM变体,具有不同的最大加速度值(默认a = 1.0ms−2和a = 0.1ms−2)和四种基于不同输入的PDM-Open变体。我们观察到降低IDM的加速度可以提高OLS,但对CLS产生负面影响。尽管IDM显示出强大的闭环性能,但PDM-Open即使只使用当前的自我状态作为输入(第一行),也在开环中优于IDM。过去的自我状态(历史)只带来微小的改进,并导致CLS下降。最重要的是,添加中心线显著有助于自我预测性能。CLS和OLS之间的明显权衡表明自我预测和规划的目标不一致。这种在nuPlan上的反向相关性是出乎意料的,考虑到自我预测在当前规划文献中的日益使用[3, 10, 12, 11]。虽然自我预测对于驾驶性能并非必要,但nuPlan挑战要求同时具有高OLS和CLS。 表1:OLS-CLS权衡。在nuPlan上使用不同输入的基线得分。 在图1中,我们展示了OLS和CLS指标之间的不一致性。在所描述的场景中,基于规则的IDM与人类驾驶员相比选择了不同的车道。然而,它在整个模拟过程中保持了在路上的位置。这导致了一个高的CLS,但OLS很低。相反,学习型PDM-Open生成了沿着人类驾驶员选择的车道的预测,从而获得了高的OLS。尽管如此,由于在模拟过程中其短期预测中累积的错误[66, 67],模型的轨迹驶离了可行驶区域,最终导致了一个次优的CLS。 3.3方法 我们现在通过结合模型预测控制的几个概念,包括预测、提议、模拟、评分和选择,来扩展IDM,如图2(顶部)所示。我们称这个模型为PDM-Closed。注意,作为第一步,我们仍然需要图搜索来找到沿路线的一系列车道并提取它们的中心线,就像IDM规划器一样。 图2:架构 PDM-Closed选择一条中心线,预测环境,并创建不同的轨迹提议,这些提议被模拟和评分以用于轨迹选择。PDM-Hybrid模块使用PDM-Closed的中心线、轨迹和自我历史来预测偏移,仅校正长期航点,从而限制了学习型模型在闭环模拟中的影响。 预测。 在nuPlan中,模拟器为每个动态代理(如车辆或行人)提供了一个方向向量和速度。我们利用一个简单但有效的恒定速度预测,超过8秒的预测范围F,以10Hz的频率进行。 提议。 在校准IDM规划器的过程中,我们观察到在选择目标速度超参数(v0)的单一值时存在权衡,这要么导致激进的驾驶行为,要么在各种场景中进展不足。因此,我们通过在五个不同的目标速度下实现IDM策略,即{20%,40%,60%,80%,100%}的指定速度限制,来生成一组轨迹提议。对于每个目标速度,我们还结合了三个横向中心线偏移(±1m和0m),从而总共产生了N = 15个提议。为了在后续阶段避免计算需求,提议的预测范围减少到H步,对应于4秒,以10Hz的频率。 模拟。 nuPlan中的轨迹是通过迭代检索LQR控制器的动作,并使用运动学自行车模型来传播自我车辆。我们使用相同的参数和这个两阶段流程的更快重新实现来模拟提议。因此,提议根据闭环中的预期移动进行评估。 评分。每个模拟的提议都被打分,以偏爱交通规则合规性、进展和舒适性。通过考虑具有横向和纵向多样性的提议,规划器可以避免与代理预测发生碰撞,并纠正控制器未能准确跟踪预期轨迹时可能出现的漂移。此外,我们的评分函数与nuPlan评估指标紧密相似。我们指导读者参考补充材料以获取更多细节。 轨迹选择。 最后,PDM-Closed选择得分最高的提议,该提议被扩展到完整的预测范围F,并使用相应的IDM策略。如果最佳轨迹预计在2秒内发生碰撞,则输出会被覆盖为紧急制动操作。 增强长期准确性。 为了将PDM-Open的准确自我预测能力与PDM-Closed的精确短期行动结合起来,我们现在提出了PDM的混合版本,即PDM-Hybrid。具体来说,PDM-Hybrid使用一个学习模块PDM-Offset来预测PDM-Closed的航点偏移,如图2(底部)所示。 表2:Val14基准测试。我们展示了几个规划器的闭环得分(反应性/非反应性,CLS-R/CLS-NR)、开环得分(OLS)以及运行时间(毫秒)。我们指明了每个规划器使用的输入表示(Rep.)。PDM-Hybrid在自我预测(OLS)和规划(CLS)方面表现出色。*这是PDM-Hybrid的一个初步版本,它结合了PDM-Closed与GC-PGP[12],并用于我们的在线排行榜提交(表3)。 在实践中,nuPlan中使用的LQR控制器在确定闭环中的行动时,专门依赖于轨迹的前2秒。因此,仅对长期航点(即,默认超过2秒,我们称之为校正范围C)应用校正,允许PDM-Hybrid保持闭环规划性能。最终规划器输出的航点(直到预测范围F){wt_Hybrid}F_t=0由下式给出: 其中c和h是中心线和历史记录(与PDM-Open的输入相同)。{wt_Closed}F_t=0是PDM-Closed航点加入到混合方法中的,ϕOffset是一个MLP。它的架构与ϕOpen相同,只是增加了一个额外的线性投影来容纳wClosed作为额外的输入。 重要的是要注意,PDM-Hybrid设计具有高度的模块化,能够在不同的需求出现时用替代选项替换各个组件。例如,我们在补充材料中展示了使用不同的开环模块的结果。鉴于其总体简单性,一个有趣的探索方法是结合模块化但可微分的算法作为组件,如在[34]中所见。探索这些模块在统一的多任务架构中的整合是另一个有趣的方向。我们将此类探索保留在未来的工作中。 4、实验 我们现在概述我们提出的基准,并突出我们方法的驾驶性能。 Val14基准。 我们提供了标准化的数据分割用于训练和评估。训练使用nuPlan的所有70种场景类型,每种类型限制在4k个场景以内,结果约为177k个训练场景。对于评估,我们使用排行榜考虑的14种场景类型的100个场景,总共1,118个场景。尽管有轻微的不平衡(不是所有14种类型都有100个可用场景),我们的验证分割与在线排行榜评估一致,证实了我们的Val14基准作为在线测试集的代理的适用性。 基线。 我们在研究中包括了几个额外的SoTA方法,采用自我预测进行规划。Urban Driver使用PointNet层编码多边形,并在多头注意力块之后使用线性层预测轨迹。我们的研究使用在开环设置中训练的Urban Driver的实现。GC-PGP基于路线约束的车道图遍历聚类轨迹提议,然后返回最可能的聚类中心。PlanCNN使用CNN从光栅化网格特征中预测航点,没有自我状态输入。它与该领域的开创性工作ChauffeurNet有许多相似之处。一个PDM-Hybrid的初步版本,赢得了nuPlan比赛,使用GC-PGP作为其自我预测组件,我们将其作为一个基线。我们在补充材料中提供了这个版本的完整描述。 结果。 我们在表2中展示了结果。PlanCNN在SoTA学习型规划器中实现了最好的CLS,可能由于其设计选择,从输入中移除了自我状态,以换取增强的CLS。与社区对图和基于矢量的现场表示在预测和规划中的日益偏好相反,这些结果表明,对于闭环任务,光栅表示没有明显的劣势,PlanCNN还提供了更低的运行时间。令人惊讶的是,我们研究中最简单的基于规则的方法IDM优于最好的学习型规划器PlanCNN。此外,我们观察到PDM-Closed在CLS方面比IDM的优势:从76-77提高到92-93,这是由于第3节中的想法。令人惊讶的是,PDM-Open以仅7ms的运行时间,使用中心线和自我状态作为输入,实现了最高的OLS 86。我们观察到PDM-Open在准确的长期车道跟踪方面优于其他方法,详见我们的补充材料。接下来,尽管PDM-Closed的OLS 42不满意,PDM-Hybrid成功地将PDM-Closed与PDM-Open结合起来。PDM-Hybrid的中心线和图版本在我们的评估中实现了相同的分数。然而,最终的中心线版本,使用PDM-Open代替GC-PGP,推理时更有效。最后,输出地面真实自我未来轨迹(日志重放)的特权方法未能实现完美的CLS,部分原因是nuPlan框架的LQR控制器有时会偏离提供的轨迹。PDM-Hybrid通过评估基于预期控制器结果的提议来补偿这一点,使其在闭环评估中匹配/超越日志重放。 挑战赛。 2023年nuPlan挑战赛中,PDM-Hybrid的初步(图)版本在25支参赛队伍中排名第一。排行榜考虑CLS-R、CLS-NR和OLS的平均值。虽然开环性能略有落后,但闭环性能表现出色,从而获得了总体SoTA分数。不幸的是,由于排行榜的关闭,我们无法对最终(中心线)版本的PDM-Hybrid进行基准测试。所有顶级竞争者都结合了学习型自我预测和基于规则的后处理或后处理,以提高挑战赛的CLS性能。因此,我们预计未来会看到更多的混合方法。 表3:2023 nuPlan挑战赛。 重要的是,我们的提交在Val14基准(表2)和官方排行榜(表3)上记录了几乎相同的分数。注意,排行榜上的Urban Driver和IDM结果由nuPlan团队提供,因此它们可能使用与我们在表2中的实现不同的训练数据和超参数。 消融研究。 我们通过消融研究进一步探讨了我们的设计选择,如表4所示。表4a显示了PDM-Hybrid的闭环得分反应性(CLS-R)和开环得分(OLS),以及从0s到3s的不同校正范围(C)。将航点校正应用于所有航点(即C = 0),在OLS中优于PDM-Open(87对86,见表2),但与默认值C = 2相比,CLS-R显著下降。另一方面,当更深入地开始校正轨迹时(例如,C = 3),OLS明显下降,对CLS-R的影响很小。 对于PDM-Closed(表4b),我们比较了在三种情况下的基础规划器的CLS-R和运行时间(ms):去除横向中心线偏移(“lat.”)、纵向IDM提议(“lon.”)和环境预测(“cast.”)。我们的分析表明,消除提议会降低CLS-R的有效性,但加快了运行时间。当排除用于创建和评估提议的预测时,性能显著下降,但运行时间几乎保持不变,显示出简单预测机制的有效性。 至于PDM-Open(表4c),我们测试了三种变体:较短的中心线(30m对120m)、较粗的中心线(每10m对每1m)和较小的MLP,其隐藏维度减少(从512减少到256)。较小的MLP和减少的中心线长度都导致了性能下降,但与完全忽略中心线相比(表1,OLS=72),影响相对较小。同时,较粗的中心线的影响可以忽略不计。 表4:消融研究。我们展示了闭环得分反应性(CLS-R)、开环得分(OLS)以及运行时间(毫秒)。我们研究了(a)PDM-Hybrid的不同校正范围,(b)忽略PDM-Closed的子模块,以及(c)输入和架构选择对PDM-Open的影响。默认配置(灰色高亮)实现了最佳的权衡。 5、讨论 尽管基于规则的规划常常因其有限的泛化能力而受到批评,但我们的结果表明,在最类似于现实世界评估的闭环nuPlan任务中,它表现出色。值得注意的是,开环成功部分需要在闭环性能上进行权衡。因此,模仿训练的自我预测方法在闭环中表现不佳。这表明基于规则的规划者仍然是有前景的,值得进一步探索。同时,考虑到它们开箱即用时的糟糕表现,模仿学习方法在nuPlan上还有改进的空间。 我们将闭环规划和开环自我预测的优势整合在一起,提出了一个混合模型。然而,这并没有增强闭环驾驶性能;相反,它在执行相同的驾驶操作时提高了开环性能。我们得出结论,将精确的开环自我预测视为实现长期规划目标的先决条件是误导的。 承认自我预测对于可解释性和评估类似人类行为的潜在重要性,我们建议将这种评估集中在与闭环驾驶相关的短视界(例如,2秒)上。当前nuPlan OLS定义要求8秒的单峰自我预测,可能只对其他应用有用,如为数据驱动交通仿真中的背景代理设置目标或更好地分配计算资源,例如优先考虑自我车辆预期穿越区域的感知或预测。我们不鼓励将开环指标作为规划性能的主要指标。 限制。 虽然我们在IDM模型上取得了显著改进,但PDM仍未执行车道变换操作。车道变换尝试常常导致自我车辆处于两个车道之间时发生碰撞,导致nuPlan指标的高惩罚。PDM依赖于高清地图和精确的离板感知,这在现实世界驾驶情况下可能不可用。虽然已经展示了学习型方法在现实世界部署,但对于基于规则的方法来说,这仍然是一个重大挑战。此外,我们的实验除了保留的测试集外,没有特别评估模型在遇到分布偏移时的泛化能力,如未见过的城镇或新的场景类型。它们都在nuPlan单一模拟器上进行。因此,认识到nuPlan数据驱动仿真方法固有的限制非常重要。当规划器比人类驾驶日志前进得更快时,对象在模拟中突然出现在自我车辆前方。对于CLS-NR,车辆像现实世界中观察到的那样独立移动,忽视自我代理,导致过于激进的行为。相反,CLS-R背景代理依赖于IDM,严格遵循中心线,导致不切实际的被动行为。我们认为,为未来工作开发更精细的反应环境具有很高的价值。 结论。 在本文中,我们识别了基于学习的车辆运动规划中的普遍误解。基于我们的见解,我们引入了PDM-Hybrid,它建立在IDM之上,并结合了学习型自我预测组件。它超越了一系列竞争对手,并在2023年nuPlan比赛中获胜。 6、更多学习内容 更多资源,学习《自动驾驶控制与规划》点击进入拥有10年以上机器人规划控制研发经验的乌宁博士课程 ——该内容整合来自:深蓝学院-幕后爆肝团队 论文原文↓ 原文📃文件: 【注】论文相关参考资料请见原文: https://arxiv.org/pdf/2306.07962 知识星球 扫码加入星球 查看更多优质内容
Podcast Editor
Podcast.json
Preview
Audio
