完整题目:PILOT: Efficient Planning by Imitation Learning and Optimisation for Safe Autonomous Driving
Summary: 用learning做warm start,然后使用优化进行求解,对比速度上有7倍的提升
Type: IROS
Year: 2021
cite: 3
tag: planning
组织/Sensor: oxford, edinburgh
论文链接:https://arxiv.org/abs/2011.00509;https://ieeexplore.ieee.org/abstract/document/9636862
代码链接:无
pre视频: https://www.youtube.com/watch?v=jK5oUhnJ7xw
同组同一批作者:TRO two-stage论文 主要基于这篇时间问题给出的一种方案;
本文主要是想吸收这data-driven和model-based 各自优点,做到efficiency
总结 motion planning 可以划分为两类:data-driven 和 model-based;inference in data-driven model对比与其他的传统搜索和优化算法通常也更有效;而model-based 具有更多可解释性,而这些以robustness和runtime为代价
A robust and scalable framework that imitates an expensive-to-run optimizer
Applying this framework to the two-stage optimization based planner
此点主要是速度上的提升,比上次转成MILP问题进行warm,快了7倍的时间
提出:planning by imitation learning and optimization
之所以直接进入了网络设计 是因为… 优化的部分在上一篇TRO2022 two-stage进行了详细说明,此部分主要就是如何让网络得到一个warm start以得到一个更为 高效的求解系统
网络框架:
loss设计,期望网络能输出以参考线为坐标轴的一系列轨迹,encoded成一系列向量 \(\rho^{\theta}=\left\{\left(x_{j}, y_{j}\right)\right\}_{j=1, \ldots, N} \in \mathbb{R}^{2 \times N} \text {. }\)loss则是他和expert轨迹的L2 norm,其中 \(\theta\) 为神经网络的参数,D为训练数据,\(\mu\)为正则化参数
\[\begin{equation*}{\mathcal{L}_\theta }(\mathcal{D}) = \frac{1}{{nN}}\sum\limits_{i \in \mathcal{D}} {{{\left\| {\rho _i^\theta - \rho _i^{\ast}} \right\|}^2}} + \mu ||\theta |{|^2}\tag{2}\end{equation*} \]其中和实验表里cost的定义为:
\[\begin{equation*}{\mathcal{J}_{2{\text{s}} - {\text{OPT}}}}\left( {{{\text{x}}_{1:N}},{{\text{u}}_{0:N - 1}}} \right) = \sum\limits_{k = 0}^N {\sum\limits_{\iota \in \mathcal{I}} {{\omega _\iota }} } {\theta _\iota }\left( {{{\text{x}}_k},{{\text{u}}_k}} \right)\tag{4}\end{equation*} \]w为权重,\(\theta\) 为速度,reference path,终点位置,控制量:加速度和转向 分别对应公式为: \(\omega_v, \omega_y, \omega_x, \omega_a, \omega_{δ}\) 权重经过了作者的调整
相关参数为如此表:
可以看出对比之前2s-OPT来说在提高了速度的面前,仅一点点 求解质量的牺牲,同时对比MILP问题给的初解,虽然converged不比MILP问题,但是对比其他情况下已经是最高的了
None对应无论何时求解都讲车辆状态(包括位置,yaw,速度设为0);ConstVel, Accel, Decel 分别对应初始化时的状态为恒定速度,加速度、减速度等
现在就是意义上的做到了求解质量高,也可以达到实时性要求,其中主要和TRO 2s-OPT进行了联动对比(都是同一个作者走的,应该是同一个时间点 那个做完了就开始尝试,网络去学出给初解
在discussion部分,作者说未来的方向可以探索更高级的转接,使用initializations [33]以更小cost给出solution;同时看看其他的损失函数的加入,提高网络提供的初始化质量和弥补专家与优化器之间现有的差距(其实差距不大…)
JG说… 其实这种用神经网络给初解的想法很多,但是怎样给出这个expert很难,所以主要贡献其实还是在expert,或者主要效果还是由expert的好坏决定的
赠人点赞 手有余香