【论文精读】PlanT: Explainable Planning Transformers via Object

编程入门 行业动态 更新时间:2024-10-28 20:23:23

【<a href=https://www.elefans.com/category/jswz/34/1770125.html style=论文精读】PlanT: Explainable Planning Transformers via Object"/>

【论文精读】PlanT: Explainable Planning Transformers via Object

1 基本信息

院校:德国的图宾根大学
网站:

2 论文背景

2.1 现有问题

现在的基于学习的方法使用高精地图和BEV,认为准确的(达到像素级的pixel-level)场景理解是鲁棒的输出的关键。recovering pixel-level BEV information from sensor inputs。

2.2 作者的想法

作者认为这么丰富的信息是不必要的,仅仅使用低维的(物体级的object-level)特征——周车和routing信息即可。

3 解决办法

3.1 Tokenization

tokenization是指从场景如何获取token的过程。作者用的carla,细节略。直接看的得到的token。
Vt是车辆信息,St是routing信息。包含类型z,相对于自车的bouding box的位置x和y,长宽h和w,方向fai,一共6维。

3.2 Token Embeddings

将tokens输入给一个线性层,原来的6维变成H(hidden)维,再分别加入偏置ev和es,得到e。

3.3 自车规划任务

输入是3.2的线性化后的Vt+St和一个cls token(H维),transformer采用了BERT架构,输出采用GRU,通过自回归的方式输出Wx2的轨迹点。

3.4 周车预测任务

将transformer的输出h(每个周车都有h),经过一个线性层linear layer预测速度/位置/方向等。

3.5 loss设计

自车规划任务:自车轨迹的l1loss。
周车预测任务:交叉熵损失。

更多推荐

【论文精读】PlanT: Explainable Planning Transformers via Object

本文发布于:2023-11-16 13:01:02,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1623484.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:论文   PlanT   Explainable   Object   Transformers

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!