没想到今天小米发布会,直接放出了自动驾驶的阶段性成果;整体进度比我想象中要快啊,这必须得好好分析一波。(请搭配原视频观看本文,效果更佳)
先说结论:
1、在自动驾驶技术上,小米目前展示的状态,没有领先业界的超前突破。
2、总体水平处于ROBO Taxi类改装车的上等。
2、但是考虑到测试车的就位时间,在进度上的狂飙突进还是非常厉害的。
视频中出现了两种小米自动驾驶测试车,传感器布置形式相对原始——在车顶上装了个“大帽子”,把激光雷达、摄像头啥的装在上面。
这是ROBO Taxi类型“自动驾驶公司”惯用的改装类型,也比较适合小米这种暂时没有原型车的状态。
这样做的好处,就是给传感器最大的感知空间;缺点呢,就是家用车不允许这种制造模式,传感器必然融入整车工业设计,所以这个状态到整车,还需要有很长的工程整合、繁琐测试。
说人话就是:我们目前无法从自动驾驶测试车的状态,去猜测小米24年新车的工业设计、传感器布置等信息。
视频第一段,为城区领航辅助状态,即所谓CNOA(City Navigate on Autopilot);也就是大家最想要的状态:打开车载地图导航,选中目的地,汽车全自动开过去。
因为进度第一,所以小米的CNOA必然强依赖高精地图;注意观察右下角的可视化效果,路面的3D点云异常稳定,不太可能是实时建模,推测为高精地图的视觉重建。
但是小米的感知部分写的真不错,请注意这里的可视化效果,对其他车流的识别重建,都没有发生可感知的剧烈抖动。
说明车辆的感知系统非常稳定,能够精准的抓住目标,而且3D重建的可视化平滑算法做的到位;而且模型比较优雅,流畅度目测也是很不错的,我喜欢。
还注意套在3D模型上的三维框框,这也是基操了;之前某车厂的自动驾驶演示视频,对目标识别是二维框框,业界同行很是嘲笑了一番。
避让大型车和加塞车Cut in,常规操作,小米测试车感知条件远超家用车,能做到不稀奇,做不到才是问题。
NOA的标志性操作——自我决策上匝道和主动变道。
这里小米的规控做的不错,变道策略不是死板的看前车距离,而是看相对速度;左车道尽管还没超过自己的车道,但是系统观测到它相对速度更快,就马上变道,提高通行效率。
这个策略还是比较聪明的,但是视频加速太快,看不出来变道控制的顺滑程度。
风险避让,正常操作;大家玩命升级感知系统,搞出来Lidar+环视+毫米波的多层感知,就是干这个的。
无保护掉头,这是个高难场景,需要感知系统全力工作,同时决策系统要兼顾通行效率和安全性——不能拐的太慢,不然你这辈子都掉不过来;不能拐的太快,不然要出事。
得益于车顶极其优越的观测位置,测试车的感知系统提供了360度全方位的信息,这个掉头比较顺滑。
但如果装在小米的量产车上,Lidar最多只能提供前半球观测信息,毫米波也有一堆死角,这种场景就得纯靠环绕视觉感知了;这就是我前面所说,小米需要在量产车上解决的工程问题。
有红绿灯的可视化(右下角),但是不知道是V2X发回的信息(跑在武汉自动驾驶示范路段),还是纯靠视觉识别的信息。
如果是后者,那么小米的技术状态还是可以的。
避让公交车(大车),基操了
这段很有意思,注意看可视化信息,小米测试车已经建立了完善的行人、两轮车识别模型。能识别、能避让、能3D重建,进度不错。
复杂多路况左转,不过有红绿灯,难度中等吧。
这段很有意思:得益于位置优越的感知系统,小米测试车第一时间发现了被SUV遮挡的电动车。
这个识别非常迅速,决策继续往前开也非常果断,不知道量产车还能否达到如此惊艳的水平。
行人避让,基操。
环岛行驶,CNOA的基操。
我朝马路自有国情在此!超繁忙路段,人车交杂,小米测试车表现得很稳,规控做的不错。
无保护右转这里,我起初以为出现了个常见Bug——也就是识别到了红圈的老大哥,没及时停下来,都开到人前面才停下。
后来发现不是,是检测到左前方的粉色电动车,必须避让,安全性的预判算法写的真不戳。
小米测试车的CNOA总体看起来比较顺滑,是典型的城区高精地图强依赖路线,而且因为传感器全部放在车顶,所以感知条件非常优越。
能做到这个水平的厂商很多,ROBO Taxi (就是那些所谓的“L4自动驾驶创业公司”)一抓一大把。
小米比较优秀的地方在于:他们时间很紧,500天以内拿出来这一套东西来。
感知、决策、控制算法看起来成熟度还行,能跑到这个程度,值得肯定了。
小米的挑战在于:工程化量产的过程中,传感器特别是激光雷达,必然与整车设计高度融合,因而感知空间会大大受限。
Lidar会从现在的360度无死角,变成只能最多只能看到前半球270度(1前2侧布局),甚至不到180度(车顶前向单Lidar布局);所以对环绕视觉的感知算法提出了非常严苛的要求,期待小米量产车给一个满意的答案。
第二部分是AVP无人泊车,即如图所示——站在车库门口点下手机,汽车自动泊入预定车位。
因为车库环境较为简单,且时速较低,所以这辆测试车干脆以无人驾驶形态往前开。
自动下陡坡我还觉得挺惊艳的,感知系统这么强?
不过看第二张图,emmm,还是预先建图的——就是说车里已经有车库的高精地图了,难度要低不少。
这张图会更明显一点,车辆还完全下坡,左边还有遮挡,车库的可视化效果已经出来了(右下角)。
不过感知系统写的还行,识别车辆的速度挺快。
这张会更明显:出库车辆越线就识别到了,还有两个空车位也准确识别;就算有高精地图加持,感知系统不行那也是白搭。
90°急弯,方向盘拉出了一个巨大的角度,控制算法挺给力;但是毕竟试验车,量产车的情况无法从视频推断。
绕行雪糕筒,AVP基操
倒车入库,基操
机械臂自动充电,想得很好,实践非常困难:汽车的充电口位置不统一,前后左右都有分布,光是机器人跑来跑去的算法就够你喝一壶的。
而且很多车的充电口盖并非电动弹出,你要怎么打开呢?就算是能电动弹出的,你又怎么激活弹出程序呢?
更何况国标充电口标准写的非常哈批,水平低下,锁止机构异常导致充电枪锁死那都是基操勿六;万一锁死,还得车主大费周折紧急解锁,甚至还解不下来...
总之,如果想用机械臂形式做第三方公共自动充电,不太现实,长期来看这还是个非常重人工的活。
不过如果是富B装自己家用,那当我没说,现阶段插拔充电枪确实不够优雅...有机器人代劳会好很多。
相比CNOA状态,自动泊车的AVP状态惊喜较少;主要是你们提前建图了喂,没看到实时感知算法有太大的发挥空间。
小米展示的8分钟视频,完整的展示了工程改装测试车的状态,也是涵盖了目前辅助驾驶最大的3个场景碎片——“城区-高速(环路)-车库”。
如我之前所说,想从这个状态推断量产车非常困难;小米最大的目的,应该还是建立下公众信心,表达自己有意愿、也有能力站在高阶辅助驾驶第一梯队。
目前展示出来的能力,并没有很强的前瞻性突破;但还是那句话——你考虑考虑时间呢?
而且人家也志不在此,作为新晋车厂,先把测试车跑起来才是最重要的。
从正式开始组建团队,到今天展示测试车状态,我觉得小米汽车ADAS进度还挺快的,比我预想得要快;我以为23年上半年才会开始展示,24年下半年开始伪装车测试。
目测量产车依然是第一梯队感知硬件:前半球Lidar+环绕视觉+毫米波的2层半架构;我比较感兴趣的是计算平台用哪家,那时候老黄单片1000T算力的Atlan应该出来了,但是地平线J6和高通下一代Ride也会登场。
其他的就不猜了,信息太少,先到这里吧。