美国当地时间6月16日-20日,全球计算机视觉及模式识别领域顶级学术会议CVPR 2019(Conference on Computer Vision and Pattern Recognition)于美国长滩召开。
百度Apollo技术委员会主席王亮在会上首次公开了环视视觉解决方案百度Apollo Lite。
王亮介绍,Apollo Lite是针对城市道路L4级视觉感知解决方案,能够支持对10路摄像头、200帧/秒数据量的并行处理,单视觉链路最高丢帧率能够控制在5‰以下,实现全方位360°实时环境感知,前向障碍物的稳定检测视距达到240米。
王亮表示,经过前期的技术研发和今年上半年的迭代,依靠这套10相机的感知系统,百度无人车已经可以在城市道路上实现不依赖高线数旋转式激光雷达的端到端闭环自动驾驶。
不过此次百度仅强调了不依赖激光雷达,而对毫米波雷达等传感器的使用情况尚未披露。
感知系统是实现自动驾驶、辅助驾驶的关键环节,也是车辆进行后续能够决策和控制的基础,出于可行性和安全性的考虑,车辆的环境感知能力是决定自动驾驶水平的关键因素。
在一众致力于实现无人驾驶汽车尤其是Robot-taxi的自动驾驶公司来说,激光雷达依然是目前无法绕开的传感器。但激光雷达仍未突破量产难题,同时在环境适应能力上也存在问题,且高昂的价格让其无法登上量产车型。
与之相对的便是基于视觉的感知解决方案。这条技术路线上的著名公司则有特斯拉和英特尔旗下的Mobileye,两家公司开发的基于视觉的感知方案目前都是针对L2或L2+级别的辅助驾驶,且都已大量部署在了市面上的量产车上。
百度表示,摄像头是相对成熟的传感器,除具备轻巧低成本和符合车规的优势外,高分辨率高帧率(成像频率)的成像技术发展趋势意味着图像内蕴含的环境信息更丰富,同时视频数据也和人眼感知的真实世界最为相似,但和三维点云数据相比,二维图像中的信息更难挖掘,需要设计更强大的算法、大量数据的积累和更长期的研发投入。
众所周知城市道路场景下的L4甚至是L3级别的自动驾驶目前都还是一大技术难题,Apollo Lite 虽能在移除了激光雷达之后依然完成L4级别城市道路自动驾驶,但其中的场景限制也依然明显。正如百度介绍的那样,无人车实现的是“端到端闭环”的自动驾驶,这并不是我们城市驾驶时的典型场景。至于Apollo Lite 的实际效果如何,还需百度披露更多相关信息。
不过,与使用了激光雷达的方案相比,Apollo Lite的视觉感知方案价格低且便于获得,离真正的量产又近了一步。百度还指出,这套低成本近车规级环视感知方案也能够支持ADAS辅助驾驶应用,可为企业、开发者提供低价的自动驾驶解决方案。
此外,王亮认为,在L4级自动驾驶传感器选型上,激光雷达和摄像头不是排它的的也不是单纯的从属和互补关系。从安全性考虑,二者具备相同的重要性和不可替代性,缺一不可。
王亮强调,百度下决心投入资源研发纯视觉感知解决方案并不意味着放弃现有基于激光雷达的技术路线,而是在技术实践过程中充分意识到无人驾驶系统真正意义上的冗余(true redundancy)的必要性,决定通过压强环视视觉技术来夯实多传感器融合感知框架。在激光雷达为主,视觉为辅的传统融合策略中,视觉感知自身的问题和缺陷在雷达感知的掩盖下暴露不够充分。而通过Apollo Lite打磨的纯视觉技术则能够反哺百度的多传感器融合解决方案,最终提升无人驾驶系统的鲁棒性和安全性。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.