欢迎访问必发888集团官方网站!
服务热线:0535-6530223
EN
当前位置:首页 > 产品中心

斩获全球无人驾驶榜单第一!MIT曝光3D深度学习新成果这类特斯拉驾驶隐患有望攻克

来源:必发888集团官方    发布时间:2024-07-31 01:01:23

  山东车主祁先生所说的 “新鲜事物”,正是他的爱车——特斯拉 Model S 100D。

  据大众报业 · 齐鲁壹点报道,5 月 25 日,山东高速交警接到报警,祁先生的特斯拉轿车,与路面提示牌发生碰撞。

  他说当时正在使用无人驾驶辅助模式,面对前方障碍物,车辆并未做出提醒。事后联系售后客服,得到的答复却是:“即使开启无人驾驶(辅助)模式,驾驶员也要全神贯注,不能完全相信该模式。”

  无独有偶,6 月 1 日,台湾一辆特斯拉 Model 3 撞向货车,给本已发生侧翻的货车带来二次事故,两辆车均受到不同程度损伤。

  据当事特斯拉司机黄某回忆称,当时他正在使用无人驾驶辅助功能,时速 110 公里左右,当看到侧翻货车、并进行刹车时,已经无济于事。

  近年来,车主在使用该功能时,已经引发多起事故。2016 年,美国海军海豹突击队前队员乔舒亚 · 布朗(Joshua Brown)的 Model S,因使用该模式撞上一辆卡车,最终不幸丧生。

  让人唏嘘的是,出事之前他曾在 YouTube 发布过无人驾驶如何避免撞车的视频,该视频还被特斯拉 CEO 马斯克转发。他去世之后,特斯拉开始为汽车配备更多相机和传感器,以避免汽车存在盲区。

  此前,为节省传感器成本,特斯拉的无人驾驶功能、甚至更高级别的全自动驾驶套件(FSD),都依赖同一套视觉方案——即以摄像头为主、毫米波雷达为辅的方案。由于成本原因,特斯拉并未启用成本高昂的激光雷达传感器。这导致其在障碍物识别上,不够令人满意。

  当前,特斯拉在中国越来越受欢迎。据中国汽车流通协会汽车市场研究分会多个方面数据显示,2020 年二季度该公司在中国市场交付汽车辆数,占全球销量 30% 以上,中国也成为特斯拉继美国之外的第二大市场。

  此外,其他汽车公司也开始提供无人驾驶辅助系统。但是,美国汽车协会(AAA)近日的一份新报告,再次证明了这些系统的局限性。他们测试了宝马、起亚和斯巴鲁的汽车,结果显示没有车辆能完全避免撞上假车。

  图 在加利福尼亚州的 AAA 测试跑道上,一辆测试车与一辆假车相撞(来源:Ars Technica)

  AAA 报告的合著者格雷格 · 布兰农(Greg Brannon)认为,这种系统的基本挑战是需要保持警觉性,因为虽然汽车可以长时间无人驾驶,但是人类很难长时间保持注意力。

  而自动驾驶汽车只有更好地理解周围环境、更精确地识别障碍物,才能让大家放心地驾驶。在这之中,3D 深度学习扮演着重要角色。

  在自动驾驶领域,3D 深度学习和激光雷达传感器密不可分。激光雷达传感器能采集到大量室外 3D 点云,而高效理解这些点云数据是无人驾驶的基础。

  目前,研究人员往往采用基于栅格化的方法和直接处理点云的方法,来进行 3D 物体的场景理解。

  其中,基于栅格化的方法,在高分辨率下面临着巨量计算和访存开销;而直接处理点云的方法,则受限于不规则内存访问。故此,一直以来两种方法均不高效。

  据了解,PVCNN 能够迅速高效地进行 3D 深度学习,与此同时还能避免稀疏性带来的巨大不规则内存访问。这篇论文最终被人工智能顶会 NeurIPS 2019 接收为 Spotlight 论文。

  DeepTech 于近日联系到负责上述研究的韩松,他是 MIT 电气工程与计算机科学系的助理教授,也是 MIT 韩松实验室的负责人。近年来,其专注于研究深度学习计算,并于 2019 年上榜《麻省理工科技评论》全球 “35 岁以下科学技术创新 35 人”(TR35)榜单。

  时隔不到一年,该实验室基于 2019 年的论文成果,又研究出新成果(附相关视频:)。

  该论文的两位共同第一作者,是 MIT 在读博士生唐昊天和刘志健。他们告诉DeepTech,此次研究主要涉及到四大概念:SPVConv、SPVCNN、3D-NAS 和 SPVNAS。

  两位第一作者告诉 DeepTech,本次研究是业界最早在 3D 计算机视觉领域,进行神经网络结构自动搜索的工作之一,并且在极具挑战的室外场景雷达点云语义分割任务上,完胜该领域此前的设计,在无人驾驶的权威评测榜单 SemanticKITTI 上,SPVNAS 位列单帧 3D 场景语义分割榜单榜首。

  具体来说,SPVConv 是一个高效且轻量的 3D 模块,其克服了此前 PVConv 难以高效处理极大规模室外场景的痛点。

  由 SPVConv 构成的 SPVCNN 大幅度的提高了此前该领域内最先进的稀疏卷积方法 MinkowskiNet 在识别小物体上的能力,与此同时整体准确率也得到明显提高。

  本次研究还通过 3D-NAS,自动优化 SPVCNN 的网络结构,得到 SPVNAS 模型,从而大幅度提高 SPVCNN 的计算效率以及在实际硬件上的延时。

  如何有效理解 3D 场景、并准确地驾驶,是无人驾驶汽车最要实现的能力之一。由于传统的 CPU 和 GPU,只适合处理稠密计算,而 3D 点云又比较稀疏,故此一直以来 3D 点云识别技术,都难以高效部署在通用硬件上。

  具体来说,之前的 3D 点云识别模型,往往要在高分辨率场景下进行大幅下采样。这通常是为了适应有限的计算资源,或者使模型获得足够大的感受野(Receptive Field)。

  这种牺牲高分辨率的操作,固然能提高模型效率,但往往会导致无人驾驶汽车没办法识别小型实例,如行人或自行车等。

  如下图左侧所示,小物体在低分辨率下仅有不到 10 个点,在这种分辨率下很难进行相对有效建模,因此会给无人驾驶汽车带来安全隐患。

  为解决这一痛点,韩松实验室提出由 SPVConv 构成的神经网络架构 SPVCNN,其可以在较低计算量下实现高准确率。

  据悉,SPVConv 的设计灵感来源于人类驾驶员。人类驾驶员在驾驶汽车时,首先会关注到视野中的大物体,如路面、建筑等,但他们也会关注到小物体,如行人和非机动车等。

  基于此,SPVConv 利用稀疏卷积分支,来建模整体场景和大物体,并用一个专用化点云分支,来建模场景中的细节,这样就可以让无人驾驶汽车拥有 “像人类一样的眼睛”。

  据了解,SPVConv 中的点云分支,采用完全稠密的矩阵相乘来做计算,CPU 和 GPU 处理起来很友好。由于该分支分辨率可以无限放大,因此能很精细地分割出小物体。

  尽管能取得很高的准确率,由 SPVConv 构成的、手动设计的 SPVCNN 在目前主流旗舰显卡 GTX1080Ti GPU 上,只能以大约 3FPS(画面每秒传输帧数)运行,这离雷达数据的 10FPS 采集频率相去甚远,根本没办法满足自动驾驶的要求。

  所以,该实验室沿用神经网络架构搜索的传统,提出 3D 神经网络结构搜索 3D-NAS,来自动优化 SPVCNN 网络的结构参数,所得的模型名为 SPVNAS。SPVNAS 可以在各种计算资源限制下,获得更优秀的识别准确率。

  基于此,该实验室又用 3D-NAS 对 SPVCNN 模型进行优化,最终得出名为 SPVNAS 的模型,SPVNAS 可以在各种计算资源限制下,获得更优秀的识别准确率。

  在分割相应物体准确度的标准 IoU(Intersection over Union)上,SPVNAS 在小物体上实现了最高达 25% 的 IoU 改进,并且其可以更好地分割马路边界。

  韩松实验室告诉 DeepTech,本次研究的代码等细节,将会放在 MIT 的 网站上。而被 ECCV 2020 接收的论文已经可以在预印本平台 看到。

  这项工作已获得麻省理工学院- IBM 沃森人工智能实验室、赛灵思、ON Semi、三星以及 AWS 的支持。该实验室也希望借助该研究,激励更多人研究高效深度学习,从而促进无人驾驶更快落地。

联系方式

Contact us

电话:0535-6530223 0535-6528584

钟克利:18615357959

唐伟华:18615357957

邮箱:info@hhmg.cn

地址:山东省烟台市楚凤二街4号