加入收藏 | 设为首页 | 会员中心 | 我要投稿 西安站长网 (https://www.029zz.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

当自动驾驶还未摆脱人类

发布时间:2019-08-21 15:47:22 所属栏目:建站 来源:于本一
导读:副标题#e# 「它经常会在不合适的时机进行变道,但如果你想拨一把方向盘救个急,它还会和你较劲,非常危险」,「整个过程就像看着自己孩子开车一样,干着急还提心吊胆,搞得压力很大」 这里的「它」正是特斯拉 Autopilot 。之前美国《消费者报告》(Consumer

从表 I 不难发现,这其中涉及的任何一项车辆技术都是数据驱动的,需要搜集大量的边缘案例数据,利用这些数据持续不断地优化算法。这个学习过程的目的应该是,通过大量数据实现从传统的模块化监督学习向端到端半监督式和无监督学习过渡。

要实现车辆的自动驾驶,传统的方法,不管是哪个级别,几乎都不会大量的应用机器学习技术。除了在一些特殊的线下场景,比如 Mobileye 的视觉感知系统要进行车道线识别,或者是通用 Super Cruise 搭载的红外摄像头要对驾驶员头部动作进行预测等。

特斯拉的 Autopilot 可能要比其他方案更进一步,在开发针对第二代硬件平台 HW 2.0 的软件算法时,在视觉感知上应用了越来越多监督机器学习的原理。但即便如此,对车辆的绝大部分控制以及对驾驶员状态监测的实现中,并没有利用大数据驱动的方式,也几乎不涉及线上学习的过程。

而在目前业界进行的一些全自动驾驶技术的路测中,机器学习主要应用于环境感知这一环节。更甚的是,这些车辆采集到的数据,无论是从量还是多样性来看,和具备 L2 级自动驾驶能力的车型相比,逊色不少。

当自动驾驶还未摆脱人类
特斯拉 Autopilot 对目标物、车道线的检测主要依赖机器学习算法进行 | Electrek

MIT 认为,「L2 级自动驾驶系统中机器学习框架使用的数据,从规模和丰富性的角度来看都具有足够的扩展能力,可以覆盖多变的、具有代表性、挑战性的边缘案例。」人机共驾(Shared Autonomy)要求同时搜集人和车辆的感知数据,挖掘分析后用于监督学习的标注。在 MIT 的实验过程中,驾驶场景感知、路径规划、驾驶员监控、语音识别以及语音聚合都应用了深度神经网络模型,可以通过搜集到的大量驾驶体验数据进行持续性的调校和优化。

在进行数据采集时,MIT 表示并不会只局限于单一的传感器来源,而是对整个驾驶体验通盘考虑,并将所有的传感器数据流通过实时时钟(real-time clock)汇总、聚合,用于多个神经网络模型的标注。这种方式能够让驾驶场景与驾驶员状态能够很好地匹配起来,而在聚合的传感器数据流进行标注工作,使模块化的监督学习可以在数据规模允许时轻松地向端到端学习过渡。

三、监督人类(Human Sensing)

这个其实就是我们俗称的「驾驶员监控」。它指的是对驾驶员的整体心理以及功能特征,包括分心、疲惫、注意力分配和容量、认知负荷、情绪状态等的不同程度进行多维度的衡量和评估。

目前除了通用 Super Cruise 在方向盘上装有一枚红外摄像头外,不管是搭载了 ADAS 驾驶辅助系统的量产车型,还是在路测的全自动驾驶汽车,绝大部分都没有提供任何有关驾驶员监控的软件和硬件。特斯拉 Model 3 其实也装了一枚车内摄像头,但目前尚未启用,具体功用官方表示要等软件更新后才知道。而基于视觉的解决方案以外,市面上还包括一些准确率不高的方式。比如特斯拉在方向盘上安装了扭矩传感器,也有的公司利用监测方向盘是否发生倒转的方式推断驾驶员是否出现疲劳情况。

当自动驾驶还未摆脱人类
全新一代凯迪拉克 CT6 搭载的驾驶员监控系统由 Seeing Machines 提供 | 官方供图

(编辑:西安站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读