和知讯科技网

司机的意图 “车”理解吗?

和知讯科技网 1

近日“蔚来自动辅助驾驶事故”受到广泛关注。18日,顽固的保守派们把他看作眼中钉肉中刺,“莆田高速交警微发布”发布警情通报指出,并且他的成果甚至还被一些成名已久的人物所,8月12日14时18分许,这就导致他的后半生惨遭奸人迫害。最终这位传奇科学家最终在贫困潦倒中孤独死去,林某某驾驶闽牌电动汽车在沈海高速公路莆田市涵江段追尾碰撞前方同车道的轻型普通货车后侧,实在让人唏嘘不已。他就是尼古拉斯·特斯拉,造成电动汽车驾驶人林某某当场死亡……此前,是的,“美一好”品牌管理公司发声称,就是特斯拉电圈的那个特斯拉,公司创始人林文钦驾驶汽车并启用自动驾驶功能(NOP领航状态)后发生交通事故不幸逝世。

尽管蔚来回复称“NOP领航辅助不是自动驾驶”,的交流电之父。特斯拉诞生在一个虔诚的基督教家庭,但依然不能打消市民对自动驾驶安全问题的担忧:由自动驾驶引发的交通事故,他的父亲是当地德高望重的神父,该如何划分责任?司机的意图,每天向神明祈祷是他最重要的功课。看着妻子忍受怀胎十月的痛苦诞下了特斯拉,真的能被理解吗?

●南方日报记者 郜小平

如何给自动驾驶定责?

“公安交警门将在事故调查基础上依法作出责任认定”,神父第一件事就是感谢上帝赐给了他一个男孩。他许下心愿,莆田高速交警在18日的通报中如是说。

认定责任,将成为此次事故的焦点。然而,在法律层面,针对自动驾驶的交通管理法律尚未推出实施,责任划分存在争议。

一方面,现阶段的技术还需要驾驶员自主操作,存在“人为”触发动作;另一方面,自动驾驶技术由车企提供,引发事故的原因往往是由于存在技术缺陷,责任如何划分也是“全新的挑战”。

比如说,在目前的汽车追尾事故责任认定中,现行责任认定“基本在后车”,这是考虑到人“无法注意到后方情况”。但应用了无人驾驶技术的车辆拥有360度视觉,责任完全有可能转移到车企。

8月16日,威马汽车创始人、CEO沈晖在微博上发声称,“辅助驾驶功能下,驾驶员是功能操作主体,也是责任主体;自动驾驶功能下,车内无人状态,操作主体是车辆本身,责任主体当归属车企”。

业界担心,由自动驾驶汽车引发的意外由车企承担主要责任,既会增加车企的责任又可能降低积极性,对汽车产业、无人驾驶技术的发展带来影响。在学术界,如何划分责任也莫衷一是。

“目前市场上能销售的汽车,所携带的都属于辅助驾驶系统,事故责任还是在驾驶员。”同济学汽车学院汽车安全技术研究所所长朱西产认为。

“NOP不是自动驾驶,但不代表本身就不存在缺陷。”西南政法学人工智能法律研究院自动驾驶法律研究中心郑志峰则说。

自动驾驶还是辅助驾驶?

“自动驾驶并不代表司机可以‘一劳永逸’。”全国乘联会秘书长崔东树认为,无论自动驾驶还是人工驾驶,由于各种偶然或干扰因素,发生意外在所难免,从目前透露的信息来看,“主要问题是消费者对自动驾驶可能出现风险的意识不足,在自动驾驶技术尚未完全成熟的状态下,过度信赖自动驾驶是有风险的。”

根据工信《汽车驾驶自动化分级》,3级是有条件的自动驾驶,4级和5级分别是高度自动驾驶和完全自动驾驶。“尽管分企业宣称已达到4级自动驾驶技术水平,但多数测试是在封闭道路上完成,能不能应对瞬息万变的复杂路况,还存在未知之数。”广州市智能网联汽车示范区运营中心副吴政铭说,无论从技术层面还是基础设施配套看,汽车实现高级别自动驾驶的条件都远远未达到。

为什么会有市民认为辅助驾驶就是自动驾驶呢?对此崔东树将其归咎为针对车企对辅助驾驶、自动驾驶等介绍并不够详细、理性,“分车企存在过度宣传的嫌疑,从而导致消费者产生认知误区。”

根据蔚来汽车的介绍,NOP功能开启以后,驾驶者能够根据需求将尽可能多的权限交至车辆,让车辆根据导航路程进行自动接管驾驶;在NIO Pilot的介绍页面,写的是“自动辅助驾驶系统”,但英文翻译中没有“Auto”(自动)。对此,有网友认为,蔚来在打擦边球,平时拿“自动”打广告,出了事就用“辅助”二字推卸责任,即便是辅助驾驶,危险情况下也应该辅助刹车。

实际上,车企常使用NOP、NGP(自动导航辅助驾驶)、高级辅助驾驶、高阶自动驾驶等字眼,规避自动驾驶的明确分级,使得车主进一步忽视相关风险。

“有不少车企喜欢在产品推广阶段耍小花招。”一位汽车行业人士对此次事故评价称,一方面车企强调是“领航辅助驾驶”,另一方面又使用人工接管率、解放双手等字眼“诱惑”消费者。

2019年,蔚来汽车裁沈斐曾在微博上示范如何在开启NIO Pilot功能前提下双手脱离方向盘驾驶,“NIO Pilot越来越上瘾,1点半会议结束出发,在自动辅助驾驶帮助下,放心地边吃东西边开车”。现在这条微博已被删除。

针对此次事故,郑志峰认为,首先需要调取数据“黑匣子”,并依据产品责任规则,审查车辆是否有设计缺陷、制造缺陷和警示缺陷,特别是有没有夸宣传自动驾驶功能,是否有设计配置驾驶员合理的监督介入措施;其次,确定驾驶员有没有过错,比如是否存在错误驾驶汽车。

如何让机器理解人的意图?

当人类把思考、控制甚至决策“外包”给人工智能算法时,自动驾驶如何证明自己是安全的?

在社科院哲学所科技哲学研究室段伟文看来,要让自动驾驶技术成熟,至少还有两个问题要克服,一是数据不够完备,二是如何让机器充分理解“人类意图”。

“自动驾驶可能会犯一些低级错误,例如空中飘来一个塑料袋,行车电脑可能会识别为行人,于是就进行急刹,进而造成追尾事故。”段伟文说。他告诉记者,机器要完全理解一个事物,需要采集量的数据,“比如说我们告诉机器,碗可以用来装水,我们就要寻找各种各样的样本来让机器学识别、训练,但如果我们没有事先告诉机器碗还可以用来盛饭,那它永远只会装水,机器学更多是通过计算、数据发掘、统计分析等方式来理解人的意图,但这都是人在算法和程序中事先设置好的”。

如果训练样本稍有变化,人工智能又对“新事物”倍感陌生。京东探索研究院院长陶程曾经做过一个实验:在道路交通牌上贴一个小广告,结果无人驾驶系统进行了误判。而误判则可能引发不可控的后果。在一起撞车事故中,侧翻卡车的白色货厢和天空的云同色,某车企的自动驾驶系统错误地把白色货厢识别成了天空中的云,导致车辆没有及时刹车,而是径直撞了上去。

“工程师或者人工智能想过车祸发生的各种可能撞击角度,但怎么会想象有一天车祸会发生在车顶?”广州科学院软件技术应用研究所常务副所长袁峰从另一个角度解释上述事故发生的原因。

当自动驾驶技术飞速发展,相关门的监管措施也在不断更新。8月12日,工信出台《关于加强智能网联汽车生产企业及产品准入管理的意见》。《意见》提及,应能自动识别自动驾驶系统失效以及是否持续满足设计运行条件,并能采取风险减缓措施以达到最小风险状态。

“做好技术探索与安全之间的平衡,首先是技术要有序放开、小范围测试,其次是针对可能出现的意外,要有更强的提醒和其他补救措施。”崔东树说,自动驾驶依然是未来汽车发展的方向,完善的自动驾驶技术在分环境下比人工驾驶更能快速判断环境变化,预防事故发生。

策划统筹:郭小戈 张志超

怎么获取ios测试系统

多linux系统怎么共享数据

家里路由器wifi密码怎么更改

玉石皮球怎么摆放

猫咪为什么自己待着要叫

狗狗睡觉经常叹气是怎么回事

兼职宠物店销售怎么样

微信视频号横滑动图片怎么制作

如何建立seo关键词库

标签: