除了智能汽车的六大体系之外,道德规范也同样重要
最近,发展和改革委员会以及工业和信息技术部等11个部委联合发布了"智能车辆创新发展战略"文件,其中提议在五年内建立六个主要系统。到2025年,我国标准智能车辆的技术创新、产业生态、基础设施、监管标准、产品监管和网络安全体系基本形成,具备自主驾驶条件的智能车辆将实现规模化生产。在特定的环境下,市场上使用的是高度自动驾驶的智能车辆.
智能车不仅是人工智能和机械化的结合,也是信息文明时代人、社会、智能一体化的方向,也是智能城市的要素之一。要构建六种智能车辆系统,无论是同时开发和实现这一目标,还是在时间和重点上逐一突破,这一问题还有待进一步探讨。智能汽车能否上路,不仅取决于技术是否实用,还取决于与其相关的社会因素是否匹配。因此,虽然智能汽车的六大体系需要推广,但还有其他方面的支持,如道德规范等。
根据科学技术的结构和社会关系,技术的发展是一种创造性的动力,技术是先驱者,人类社会需要制定相应的规则来适应技术创新。这些天智能车就是这么做的。一方面,在智能汽车时代,必须修改原有的交通规则,或重新制定交通规则,另一方面,我们必须解决智能汽车的伦理问题--尽量减少或接近于零对人类社会的危害。这是哲学家菲利普·福特(PhilipFord)在1967年提出的一个哲学问题,在智能汽车时代,这个问题可能更加突出和尖锐。
无论智能汽车的技术多么先进,道路基础设施多么先进,智能汽车也有可能在道路上发生交通事故。在事故即将发生之前,人工智能的选择是拯救路人或保护车上的乘客。这是一个必须解决的问题。
2018年8月,麻省理工学院媒体实验室的研究人员在"自然"杂志上发表了一项大规模调查,揭示了世界各地不同国家对自动驾驶汽车的道德偏好,以及这些偏好中的一些地区差异。对223个国家的受访者进行的调查表明,不同社会的道德规范是普遍的,保护人的生命而不是其他动物的生命;拯救许多人的生命,而不是少数群体的生命;保护年轻人的生命,而不是老年人的生命。
同时,智能汽车,无论是否发生事故,都应该承担法律责任,但也必须在智能汽车上路前制定规则。"目前,在社会支持方面还没有相应的规则。2018年3月18日晚,Uber的一辆自动驾驶汽车撞上了49岁的伊莱恩·赫茨伯格(Elaine Herzberg),并杀死了她。2019年11月19日,国家交通安全委员会(NTSB)宣布,事故的主要原因是优步脆弱的安全文化,该公司的法律代表(董事长或首席执行官)主要负责。然而,这不是一个合法的决定。此外,当时优步自动驾驶仪上也有一名安全官员,并非完全无人驾驶。
将来,如果完全无人驾驶,公司将对事故负责,还是由智能汽车的设计者负责,还是由运营者、批准人或所有操作人员负责?在智能汽车上路之前,道德和法规是需要解决的问题。因此,智能汽车虽然有必要推动六大体系的发展,但同时也要进行技术创新和道德规范。