在自动驾驶刚开始兴起的时候,就已经有人提出了这样的疑问:“自动驾驶能够解决电车难题吗?”
要回答这个问题,首先要回到电车难题本身——在车辆即将发生碰撞,在“撞五个人”和“撞一个人”之间,人们应该如何做出选择?这是一个伦理上的问题,它还可以引申出更深刻的讨论,如果即将被撞的五个人只是普通人,而另外一个人却是有突出贡献的科学家,人们又该如何选择?如果让自动驾驶系统来选择,它会选择什么?
人们对自动驾驶系统,对AI充满了期待,认为自动驾驶可以代替人类做出选择。然而,AI是人类设计研发的产物,它的决策最终还是由人类决定。因此,这一伦理问题最终还需要由人来来解决。
2017年,德国联邦交通与数字基础设施部下设的伦理委员会起草了一份自动驾驶伦理指导意见,对“电车难题”明确表示:自动驾驶不能在程序中设定好“电车难题”的解决方案,而应防止这样的难题发生。对于不可避免的碰撞,系统也不能够通过判别人类特征来选择最后被撞击的对象。
依据这个指导意见,自动驾驶是没有解决电车难题的能力的,一旦发生事故,最终会是什么样,是不可知的。
如果我们出于功利的角度,让无人车按照预设的程序进行处理,对于研发者,研发单位来说,都需要承担法律和伦理上的巨大责任。在经济的角度来说,这也将对自动驾驶相关的保险赔付产生影响。
目前行业还未对自动驾驶安全责任做出清晰的界定,还缺乏相应的设计规则。因此目前大多数企业还是维持与德国这一指导意见相同的策略——不赋予自动驾驶处理这一问题的能力。电车难题,仍然是一个难题。