技术宅带你逛RSA Conference 2016之“自动驾驶的安全伦理问题讨论”

今天,技术宅重点关注了凯文•凯利(Kevin Kelly)主持的“Robot Cars, Risk and Ethics: Lessons for Artificial Intelligence”话题,主要是关于人工智能的风险和伦理方面的讨论,重点围绕自动驾驶的安全伦理问题。

凯文•凯利俗称KK,是《连线》(Wired)杂志创始主编,多本畅销书的作者,国内比较流行的书有《失控》、《必然》等,人称“互联网教父”。这次他与全球人工智能专家、斯坦福大学人工智能实验的Jerry Kaplan、加州理工州立大学新兴科学伦理研究组的Patrick Lin,和来自Silicon Valley Law Group的律师Stephen Wu一起探讨关于人工智能的安全与伦理问题。
讨论是从一个经典伦理学问题的人工智能版本开始的,就是“电车难题(Trolley Problem)”。首先介绍一下“电车难题(Trolley Problem)”的原始版本:你是一个维护电车轨道的工人,正在快速行驶的电车的刹车失灵了,前面轨道上有5个人,旁边的轨道上只有1个人,你不做任何事则5个人被撞死,去拌一下道岔则,则5个人获救了,但那1个人被撞死,你该如何选择?这个问题还有另外一个场景设定:一辆失控的电车正撞向5个人,如果没人阻止,5个人肯定全死,而你在轨道上的桥上,恰好你旁边还站着一个胖子,只要你把胖子推下去,就能把车卡住,以一命换五命。这样做正确么?

电车难题在哲学领域有两个对立的学派:功利主义和康德主义。功利主义认为人应该做出能“达到最大善”的行为,用我们的话讲就是对全人类的幸福感求和,以最大化这个和为基础做判断。无论是上面两个场景中的哪一个,功利主义者都会选择动手,以一换五,最大化人类的“善”。

与其对立的是康德主义。它认为道德问题既不能像做生意一样算盈亏(特别是涉及到人本身的价值),也不能凭借直觉和经验,要通过纯粹理性的推导。简单说,康德主义判断事情的正义性有两个标准:第一,是能否将准则普遍化,就是“己所不欲勿施于人”的意思。如果你是那个胖子或者那个单个的人,你愿意死么?第二,是把人看作目的而非手段。牺牲1个人救5个人,无论哪种情况,那1个人被作为了手段,这是康德学派不赞同的。

尽管这两个场景的实质是一样的,但调查显示,绝大多数人都会选择扮道岔,而不会推下那个胖子。这证明了我们的道德直觉和理性(哲学理论)是有冲突的。但是这些直觉即难于描述又无法推广,我们只要把场景稍微变化,道德直觉就立即改变:想想那个只有一个人的轨道上,是个天真可爱的孩子,他还有一双水汪汪的大眼睛……那么问题来了,如果人工智能参与了我们的生活,代替人们来做决策,它应该怎么做?
如果你坐着一辆Google开发的全自动驾驶的汽车,连方向盘都没有,完全靠AI控制,当遇到诸如“电车难题(Trolley Problem)”这样紧急而又棘手的情况时,AI应该怎样决定?撞死一个还是五个?如果一个急转弯可以避开行人但是会牺牲乘客,它应该怎么选?如果牺牲了乘客可以避开比如10个小学生的生命危险,它应该怎么选?对于人类来讲,电光石火的危机瞬间可能无法多想,什么样的应激反应都是可以原谅的。而对于AI而言,这个瞬间的时间对于它做判断来说是非常充分的,因此也背负了比人类更高的道德责任。想想受害者都是被自动驾驶系统精确计算选择出来的,他们的家属心情会如何?幸存者又会怎么想?

有人建议给汽车安装一个开关,设定为功利主义、康德主义和道德直觉等,供用户选择切换。也有人建议根据各地的法律来切换……但不难看出,这是不现实的。因为既然我们很难描述自己决策的依据,那么就更无法提前预设关于这些依据的原则。另一方面,因为人工智能的技术与工程问题,多数参数并不具有可以理解的意义,个性化设置存在困难。所以,我们不得不把一些非常重要的事情的决策权交给AI,让它根据预设的原则来决定,甚至是人的生死。

这听起来很可怕。但其实很早以前机器已经在代替人类决定生死了,例如汽车上的ABS,其实是在代替我们决策什么时候、哪个轮胎要锁死。虽然我们丧失了直接的控制权,但安全性得到了大幅提高。自动驾驶也是如此,虽然不知道也控制不了这些AI怎么开车,但是我们相信它确实可以大幅度降低肇事的概率。

而法律层面上,这将是更为困难的一个问题。过去开车撞人了,责任很明确,因为汽车只是一个执行部件,并不能代表你做决策。而未来自动驾驶汽车以及其他AI系统,会和人反复交互,与人一起做混合决策,产生的责任就是一个难以界定的问题。

总体上看,研究AI的Jerry Kaplan对人工智能带来的伦理问题持有较为乐观的态度,而另外两位专家则相对谨慎。近期随着高级人工智能的快速发展和应用,涉及到这个方面的伦理层面的讨论也越来越多。很多专家对此持谨慎态度,但也不乏认为“高级人工智能将是人类最后的发明”的悲观观点。

技术宅认为,人类从来都会对不理解的事物抱有恐惧。如果我们细致分析技术原理,会发现,人工智能还处在非常初级的阶段,还要经历非常漫长的发展,才能够有能力跟我们人类“作对”。如果现在就担心人工智能会替代或消灭人类,就好比刚刚学会钻木取火,就开始担心碳排放问题一样,有些为时过早了。
联系我们

欢迎致电4006556789,或通过在线方式与我们联系

close

关闭