知乎上有一个关于 “无人驾驶汽车” 的问题,提问者假设了一辆无人驾驶汽车遇到突发状况,假定有两种方案:一是无论刹车与否,保持方向会导致车外 3 人死亡;二是拐弯会撞到护栏导致车内 1 人死亡。无论选择哪个方案,也就引出了今天我们所要讨论的问题——无人驾驶汽车的道德困境该如何解决?不过很遗憾,似乎还未有关于这个问题合适的答案。

眼下,无人驾驶正在成为科技领域又一发展趋势,包括 Google、特斯拉、Uber、百度以及奔驰、宝马在内的传统车企已经投入巨资研发相关技术,而伴随这一技术的道德伦理选择也一直受到热议。

去年奔驰公司的一位高管曾表示,按照无人驾驶汽车的编程思路,如果在行驶途中面临一个道德困境,要么撞到马路上的一名儿童,要么急打方向盘以避免撞到儿童、但可能撞到其他车道的汽车以致本车人员伤亡,那么无人驾驶汽车会 “果断” 选择优先保护车内人员、宁愿撞到儿童。

这段话显然不诚实,任何车主都不会去买一辆遇到突发状况时选择牺牲车内司机和乘客的汽车,这位高管也补充道,无人驾驶系统会考虑更多因素,能在危急关头瞬间判断出 “最佳选择”,从而将损伤降至最低。

这样的观点似乎把无人驾驶可能引发的道德问题扯得更远了。如果这种 “最佳选择” 或者说程序会选择去救最有把握保护的人,这种风险依旧足以让潜在的无人驾驶用户感到担忧,甚至害怕。美国的一项调查就显示,受访者普遍认为无人驾驶汽车不应为拯救一名路人而牺牲车内人员,不过随着被拯救路人数量增加,受访者对拯救路人的意愿也随之升高,但他们也表示自己更加不愿意购买无人驾驶汽车。不过,这也正是无人驾驶汽车所面临的问题,伦理道德上的困境处理不好就会产生商业问题。

14707011708115

14707011708373

MIT 设计的道德机器

回到汽车驾驶本身,有人驾驶的汽车,车子是工具,行为主体是人,人为车子一切行为负责,这点非常明确,也拥有完善的法律体系来保驾护航。对于无人驾驶汽车,这些都还欠缺。

而从另一角度来看,我们显然也不能让 AI 来负责。IEEE(电气和电子工程师协会)交通标准指导委员会主席、IEEE P2040 车联网与无人驾驶标准工作组主席袁昱博士表示,尽管在无人驾驶汽车上操作或实际控制的主体由传统汽车上的人类驾驶员变成一个程序,简单点让程序/车来负责就好了。但是,这种思维显然对产业会有问题。

让程序/车来负责换句话说就把责任推到了车厂身上。传统来讲,车厂靠卖车赚钱,即使卖出的汽车出了车祸也是由司机来负责,与车厂无关,一旦要为所生产的无人驾驶车可能出现的车祸负无限连带责任,车厂以及整个产业肯定不会愿意去推广这种新技术新产品。“从整个产业角度而言,更好的方向是应该从自身角度出发,看看在新技术新商业背景下,产业链上下游服务能做什么,包括保险公司以及立法部门。” 袁昱博士认为,一旦在从这些方面解决了伦理困境,那么无人驾驶汽车的商业化过程将更加顺利。

我们还要注意到一点,在技术层面,无人驾驶和车联网足够发达时,汽车发生车祸的概率比有人驾驶更低,这不仅将促使保险行业愿意在无人驾驶汽车领域有所作为,使整个行业机制向多赢的模式发展,也是一个无人驾驶汽车普及的关键点。

回头再看我们现在所设想的无人驾驶汽车未来可能面临的道德困境,其本质无非是在于人类还远不了解无人驾驶,同时无人驾驶本身也未发展到一个程度时,人类对三方利益如何达到一个平衡状态的烦恼。可能无人驾驶的伦理问题并不是一个明确的答案,而是一种方向,这个方向可能至少在这一基础上——车企需要明确义务(可被接受的安全程度)、法律明确责任、用户足够了解风险(并在可接受的范围内)。