假如杀一个人可以挽救一万个人的生命,那么他应该被杀吗?
如果杀了我,可以活一万名中国人。我愿意。如果杀了我,可以死一万名美国人,顺带死5千日本人。也沒问题。
沒有应不应该的事儿。是愿不愿意的事儿。
自动驾驶真的很遥远吗?
自动驾驶面临很多道德难题当在谷歌Trends中搜索关键词“自动驾驶汽车”时,这个关键词的搜索量在过去五年中翻了3倍,这表明越来越多的群体开始关注自动驾驶汽车。除了一些与技术相关的话题外,很多搜索量也指向“道德悖论”类的词条。这意味着人们不仅关注技术发展,同时也关注自动驾驶汽车带来的社会和伦理问题。2018年3月,美国亚利桑那州发生首起自动驾驶汽车事故。然而,由于这起事故的发生,关键词“自动驾驶汽车”的搜索量达到了近5年的顶峰。Space X和特斯拉(Tesla)的创始人埃隆·马斯克(Elon Musk)说,如果你想要推动文明,你必须解决限制因素。因此,伦理问题可能会是影响未来无人驾驶汽车发展的重要问题之一。
下面,答主以一个著名的伦理实验为切入点,探讨一下自动驾驶车辆的伦理问题。
自动驾驶算法和电车难题根据谷歌报告,自动驾驶车辆的事故比手动驾驶车辆少。然而,对于自动驾驶汽车来说,事故是不可避免的。自动驾驶汽车的算法需要针对这些危险情况做出决策。
因此近年来,媒体和科学文献围绕自动驾驶系统的伦理决策展开广泛讨论。而这些讨论大多是基于一个著名的哲学思想实验——电车难题。电车难题通过描述一个场景来展现道德困境,即一辆移动的电车冲向5个被绑在轨道上的人。一个手握操纵杆的人可以选择将电车转向一条侧轨,使其撞死一个被绑者;或者不进行任何操作,让电车撞死5个人。这种经典的两难境地现在已经逐渐扩展到了自动驾驶的软件决策逻辑上。
(原谅我的垃圾草图)
首先,我们要搞清楚自动驾驶的算法。基本上,自动驾驶汽车使用多种传感器技术来检测不同类型的信息。该软件将根据检测到的信息、数据库和编写的算法做出决策。虽然车对车的通信、智能城市、智能交通系统等功能运行良好,但在一定情况下,由于机动能力有限(高速度、重自重),自动驾驶车辆无法紧急停车或者避让。这种情况下,自动驾驶汽车必将面临多选一的决策时刻,或者说,每一种决策都必将带来伤害的情况。这就是自动驾驶汽车的决策算法与电车问题的相似之处。
但是,在自动驾驶的语境下,电车难题已经演变成了不同的样子。以下是一些最常见的场景:当无法刹车时,自动驾驶汽车系统需要在伤害乘客和伤害行人之间做出选择。又或者,自动驾驶汽车在仅存的两种情况下做出选择:一种是撞上正常行驶在左侧车道上的摩托车,另一种是撞上没有戴头盔的右侧车道上的摩托车。诸如此类的种种。通过以上这些常见的场景,电车难题被广泛引入到自动驾驶汽车的讨论中,因为它展示了两种清晰而不同的选择。
尽管它提供了两种清晰的道德选择,可电车难题在自动驾驶领域仍然略显片面。一些学者认为,人类和计算机在感知、思考和行动的反馈回路上存在差异。此外,实际驾驶环境有更多影响因素和更多不确定的后果。
道德伦理问题难以计算因此,大部分学者认为自动驾驶背后的道德问题是复杂而庞大的。由此延伸的各类法律问题,也在自动驾驶的实践中不断显现。比如以“中国无人驾驶第一案”为代表的商业侵权和专利纠纷诉讼案件。尽管我们的技术在不断完善,但是伦理层面和意识层面远远没有做好大面积迎接自动驾驶的准备。自动驾驶的全面普及,还有一段路程要走。