当AI面对“电车难题”时会如何选择?

bdqnwqk8个月前问题21

在讨论自动驾驶汽车时,类似问题的情况是一种流行的比喻。

电车问题是一种道德困境,通常涉及生死场景。

现场是这样的:一辆电车失控,直道前方是有5人。您可以控制杠杆以将电车转移到另一条轨道。问题是,另一条轨道上也有1个人。你会选择牺牲5个人还是牺牲1个人?在这两种情况下,人们都会受到伤害。你认为哪个更符合人性道德的选择?

谷歌搜索将会出现成千上万的点击,提出这样的场景:“如果一辆校车在错误的车道上下山,你会设计一辆车从山路上行驶,牺牲乘客吗? “这是一个有趣且有趣的问题,但大多数作者在讨论它时都不知道,这对于自动驾驶汽车来说不是问题。

事实上,有个很有趣的网站()--道德的机器,出自麻省学院,用来采集人类对于人工智能可能会遇见的各种道德难题的意见收集平台。

但是这些类型的问题被归类为“不赢的情景”。如果汽车处于无法“正确”移动的位置,该怎么办呢?要回答这个问题,让我们看看问题已经解决的领域:井字游戏。

X代表人类,O代表人工智能

这张图片对于O来说是一个不赢的场景。如果人工智能正在输入O并且在电路板的左侧,X将在底部输入并获胜; 如果人工智能在底部输入,X将在左侧输入并获胜。无论在这种情况下它做什么,人工智能都会失败。

然而,我们知道一个设计合理的计算机程序永远不会输掉井字游戏。怎么可能?就像AI汽车的情景一样(杀死乘客或者撞上校车?)这对人工智能来说这是一个没有胜利的场景。如果在这种情况下无法取胜,那么计算机永远不会进行T井字游戏怎么样?

答案在两种情况下都是一样的......人工智能不允许自己陷入这种情况。

“这真的很简单。自动驾驶汽车永远不必在杀死一群人或杀死其乘客之间做出选择,如果它永远不会允许自己处于必要的选择。“

对上述问题的典型反驳是,“设计师无法预料到的情况怎么样?”但正如任何程序员都会告诉你的那样,这是错误的问题。如果程序员无法预料到这种情况,那么程序员根本无能为力。他将无法提前告知该车采取何种行动。例如问你如何解决一个问题的时候,你不知道情况的细节时,简直就是一脸蒙逼的状态。

所以解决方案很明显。尽可能地预测并计划好几步,让无法获胜的场景尽不可能地产生。至于未知的无赢场景,设计师在这种情况下无能为力,因此询问他们该做什么是浪费时间的。