普陀信息港

当前位置:

无人驾驶汽车的道德困境撞SUV还是撞跑车

2019/05/14 来源:普陀信息港

导读

本文来自Geekcar,作者卢姿伊假设,1辆无人驾驶汽车正面临艰苦的抉择撞向两个物体中的一个。它可以把方向盘打向左边撞上沃尔沃SUV,或

本文来自Geekcar,作者卢姿伊

假设,1辆无人驾驶汽车正面临艰苦的抉择撞向两个物体中的一个。它可以把方向盘打向左边撞上沃尔沃SUV,或打向右边,无辜的Mini Cooper自认倒霉。如果你来给这辆车编程,原则是将伤害小化,在上述情况下你会让它撞哪个?

从物理学角度讲,你应当选择将其撞向一辆更重的车,从而更好地吸收碰撞动能,这么说来就得撞沃尔沃了。另外,被撞的这辆车还应当以安全著称,这么说,就更得撞沃尔沃了。

别高兴得太早,事实是物理学并不是需要斟酌的因素。选择撞一个东西而不是另一个,这本身就是个糟糕的抽签。从法律和道德层面来讲,这都把无人驾驶汽车产业拉到了危险的境地。

就算造成的伤害并非故意,一些优化撞车算法天然需要作出精密而系统的辨认,撞大型车辆。而被选中的车主得承受这一后果,即便他们什么错都没有,错就错在他们重视安全,又需要一辆SUV来拉一大家子。这,听上去合理吗?

这样说来,怎样才算公道的编程设计遇到了道德窘境。沃尔沃和别的SUV车主理所应当对那些优先撞他们而不是小型车的无人驾驶车制造商不满,尽管物理角度上这可能是解决方案。

这算是个现实问题?

某些车辆事故无可避免,甚至无人驾驶汽车也难逃一劫。一头鹿有可能突然跳到你面前,其他车道的汽车也可能突然冲着你就来了。先不管什么物理的三七二十一,火烧眉毛的事故怎么破才是王道。在这种意义上,一辆无人驾驶汽车能做出的选择。

人类在危急情况下只会以本能作出反应,然而1辆无人驾驶汽车却是由软件驱动的,它能目不转睛地持续扫描周遭环境,甚至在我们意识到危险之前就能够做出许多运算了。它们会争分夺秒地做出选择,将碰撞伤害降到。不过软件需要编程,目前还不清楚对疑难问题该怎么处理。

至于构建边界情况模型,我们在这里也不试图模仿真实世界里的情况。由于这些情况非常少见,但是却无疑暴露了常规情况下藏匿或潜伏的问题。自上述情景,我们能够看出碰撞算法可能会被引入歧途,每次我们做出价值判断,认为一项事物比另外一项事物更适合牺牲时,我们都该把它纳入考虑背景。

早年,无人驾驶车的运用场景主要控制在高速路上。这是个相对简单的环境,车主无需顾虑在市内驾驶时要时时留意的行人,数不清的别的移动标的们。不过,谷歌却于近期宣布,它在货真价实的城市街道上迈出了测试无人汽车的人生步。随着无人驾驶汽车的应用环境更为变幻莫测险象环生,它们将面对更艰苦的抉择,意即,撞道边物体,甚至是,行人。

道德,不单单牵扯到伤害问题

这一问题在下述场景里将会更尖锐地暴露出来。请再次设想,1辆无人驾驶汽车要撞车已经在所难免了。它有俩选择:一个戴头盔的骑摩托车的,一个没戴头盔的。编程的正确方式是啥?

以优化撞车之名,你可以使它撞向可以从事故中快重新屹立起来的任何物体。在文章开头的场景里,你该撞那辆沃尔沃SUV。这里,该撞那个戴头盔的摩托车手。一个好的算法应当知道,没戴头盔的骑自行车的被撞死亡概率要高得多,而死人则固然是汽车生产商要极力避免的了。

不过,我们也能一眼看出这1选择的不公正性,正如从优化撞车角度想问题一样有道理。通过撞那个戴头盔的骑摩托车的,我们这不就是惩罚他的感吗,因为他带头盔了?同时,我们给另一个骑摩托车的开了绿灯,即使他人要不负得多,不戴头盔在美国大多数州都是违法的。

这一区分对待不仅是不道德的,还是个坏政策。这一优化撞车设计会鼓励骑摩托车的们不再佩戴头盔,树大招风,何必因此变成无人驾驶车的靶子呢,尤其是这类汽车未来会越来越多。就像在上个场景里,以安全著称的汽车销量反而会受影响,比如沃尔沃和梅赛德斯奔驰。顾客们可不想成为无人驾驶汽车的靶子啊!

把一切交给运气

对这类使人窝火的两难窘境,一个优雅的解决方法是,干脆别做那末深思熟虑的选择了。我们可以设计出一款随机做选择的无人驾驶汽车。这是说,如果选择该撞哪一个靶子是有道德缺陷的话,那又为何要算计,随机多好!

无人驾驶汽车编程会产生随机的数字;奇数一种办法,偶数另一种办法。这避免了无人驾驶汽车对大型SUV,负的骑摩托车的或种种种种存在区别对待的指控。

这一随机性看上去也没给这世界带来甚么新的不可控性:运气常伴左右,好的坏的都是如此。随机决策也更好地摹拟了人类驾驶,直到目前为止,面对危机时人的瞬间反应还是不可预测的,并不是基于理智的,因为没有足够时间运用人类的理智。

不过,这一随机的机械可能由于以下几个原因而不够完善。首先,模仿人类驾驶有甚么了不起吗?造无人驾驶汽车不就是冲着他们能做出更好的决策吗?人类错误驾驶,分心驾驶,醉驾等等是如今90%甚至更大比例车祸的肇因。美国每一年有32,000余人命丧马路。

第二,我们人类司机要是做出一个糟糕的瞬时反应还能被原谅例如,撞向一辆一整就爆炸的福特Pinto(产生撞击后该车油箱会起火甚至爆炸)而非一个更安全稳定的物体。无人驾驶车可难辞其咎。世界各地的工程师们可是随时都能修改Bug的啊。这是谋杀和过失杀人的不同。

第三,在可见的未来,重要的是不仅仅是就难解的道德困境得出正确答案。它还应该心思备至,能否为此答案辩解,即秀出你的道德算法。在道德领域,如何斟酌一个问题与结果同样重要。而目前我们讨论到的是,无人驾驶汽车随机做个决策,然后,再推辞。它们不是深思熟虑,是考虑不周,这可能比人们作出本能反应结果酿成事故还要糟。

放弃知情权

另一个不那末激进的解决方案是隐藏某些可能致使不必要区分对待的信息,人称无知之幕。应用到上述场景即,不去识别交通工具的构成和型号,有没头盔或其它安全设施。这样一来,就没有形成傲慢与偏见的基础了。

在优化撞车计算中不使用这1信息还不够。要在道德立场上旗帜分明,无人驾驶汽车需要做到压根不去搜集这些信息。要是他们有这些信息的话,使用它们就能够将伤害事件小化或拯救生命,这样一来,如果不使用这些信息就会有法律。想象一下,要是一个国家智囊组织掌握了关于恐怖分子诡计的可靠消息,然而却没能阻止袭击的话,会激起多大的民愤!

不过这种方法也有问题,汽车制造商和保险商会希望收集尽可能多的数据,以更好地理解无人驾驶汽车车祸事件,或用于其他目的,比如新型的车内广告植入。因此,让这些利益相干方们自愿对关键信息睁一只眼闭一只眼不知道是不是是个现实做法,因为他们收集数据的欲望如此强烈。

So, Now What?!

在未来的无人驾驶汽车里,单单一项车祸避免功能还不够。有时从物理意义上讲一次事故的发生不可避免,比如由于没有足够的时间踩刹车,技术失误,天气原因或者单单就是坏运气作祟。因此,无人驾驶汽车也需要优化撞车策略。

为此,攻城狮们需要设计出机会成本公式,赋值,得出不同选项的预期本钱,选择成本的那个而这将决定谁生,谁死。这天然是个道德问题,决策时需要推敲和透明。作为解决这些挑战的步,创建关于道德和无人驾驶汽车的公开大讨论能够帮助提高公众和业界对这一问题的意识,在人们遭受飞来横祸时也能平息众怒。(这,能吗?)

关注次世代汽车,关注公众号:GeekCar

经期延长腹痛吃什么药
月经后期如何排淤血
月经有血块该吃什么
标签