主页(http://www.kuwanit.com):无人驾驶系统并不在意驾驶的道德难题
“但是,我们要记住的是,这当中的任何一个问题,我们目前都没有遇到。在所有旅途中,我们从未遇到过这样的情况——要在驶向一个蹒跚学步的孩子和一个老奶奶之间做选择。就算我们真的碰见这样的场景,那通常也是因为你在几秒前犯了错误。因此,作为一名有良知的软件工程师,如果我想救人,我的目标是防止这类情况的发生,否则,我们就玩完了。
再换一种情况,现在你乘坐的已经不是矿车,而是一辆失控的无人驾驶汽车了,那么你会如何呢?要是在这万般危急的时刻,你不是那个需要做出决定的人,而是一名程序员,需要将你的选择早早写进代码中,你又将如何?要是现在,问题已经不是让你在五个人和一个人当中做选择,而是在无人驾驶汽车唯一的车主和五个行人的性命当中做选择,你又将做出怎样的决定?
责任编辑:大宝,个人微信号:onetyl,IT耳朵微信公众号:erduomi
“有些高知人士对如何解决这一难题很感兴趣,但是他们的答案几乎毫无例外——都是‘踩刹车’,”他补充道,“对于就在你眼前的东西,你当然更有信心,一方面是因为这个系统的工作原理,另一方面是因为,踩刹车可比努力把车转向容易实现的多了。所以,除非是在极端特殊的情况下,踩刹车这个方法才会失效。”
微信扫码关注IT耳朵
和《科学》杂志那份报告一同附上的,还有一个公共测试工具,以供人们假想自己会遇到的道德困境,而当中唯一一个始终一致的发现是——人们总是前后矛盾的,就算对于自己的观点也是如此。因此,我们当前尚未把这些想法写成代码而用于汽车系统的做法,或许恰恰是最好的选择。
我们还可在此基础上对这个问题进行各种各样的调整和改变,以窥探人类道德情感的不同方面。不妨做如下假设:要是逼停矿车的方式,不是拉动开关,而是把一个极重的人推落以阻挡其前进呢?或者说,那同条轨道的五个人全是80岁以上的老人,而另一轨道上的是个不到20岁的青年呢?又或者说,把那五个人换成五百只小猫,你又会怎样做呢?
[硅谷来信]是IT耳朵外媒编译团开辟的新栏目,旨在传播最新最热的海外智能硬件资讯。本期来信作者:叶飞扬
“电车难题”是一项有名的哲学思想实验,主要介绍 “作为”与“不作为”的道德区别。其经典例子如下:一辆失控的矿车正沿着轨道疾驰,奔向五名毫不知情的路人。而你没时间警告他们,唯一的选择是拉动一个开关,把矿车转向另一条轨道,这条轨道上只有一个人。你可以因此拯救五个人,但是这也意味着你主动杀死了一个人。面对此情此景,你将做何抉择?
[form ]
现如今,制造无人驾驶汽车已从梦想变为现实,但是由此而引发的哲学问题,却成为了全世界技术专家争论的焦点。不过,无人驾驶汽车制造者认为这实属无聊。
X实验室与谷歌公司关系极为密切(原为Goole X),是全面发展无人驾驶汽车的领头军。其在职工程师表示这些问题有些无趣。担任无人驾驶汽车首席工程师的安德鲁·查塔姆开玩笑说:“我们很喜欢讨论电车问题啊。”
×申请试用
近期,《科学》杂志上的一项报告显示,就算规定也无法起效:民意调查显示,就算有相应规定要求无人驾驶汽车执行自我牺牲式行为,大多人也对此持反对态度,并且,他们将会因此不考虑购买无人驾驶汽车。很显然,长期来看,这会导致更多人死亡,因为由于人为原因而造成的死亡,会不断、不断地发生。
就算一辆无人驾驶汽车真的遇到了前所未有的情况——不得不在两个意外死亡场景之中做选择,就算试车失灵,就算驾驶系统有够快的反应速度做出道德选择(费尔菲尔德是该项目另一名工程师,他开玩笑说真正的问题是“你现在该作何选择呢……哦我天,太迟了!”),关于无人驾驶汽车究竟该怎么做依旧没有定论,甚至在一个相对理想的环境下也是如此。
这些问题似乎指出了人们对无人驾驶汽车产生担忧的根本原因:将自己的生死问题交到了加利福尼亚那群程序员手中,而他们做出的不公开决定,或许并不是社会最优解。毕竟,要是你知道这辆车的程序将决定它会为保护粗心大意的行人而转而撞树,你还会买它吗?
发表评论愿您的每句评论,都能给大家的生活添色彩,带来共鸣,带来思索,带来快乐。