当AI面对“电车难题”时会如何选择?

作者:CQITer小编 时间:2019-03-12 01:17

字号

图片来源@视觉中国

图片来源@视觉中国

文 | 智能相对论,来源 | 佘凯文

《流浪地球》上映已经超过一个月了,截止目前,其国内累计票房已经突破了46亿元人民币,距离票房第一还差10亿,考虑到其已经延期上映至5月5日,冲击票房第一还是有希望的。同时它也带来的各种话题也从未停息,3月6日,电影周边人工智能MOSS的雕像开启了众筹,这台一直催促刘培强中校快点进入休眠舱的人工智能,深受影迷的喜爱。

这类具有高智能度的AI已经在包括《终结者》、《钢铁侠》及《流浪地球》等许多影视作品中出现过了,《终结者》中的天网是个大反派,在《钢铁侠》中贾维斯又是个忠仆,那么在《流浪地球》中的MOSS到底是什么属性呢?

AI面对“电车难题”会如何选择

“电车难题”是一个著名的思想实验,其内容大致是:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。而此时你可以选择拉杆让电车开到另一条轨道上。然而问题在于,另一个电车轨道上也绑了一个人。考虑以上状况,你是否应拉杆?

在这个问题上人类做过很多调研,大部分人都会选择拉杆,让电车变道“杀一人而救五人”。

在电影中moss也面临着类似“电车难题”般的选择,在受到木星引力的影响下,地球即将撞向木星,是抛弃地球开启“火种计划”,还是选择牺牲空间站“引爆木星”。

电影中Moss通过“理性”分析其认为“引爆木星”计划的成功率为零,毅然选择了开启“火种计划”带着空间站开始“逃离”。然而事情的结果却是moss计算“错误”,引爆木星计划帮助地球成功摆脱了木星引力,使得地球重归流浪之路。

关于“电车难题”还有一个非常著名的延伸问题,同样在铁轨上被绑了5个人,一列失控的电车即将经过,在压到这5个人之前电车会经过一个桥洞,此时桥上有一个胖子,只需要将胖子推下桥,电车就会因为压到胖子而脱轨,从而解救被绑在桥上的5个人,你推还是不推?根据调查结果显示,在此时大多数人又都会选择不推,而让电车压过被绑的5人。

同样的“杀一人而救五人”,在这两种前提下却出现了截然不同的选择结果,这就是人类的“感性及道德”在作祟。在第一个前提下,选择拉杆给人的心理暗示是“我拯救了5个人”,而在第二种前提下却变成了“我杀了1个人”,于是就导致了两种选择结果。

如果在此时再次换成AI来做决断又会是什么情况呢?以电影中moss的“理智”来看,moss极有可能会推下那个胖子因为“以少换多”看起来是个划算的买卖,可是moss就会变成“杀人犯”,这在人类的道德观上又是不允许的。那么,为何由人类制造的人工智能,可能在“道德标准”的选择上却与人类完全不同,这是电影中折射出来的现实问题。

人工智能的“道德标准”该如何制定,或者是否该符合人类自身的“道德标准”这个问题将不止出现在电影之中,未来在生活中也将出现,而距离这个问题“最近”的就是“无人驾驶汽车”。

在“无人驾驶领域”关于“电车难题”的讨论已经有过很多,也针对全球数百万人做过调研统计,得出了一套“选择偏好”,例如在即将发生事故时更倾向于拯救人类而不是动物、拯救多数人牺牲少数人、优先拯救儿童等等,目前很多无人驾驶汽车也已经将这些“选择偏好”置入了无人驾驶汽车之中。但是这些选择大部分都是人类基于情感因素做出的。

所以说到底,AI会如何选择还是看人类自己,AI的程序都是由人来写的,就像电影中moss“一脸”委屈的说“自己从未叛逃,只是在执行联合政府的预定计划而已”。

但是这份偏好也仅仅只是代表了“大多数”人,像电影中的联合政府,现实生活中做出此类选择的人,还是有部分人的意愿未能满足。在这个怎么选都是“错”的前提下,有没有更优的第三种选择是无人驾驶汽车发展的障碍之一。

电影中moss有一句被广为流传的台词“让人类永远保持理智,的确是一种奢求。”从某些方面看来确实如此,所以若将AI摆在与人类同等的位置,以人类的“道德标准”来要求AI算不算得上是某种“道德绑架”呢?若是不给“无人驾驶汽车”套上人类的道德标准,而是让AI通过自己的深度学习来应对这类事情会不会让“电车难题”的答案更加“理智”?

“机器人三大定律”还能保障人类的利益吗?
责任编辑:CQITer新闻报料:400-888-8888   本站原创,未经授权不得转载
继续阅读
热新闻
推荐
关于我们联系我们免责声明隐私政策 友情链接