是谁在谋杀聊天机器人?
作者:媒体转发 时间:2018-04-22 09:55
试想一下,一个静谧的午夜,你和家人正在熟睡,家中突然响起毛骨悚然的笑声,时远时近,这困扰了大人,惊吓了孩子。而这一切的怪笑,都是由Alexa发出的。作为Amazon的主推产品,Alexa这一动作让许多用户陷入恐慌之中。
目前,亚马逊方面并没有对此次Alexa出现故障的原因进行详尽解释,并且它强调这是在“极少数情况”下才会发生的,尽管网上反映的问题代表不了Echo的数千万用户,但可以看出亚马逊对此事的态度其实不以为意。
类似的情况,在聊天机器人身上已经不是第一次发生。2016年末,微软推出了新的人工智能聊天机器人Tay。Tay是一款有趣的产品,在大部分情况下都有很好的表现,但最终由于不恰当的种族主义言论引发了激烈争议。在Tay发生灾难性事故后,微软很快撤下了这款聊天机器人。
而“Zo”是微软推出的下一代聊天机器人。微软之前尝试让聊天机器人Tay模仿时髦的青少年。然而在一天时间内,Tay就开始出现种族主义言论,Twitter上的所有人都可以看到这些。微软将Tay的问题归咎于部分用户对其进行的破坏。因此,微软将Zo限制在消息应用Kik内,维持着中等的用户群体规模。不过,Zo似乎仍然出现了一些坏习惯。Zo将古兰经称作“非常暴力”,并且它认为抓住本·拉登“不止一个政府多年情报收集”的结果。甚至认为Win8是“间谍软件”的最新成品,评价微软Win10系统:“Win7还不错,Win10我是不会用的。”

Zo:Win7还不错,Win10我是不会用的
之后,Facebook关闭了虚拟助理「M」,团队相关成员分散到其他部门任职。聊天机器人的发展,道阻且长。
智能机器人变成“人工智障”?
「我们可能都希望能生活在这样的世界里:和机器人有着最自然的对话,它将一切任务都执行得完美无瑕。这一路走来确实不容易,而且说实话我们已经发展得很快了。」Politibot的Suárez认为:「但不幸的是,我们还没有到那个理想的生活状态,还要好几年,机器人才能好到普罗大众都能接受。」
然而,现实却远不及Suárez的预期,聊天机器人依然存在着众多问题。2016年,Facebook Messenger开放其程序接口后,收到的用户反馈却远不及预期。众多机构确实可以在短时间内拥有自己的智能聊天机器人,但当此类机器人无人类干预时,这些机器人的应答失败率高达70%,用户体验更是相当糟糕。
从“图灵测试”到Eliza的精神治疗,聊天机器人发展至今已经走过了近70年,在漫长的发展历程中,聊天机器人并未得到真正的普及,现今依然存在着诸多弊病。
是谁让聊天机器人变成了这样?编者认为,是人类,更是机器本身。部分核心技术及适配性问题,依然是聊天机器人的阿喀琉斯之踵:
1.复杂语言识别困难
现代化聊天机器人的对话界面主要依赖于语音识别,从而根据用户命令做出便捷迅速的反应,比如“下午三点去参加会议”、“今天的天气怎样”等。
语言作为一种主观性较强的表达方式,人们说话的规则具有一定的变化性。这和电脑程序不同,人们表达不会完全受制于规则,能够自由的遣词造句,并以此来传递信息。除了地方方言外,每个人也会有自己的表达方式,例如心照不宣的“暗语”,或者某些特定的“梗”。这就需要聊天机器人熟悉自己的用户。仅仅完善通过抓取关键词来解结构化的语言系统将难以满足大量用户的需求,这对聊天机器人的系统提出了更高的要求。

“人工智障”般的聊天机器人
2.个性化适配之痛
个性化适配的问题体现在两个方面,一方面人机信任是聊天机器人个性化发展的一个重点攻坚点。调查显示,许多公司领导对于机器人助理处理待办事项是并不看好的,聊天机器人程式化的语言会让许多人觉得“乏味”、“没有人气”,这也是公司助理一职并未被取代的原因。
另一方面,聊天机器人很容易对人的需求产生误读。比如对Siri发出“区块链”的指示,Siri提供的是关于区块链的百度百科,这与用户想要了解区块链的最新发展动态的初衷大相径庭。


