谷歌CEO皮查伊:对AI危险的担忧“合理合法”

作者:媒体转发 时间:2018-12-18 01:13

字号

腾讯科技讯 12月13日消息,据外媒报道,作为全球领先人工智能(AI)公司的负责人,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)本周在接受《华盛顿邮报》采访时表示,对该技术有害应用的担忧“非常合理”,但应信任科技行业能够负责任地监管其使用。

皮查伊于美国当地时间周二下午接受《华盛顿邮报》采访时表示,新的AI工具,比如无人驾驶汽车和疾病检测算法等创新的支柱,都要求企业设置道德护栏,并考虑该技术如何会被滥用。对此,皮查伊说:“我认为,科技公司必须认识到,不能继续采用技术开发然后修复这样的传统模式,我认为它已经行不通。”

皮查伊说,科技巨头们必须通过“自己的机构”确保AI不会伤害人类。他称自己对这项技术的长期潜在好处非常乐观,但他对AI潜在风险的担忧与其他技术批评人士类似。他们都认为,这项技术可能被用于监视、致命武器和错误信息传播等。其他科技公司高管,如SpaceX和特斯拉(Tesla)创始人埃隆·马斯克(Elon Musk),都提出了更可怕的预测,称AI可能“比核武器危险得多”。

谷歌的AI技术是该公司所有业务的基础,皮查伊誓言在未来一年解决其AI引发的问题。谷歌如何决定部署AI,也引发了最近的员工骚动。

皮查伊呼吁进行自我监管之前,曾前往美国国会作证,议员们威胁要对技术的滥用施加限制,包括限制传播错误信息和仇恨言论的渠道。皮查伊承认AI会构成潜在威胁十分罕见,因为这位出生于印度的工程师经常吹捧自动化系统的影响,并相信这些系统可以在不受人类控制的情况下学习和做出决定。

皮查伊在接受采访时说,世界各地的立法者仍在努力控制AI的影响,并希望对其进行政府监管。他说:“有时我担心人们低估了中长期变化的规模,我认为问题实际上相当复杂。”包括微软在内的其他科技巨头,最近也接受了AI应受到监管的观点,监管者包括开发这项技术的公司和监督该技术使用的政府。

但皮查伊解释说,如果处理得当,AI可以带来“巨大的好处”,包括帮助医生通过对健康数据的自动扫描来检测眼科疾病和其他疾病。他说:“早期对一项技术进行监管是很困难的,但我确实认为公司应该进行自我监管。这就是为什么我们始终在致力于制定AI原则的原因。我们也许没有把每件事都做好,但我们认为,开始一场对话非常重要。”

皮查伊于2004年加入谷歌,11年后成为其首席执行官。今年1月份,他将AI称为“人类正在从事的最重要的事情之一”,并表示,对人类社会来说,AI可能比“电或火”更重要。但是,对能够独立运行的机器进行完美竞赛重新唤起了人们的担忧,即硅谷的企业精神,如Facebook曾经所说的“快速行动,打破常规”,这可能促使强大而不完美的技术导致工作岗位流失,并伤害到人们。

在谷歌内部,其AI努力也引发了争议:今年早些时候,该公司受到各方批评,因为它在国防部的一项合同中开展的工作涉及到AI技术,该合同可以自动标记汽车、建筑物和其他物体,供军事无人机使用。许多员工为此愤而辞职,因为谷歌正从“战争业务”中获利。

当被问及员工的反应时,皮查伊告诉《华盛顿邮报》,员工是“我们文化的重要组成部分”。他说:“他们肯定有意见,这是重要的信号,这也是我所珍惜的东西。”

今年6月份,在宣布谷歌明年不会续签与国防部的合同后,皮查伊公布了一套AI伦理原则,其中包括全面禁止开发可能被用来造成损害、损害人权或“违反国际公认监视准则”的AI系统。

谷歌还因发布可能被坏人滥用的AI工具而受到批评。谷歌在2015年发布了其内部机器学习软件TensorFlow,帮助加速了AI的大规模开发,但它也被用于自动制作逼真的假视频,这些视频被用于骚扰和传播虚假信息。

谷歌和皮查伊为此进行了辩护,称限制这项技术的使用可能会减少公众的监督,并阻止开发者和研究人员以有益的方式提高其能力。皮查伊在接受《华盛顿邮报》采访时说:“随着时间的推移,随着技术的进步,我认为重要的是围绕道德和偏见进行对话,并同时推动进步。”

他补充称:“从某种意义上说,你确实想要建立伦理框架,让非计算机科学家尽早参与这一领域的工作。你必须以更具代表性的方式让人类参与进来,因为这项技术将影响人类。”

皮查伊将围绕AI设置参数的早期工作比作学术界在遗传学研究早期所做的努力。他说:“许多生物学家开始划定这项技术的发展方向。学术界进行了大量的自我监管,我认为这一点非常重要。”

责任编辑:CQITer新闻报料:400-888-8888   本站原创,未经授权不得转载
关键词 >> 皮查伊,谷歌CEO皮查伊,AI,皮查伊,谷歌CEO皮查伊,A
继续阅读
热新闻
推荐
关于我们联系我们免责声明隐私政策 友情链接