聊聊人工智能安全现状

作者:网友投稿 时间:2019-09-13 21:07

字号

聊聊人工智能安全现状

随着人工智能技术的兴起对该领域的研究也日益加深,其应用也早已融入到很多领域并成为其不可分割的一部分。目前来讲,人工智能已经涵盖数学、计算机科学等多个学科的知识,并且对每个方向都有详细的技术探讨过程。已呈现星星之火、燎原之势。但是人工智能技术是一把“双刃剑”,在给我们生活带来便利之时,也会带来相关的问题。目前安全方面的问题最受关注,本文从其基本概念和内涵出发,主要结合一些案例来分析目前人工智能技术存在的安全风险并在最后提出相关建议。

人工智能基本概念

1956年,美国达特茅斯会议上,科学家约翰麦卡锡首次提出“人工智能”(Artificial Intelligence, AI)一词。人工智能是让机器的行为看起来像人所表现出的智能行为一样的技术。在人工智能概念提出时,科学家主要确定了智能的判别标准和研究目标,而没有回答智能的具体内涵。之后,诸多知名学者都对人工智能内涵提出了自己的见解,反映人工智能的基本思想和基本内容:研究如何应用计算机模拟人类智能行为的基本理论、方法和技术。但是,由于人工智能概念不断演进,目前未形成统一定义。

人工智能安全内涵

人工智能安全的内涵一方面包括人工智能在安全领域的应用,如人工智能在越来越多的行业辅助或替代人类。另一方面是人工智能自身的安全问题,是本文的着眼点。如何促进人工智能的应用更加安全和道德一直是人类长期思考和不断深化的命题。现阶段的人工智能技术不成熟性会导致诸多安全风险。例如:一辆自动驾驶汽车必须在撞一个老人和撞一个孩子之间做出抉择时,它会怎么选择?其背后的原因何在?它在做出选择时会更看重哪些因素?它能够自圆其说吗?这只是数学运算的结果,在人类看来是不可解释的。除此之外,数据的强依赖性和人为的恶意应用都属于技术不成熟性带来的安全风险;再者,不光人工智能系统需要安全性,其他的系统也需要安全性。利用人工智能去攻击其他系统,探测其他系统的漏洞,这种行为可能会给网络空间和国家社会带来安全风险[1]。因此,人工智能安全内涵包含[2]:降低人工智能技术不成熟性带来的安全风险,同时利用人工智能构建安全防护系统,减少人为恶意应用带来的危害。

人工智能安全风险分析

在分析之前,我们首先来简单的介绍一下人工智能的应用。由于人工智能具有突出的数据分析、知识提取、自主学习等优点,被广泛应用在网络防护、数据管理、信息审查、智能安防、金融风控以及舆情监测等方面。在这些方面,往往存在若干安全风险,常见风险如下:

1.框架安全风险

近些年来,我们熟知的深度学习框架TensorFlow、Caffe等,及其依赖库被多次发现存在安全漏洞,这些漏洞可被攻击者利用,引发系统安全问题。以生成模型(Generative Models)举例[3],其原本的工作原理为:输入x经过编码器映射到低维表示z,再经过解码器映射回高维重建x,用表示。如下图所示:

聊聊人工智能安全现状

被攻击后就可能出现以下情况:假设输入为7,经过攻击者攻击过的网络,输出就可能是8。如下图所示:

聊聊人工智能安全现状

除此之外,人工智能可能被利用来编写计算机病毒、木马,原来的恶意脚本都是通过人手工编写,人工智能技术可以使这些流程自动化,并通过插入对抗性样本,绕过安全检测[4];同样,人工智能技术还可以自动化地生成智能僵尸网络[5],这些网络可以规模化、自动化地对其他系统进行攻击,而不需要等待僵尸网络控制者的命令,大大加剧了网络攻击的破坏程度。

2.数据安全风险

攻击者可以通过网络的内部参数逆向获取网络训练的数据集[6];人工智能技术还会加强数据挖掘的能力,这加大了隐私泄露的风险,例如2018年3月的Facebook数据泄露事件。

3.算法安全风险

对于深度学习网络目标函数定义的不准确、不合理或者不正确也可能会导致错误甚至伤害性的结果。错误的目标函数、计算成本太高的目标函数、表达能力有限的网络都可能使网络产生错误的结果。例如,2018年3月,Uber自动驾驶汽车因机器视觉系统未及时识别路上突然出现的行人,导致与行人相撞,导致行人死亡的事故。算法存在偏见与人工智能的不可解释性也是一个重大的问题。之前美国利用人工智能算法预测犯罪的人,名单暴露,其中许多无辜的人被冤枉,并且被冤枉的人中大多数为黑人,并且对于决策算法中系统为什么做出这样的决策,即使它的开发者也无法给出合理的解释。对抗性样本的出现也会使算法出现误判的情况,如下图中加入少量的噪声,AI便将熊猫以很高的置信度识别成长臂猿。

聊聊人工智能安全现状

4.信息安全风险

责任编辑:CQITer新闻报料:400-888-8888   本站原创,未经授权不得转载
继续阅读
热新闻
推荐
关于我们联系我们免责声明隐私政策 友情链接