用机器学习来降低风险,这真是极好的
用机器学习来降低风险,这真是极好的
2016-04-28 11:14:56 来源:TechTarget中国抢沙发
2016-04-28 11:14:56 来源:TechTarget中国
摘要:即便是最好的机器学习模型也存在着风险,这包括因糟糕学习算法导致的误报,这可能被攻击者利用。
关键词:
机器
网络安全
如今企业开始部署机器学习。企业希望员工使用机器学习的三个主要原因包括:节省成本、更快处理海量数据以及更快发现新的漏洞。
大型零售商使用机器学习应用来发现电子商务中的欺诈性交易,同时防止合法交易被阻止。他们利用机器学习来分析客户对产品的态度,并找出冒充长期客户的攻击者。
金融机构利用机器学习应用或系统来预测贷款违约以及欺诈和洗钱行为;医院可通过机器学习预测可节省的急诊室等候时间、可预测的中风和癫痫发作以及浪费式的再次住院;大型律师事务所则可利用机器学习帮助律师更快决定选择处理哪些案件,法律机器人被训练用以确定企业合同是否包含所有必备条款。
机器学习的其他应用包括预测健康状况和股票价格,以及电力负荷与太阳能发电。
机器学习自带风险
即便是最好的机器学习模型也存在着风险,这包括因糟糕学习算法导致的误报,这可能被攻击者利用。同时,机器学习模型还可能获取来自最近被攻击主机的受感染数据,没有误报并不意味着没有任何风险,攻击者可以利用运行机器学习应用平台系统中的漏洞。
机器学习面临的风险之一是攻击者可利用伪造的生物识别指纹和虹膜以及面部特征来冒充合法用户。另一个风险是攻击者在测试或执行期间可以骗过机器学习模型将恶意训练样本分至合法类别。这可能导致机器学习模型产生与预期完全不同的结果。
机器学习风险管理
下面是降低机器学习应用风险的五种方法:
1. 执行道德攻击
道德攻击是指值得信赖的安全专家入侵系统以发现被防火墙、入侵检测系统或其他任何安全工具忽视的机器学习漏洞。在获取访问权限方面,道德攻击者利用的是合法用户在设备上遗留的指纹所重构的伪造指纹。在进入系统后,道德攻击者可潜入指纹数据库,获取另一位合法用户的生物特征模板,再重建一个假的指纹。为了应对这种风险,设备读取器必须在每次使用后进行清理,数据库应被加密。
2.加密安全日志
系统管理员拥有超级用户权限来分析机器学习日志文件,这样做的原因包括:检查是否遵守安全政策、对系统进行故障排查以及取证。加密日志文件是防止日志文件被攻击的一种方法。更改日志内容所需要的加密密钥不会暴露给恶意攻击者,如果攻击者试图删除日志文件,管理员会立即收到警报。
3. 清理训练数据
当提供良好的训练数据时,机器学习模型可良好地运作。该模型开发人员必须知道这些数据从何而来,这些数据必须是干净的数据,而不是异常或受感染的数据。如果数据来源主机受到攻击,则应该停止使用这些数据。糟糕的数据可能导致机器模型无法良好运作,最终导致系统关闭。当使用机器学习工具来为特定目的评估数据时,模型开发人员应该将所有数据转换为通用格式。
4. 对模型生命周期采用DevOps
攻击者可利用来自机器学习平台的误报信息。对于这种风险,我们可对机器学习模型生命周期应用DevOps,DevOps让开发和训练、质量保证及生产团队相互协作。
DevOps会从开发和训练阶段开始,然后进入到质量保障阶段来看看模型的训练情况。不满意的测试结果意味着需要返回到开发阶段,为模型提供更好的数据。如果测试结果很好,模型则会进入生产阶段,处理真实世界的数据。如果结果不符合预期,DevOps应该从开发或质量保障阶段再次重复。
5. 部署安全政策
最后,我们还应该部署安全政策。在简单的情况下,安全政策应该包括五个部分:目的、范围、背景、行动和限制。范围会确定涵盖哪些内容:机器学习模型类型、训练数据和数据挖掘算法(回归、聚类或神经网络)。背景部分则会查看政策背后的原因,行动部分介绍如何利用DevOps来降低风险,而限制部分则会查看机器学习的限制以及测试数据的可用性。
第三十八届CIO班招生
国际CIO认证培训
首席数据官(CDO)认证培训
责编:pingxiaoli
免责声明:本网站(http://www.ciotimes.com/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等)版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。