首页 > 人工智能 > 正文

人工智能仍然存在信任问题

2018-12-29 09:41:06  来源:企业网D1Net

摘要:过去一年来,业界已经完成许多任务,大幅提高了人工智能(AI)的理解力、准确性和可扩展性,预计在2019年我们将会看到更多致力于为AI消除偏见并使决策更加透明的工作进展。
关键词: 人工智能 IBM
  过去一年来,业界已经完成许多任务,大幅提高了人工智能(AI)的理解力、准确性和可扩展性,预计在2019年我们将会看到更多致力于为AI消除偏见并使决策更加透明的工作进展。
 
  IBM Research副总裁Jeff Welser表示,过去一年来,业界已经在AI方面达到几项发展里程碑了,预计在2019年将持续关注于三大关键领域。他说,对于企业而言,将以AI驱动的认知解决方案带入可使其轻松导入的平台,不只是一项策略性业务需求,同时也增加了AI的理解,以及解决偏见和信任等问题。
 
  在推动AI的进展方面,Welser表示业界已在几个方面取得进展,包括理解语音和分析影像。例如,IBM的Project Debater计划已能将目前的AI语音理解能力扩展到回答简单问题的任务之外,让机器更能理解人们可能何时提出争论,并使其超越仅限于“搜寻类固醇”(search on steroids)这一类的简单任务。例如,提出一个没有固定答案的问题——政府是否应该提高对于远距医疗的投资。
 
  Welser说,如同让AI更能理解所说的内容一样至关重要的是,它在更快、更准确地辨识所看到的内容方面也取得了长足进展。IBM的作法并非要求提供数千或甚至数百万幅标记影像来训练视觉辨识模型,而是证实AI现在甚至可以只用一个例子作为辨识新对象的指导原则,这让AI得以扩展。
 
  Welser说,让AI学习变得可扩展的另一种方式是让AI代理之间相互学习。IBM研究人员开发了一种架构和算法,让AI代理之间得以交换知识,从而比以前的方法学得更快。此外,他说,他们还可以学会调整现有方法失败之处。
 
  “如果你面对更复杂的任务,其实并不必一定要训练一个大型系统,”Welser说,“但你可以采用个别系统并将它们结合起来共同完成任务。”
 
  降低深度学习模型的复杂度
 
  在降低深度学习模型所需的运算资源方面也正取得进展。2015年,IBM介绍如何使用16位精度训练深度学习模型,而今,该公司强调 8位精度也不至于折衷各种主要AI数据集类别(包括影像、语音和文本)的模型准确度。AI的调整也可以透过新的神经网络架构搜寻技术来实现,从而减少设计网络所需的繁重工作。
 
  这些进展都建立在AI必须值得信赖的事实基础上,Welser表示,明年将会有很多工作都关注在这一点。就像其他技术一样,AI可能会受到恶意控制,因此它必须能够预测对抗性攻击。
 
  现在,AI可能很容易受到所谓“对抗示例”(adversarial examples)的影响,黑客可能会在你不知不觉时改变影像,欺骗深度学习模型,而将其分类为攻击者所需的各种类别。IBM Research的解决办法是采用一种不依赖于特定攻击(attack-agnostic)的措施,以评估神经网络的稳健性,并指导系统如何检测和防御攻击。
 
  另一个难题是神经网络往往是黑盒子——关于他们如何做出决定并非显而易见的,Welser说。缺乏透明度是对于AI信任的一项障碍。同时,消除偏见也很重要,因为AI越来越依赖于决策,他说,但这相当具有挑战性。
 
  Wesler说:“截至目前为止,我们已经看到大多数人都非常兴奋地展开AI系统设计,使其能够实现某些任务。然后他们会试着搞清楚所设计的AI系统是否存有偏见或者是否安全稳健,或者他们所做的决定是否有问题。”

第三十八届CIO班招生
国际CIO认证培训
首席数据官(CDO)认证培训
责编:baiyl

免责声明:本网站(http://www.ciotimes.com/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等)版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。