可解释的人工智能可以让人们理解人工智能系统是如何做出决定的,而这将成为医疗、制造、保险、汽车领域的关键。那么这对于组织意味着什么?
例如,流媒体音乐服务平台Spotify计划向用户推荐歌手Justin Bieber的歌曲,却推荐了Belieber的歌,显然这有些令人感到困扰。这并不一定意味着Spotify网站的程序员必须确保他们的算法透明且易于理解,但人们可能会发现这有些偏离目标,但其后果显然是微不足道的。
这是可解释人工智能的一个试金石——即机器学习算法和其他人工智能系统,它们可以产生人类可以容易理解并追溯到起源的结果。基于人工智能的结果越重要,对可解释人工智能的需求就越大。相反,相对低风险的人工智能系统可能只适合黑盒模型,人们很难理解其结果。
Jane.ai公司人工智能研发主管Dave Costenaro说:“如果人工智能算法的效果不够好,比如音乐服务公司推荐的歌曲一样,那么社会可能不需要监管机构对这些建议进行监管。”
人们可以忍受应用程序对其音乐品味的误解。但可能无法忍受人工智能系统带来的更重要的决定,也许是在建议的医疗或拒绝申请抵押贷款的情况下。
这些都是高风险的情况,尤其是在出现负面结果的情况下,人们可能需要明确地解释是如何得出特定结果的。在许多情况下,审计师、律师、政府机构和其他潜在当事人也会这样做。
Costenaro表示,由于特定决策或结果的责任从人类转移到机器,因此对可解释性的需求也会增加。
Costenaro说,“如果算法已经让人类处于这个循环中,人类决策者可以继续承担解释结果的责任。”
他举例说明了一个为放射科医生预先标记X射线图像的计算机视觉系统。他说,“这可以帮助放射科医生更准确、更有效地工作,但最终将提供诊断和解释。”
IT的人工智能责任:解释原因
然而,随着人工智能的成熟,人们可能会看到越来越多的新应用程序逐渐依赖于人类的决策和责任。音乐推荐引擎可能没有特别重大的责任负担,但许多其他真实或潜在的用例将会面临重大的责任。
Costenaro说,“对于一类新的人工智能决策来说,这些决策具有很高的影响力,而且由于所需处理的速度或数量,人类不再能够有效地参与其中,从业者们正在努力寻找解释算法的方法。”
IT领导者需要采取措施确保其组织的人工智能用例在必要时正确地包含可解释性。 TigerGraph公司营销副总裁Gaurav Deshpande表示,许多企业首席信息官已经关注这个问题,即使他们了解到特定人工智能技术或用例的价值,他们通常还有一些犹豫。
Deshpande说,“但是如果不能解释是如何得出答案的,就不能使用它。这是因为‘黑盒’人工智能系统存在偏见的风险,这可能导致诉讼、对企业品牌以及资产负债表的重大责任和风险。”
这是思考企业如何以及为何采用可解释的人工智能系统而不是操作黑盒模型的另一种方式。他们的业务可能依赖于它。人们对人工智能偏见的主张可能会被误导。在风险较高的情况下,类似的要求可能相当严重。而这就是可解释的人工智能可能成为机器学习、深度学习和其他学科的商业应用的焦点的原因。
可解释的人工智能在四个行业中的作用
Ness数字工程公司首席技术官Moshe Kranc对可解释人工智能的潜在用例进行了探讨,他说,“任何影响人们生活的用例都可能受到偏见的影响。”其答案既简单又深远。
他分享了一些越来越多地可能由人工智能做出决定的例子,但这从根本上需要信任、可审计性和其他可解释人工智能的特征:
考虑到这一点,各种人工智能专家和IT领导者为此确定可解释人工智能必不可少的行业和用例。银行业是一个很好的例子,可以这么说,可解释的人工智能非常适合机器在贷款决策和其他金融服务中发挥关键作用。在许多情况下,这些用途可以扩展到其他行业,其细节可能会有所不同,但原则保持不变,因此这些示例可能有助于思考组织中可解释的人工智能用例。
1.医疗保健行业
对可解释人工智能的需求与人类的影响将会同步上升。因此,医疗保健行业是一个良好的起点,因为它也是人工智能可能非常有益的领域。
Kinetica公司首席执行官Paul Appleby说,“使用可解释的人工智能的机器可以为医务人员节省大量时间,使他们能够专注于医学的解释性工作,而不是重复性任务。他们可以同时给予每位患者更多的关注。其潜在的价值很大,但需要可解释的人工智能提供的可追溯的解释。可解释的人工智能允许机器评估数据并得出结论,但同时给医生或护士提供决策数据,以了解如何达成该结论,因此在某些情况下得出不同的结论,这需要人类解释其细微差别。”
SAS公司执行副总裁兼首席信息官Keith Collins分享了一个特定的实际应用程序。他说,“我们目前正在研究医生使用人工智能分析来帮助更准确地检测癌症病变的案例。该技术可以充当医生的虚拟助手,并解释了核磁共振成像(MRI)图像中的每个变量如何有助于识别可疑区域是否有可能致癌,而其他可疑区域则没有。”
2.制造行业
在诊断和修复设备故障时,现场技术人员通常依赖“部落知识”。
IBM Watson物联网高级产品经理Heena Purohit指出,在制造行业中,现场技术人员在诊断和修复设备故障时往往依赖“部落知识”,也有一些行业也是如此。部落知识的问题在于团队成员变动频繁,有时甚至是显着的:人员流动频繁,他们的专业知识也会改变,而这些知识并不总是被记录或转移。
Purohit说,“人工智能驱动的自然语言处理可以帮助分析非结构化数据,如设备手册、维护标准,以及例如历史工作订单、物联网传感器读数和业务流程数据等结构化数据,以提出技术人员应遵循的规定性指导的最佳建议。”
这并不能消除部落知识的价值,也没有削弱人类的决策制定。相反,它是一个迭代和交互的过程,有助于确保以可操作的方式存储和共享知识。
Purohit解释道,“在这种情况下,我们向用户展示了由人工智能驱动的多种可能的维修指导建议选项,并且每个响应的置信区间都是可能的答案。用户可获得每个选项,这有助于持续学习过程,并改进未来的建议。这样,我们不会只给用户单一的选择,我们允许用户在各个选项之间作出明智的决定。对于每个建议,我们还向用户显示了知识图输出这个高级功能,以及在人工智能培训阶段使用的输入,以帮助用户了解有关为什么结果被优先排序和相应评分的参数。”
3.保险行业
就像医疗保健行业一样,人工智能对于保险行业可能会产生深远的影响,但信任、透明度、可审计性是绝对必要的。
Cognitivescale公司创始人兼首席技术官Matt Sanchez说:“人工智能在保险领域有着许多潜在的使用案例,例如客户获取、代理生产率、索赔预防、承保、客户服务、交叉销售、政策调整,以及提高风险和合规性。”他指出,埃森哲公司最近的一项调查发现,大多数保险业高管预计人工智能将在未来三年内彻底改变其行业。
但这绝对是一个有相当大影响的领域。只需考虑关键的保险类别就可以感受到这些影响,例如生活、业主、健康、员工补偿等等。Sanchez表示,可解释的人工智能将非常重要;建议人们思考这些问题,而每个问题也适用于其他领域:
4.自动驾驶汽车
可解释的人工智能最终应该是使人工智能提供最大的价值。
PubNub公司首席技术官兼联合创始人Stephen Blum表示,“了解人工智能服务为什么做出某种决定,或者了解是如何获得某种洞察力,这对于人工智能从业者更好地整合人工智能服务至关重要。例如自动驾驶汽车的人工智能系统将如何构建与车辆交互的方式,这对乘坐人员来说将面临很大的风险,因为这意味着其决定生死攸关。”
事实上,自动驾驶汽车无疑是人工智能发挥重要作用的新兴领域,可解释的人工智能将是成为其最重要的领域。
Kinetica公司首席执行官Appleby解释了这种情况的重要性。他说,“如果一辆自动驾驶汽车发现自己处于不可避免的危险境地时,应该采取什么措施?优先保护乘客却将行人置于危险之中?还是为了避免撞到行人而危及乘客安全?”
因此,获得这些问题的答案并不简单。但这将给出一个非常直接的结论:人工智能的黑盒模型在这种情况下不起作用。无论对于乘客还是行人,都必须解释清楚,更不用说汽车制造商、公共安全官员等相关人员。
Appleby说,“我们可能对自动驾驶汽车的响应并不认同,但我们应该提前了解它所遵循的道德优先事项。通过企业内部建立的数据治理,汽车制造商可以通过跟踪和解释模型从决策点A到Z点的方式来跟踪数据集,从而使他们更容易评估这些结果是否符合他们采取的道德立场。同样,乘客也可以决定他们是否愿意乘坐做出某些决定而设计的车辆。”
这可能是一个严峻的现实,但同样有一个基本原则,这包括那些不是生死攸关的场景。可解释的人工智能是改进和优化的人工智能技术,这是IT领导者思考人工智能的另一种方式。
Blum说,“如果人工智能系统出错,其构建者需要理解为什么会这样做,这样才能改进和修复。如果他们的人工智能服务在黑盒中存在并运行,他们就无法了解如何调试和改进它。”
第三十八届CIO班招生
国际CIO认证培训
首席数据官(CDO)认证培训
责编:baiyl
免责声明:本网站(http://www.ciotimes.com/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等)版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。