随着AI在更多行业中被越来越多地采用,其用户试图在有效保护其实用性的同时实现保护用户隐私的微妙平衡。AI的常见优秀实践是对AI的使用以及如何达到特定结果保持透明。但是,这种透明度有好有坏的一面。这是您应该了解的AI透明性的利弊,以及实现这一困难平衡的可能解决方案。
好处
人工智能可提高效率,利用创新并简化流程。透明地了解其工作原理和计算结果的方式可以带来一些社会和商业优势,包括:
司法公正
在过去的几年中,人工智能的使用数量持续增长。人工智能甚至已经扩展到司法系统中,从做交通票到考虑比陪审团更公平,人工智能都可以做。
当公司对使用AI透明时,它们可以增加用户诉诸司法的机会。人们可以看到AI如何收集关键信息并达到特定结果。与不使用AI的情况相比,他们可以获得的技术和信息更多。
避免歧视
AI的原始缺点之一是当AI被用来检测模式并根据其收集的数据对用户做出假设时,可能会产生歧视性结果。
然而,人工智能今天变得更加复杂,甚至被用来检测歧视。AI可以确保包括所有用户的信息或听到他们的声音。在这方面,人工智能可以成为一个很好的均衡器。
灌输的信任
当AI用户预先了解他们对AI的使用并向其客户群说明这种用法时,他们更有可能灌输信任感。人们需要知道公司如何达到特定的结果,而透明可以帮助弥合企业与其客户之间的鸿沟。
客户愿意拥抱AI。在Salesforce的“关联消费者状况”中接受调查的消费者中,有62%的人表示他们对AI持开放态度,以改善他们的体验,并且企业愿意满足这一需求。
埃森哲(Accenture)最近的一项调查显示,有72%的高管表示,他们希望通过透明地使用AI来获得客户对产品或服务的信任和信心。能够透明地使用AI以及为保护用户数据而采取的安全措施的公司可能会从这种提高的透明度中受益。
更明智的决策
当人们知道自己正在与AI系统进行交互而不是被骗去认为它是人类时,他们通常可以适应自己的行为以获取所需的信息。
例如,人们可能在聊天框中使用关键字而不是完整的句子。用户可能会对这些系统的优点和局限性有更好的了解,并做出有意识的决定与AI系统进行交互。
缺点
尽管透明度可以带来上述一些积极成果,但它也有一些缺点,包括以下方面:
缺少隐私
反对AI及其透明性的一个重要论据是可能缺乏隐私。AI通常会收集大数据,并使用独特的算法为该数据分配一个值。但是,为了获得结果,人工智能通常会跟踪每项在线活动(您可以免费获得背景调查),人工智能会跟踪,搜索和使用企业网站。其中一些信息也可能出售给第三方。
此外,人工智能通常用于跟踪人们的在线行为,从中人们可以辨别有关一个人的关键信息,包括他或她:
种族
政治信仰
宗教信仰
性别
性倾向
健康状况
即使人们选择不向任何人在线提供此敏感信息,由于AI功能,他们仍然可能会遭受信息的丢失。此外,AI可能会跟踪公开可用的信息。但是,当没有人检查此信息的准确性时,一个人的信息可能会与另一个人的信息混淆。
破解说明
当公司发布其对AI的解释时,黑客可能会使用此信息来操纵系统。例如,黑客可能能够对代码或输入进行微小的更改以实现不准确的结果。
这样,黑客就可以利用公司自身的透明度来抵制它。
当黑客了解AI背后的原因时,他们可能会影响算法。通常不鼓励使用这种技术来检测欺诈。因此,当利益相关者未采取其他措施时,该系统可能更易于操作。
知识产权盗窃
当一家公司对AI的使用透明时,可能会出现的另一个潜在问题是这些黑客窃取了其专有商业秘密或知识产权的可能性。这些人可能能够查看公司的解释并重新创建专有算法,从而损害业务。
容易受到攻击
网上有如此多的可用信息,有7800万美国人说他们担心网络安全。当公司阐明如何使用AI时,这可能使黑客更容易访问消费者的信息或造成可能导致身份盗用的数据泄露,例如臭名昭著的Equifax数据泄露,使1.48亿美国人的私人记录受损。
监管的敏感性
有关AI的披露可能会带来其他风险,例如更严格的监管。当AI令人困惑且难以使用时,监管机构可能不理解或无法对其进行监管。但是,当企业对AI的角色透明时,这可能会带来关于AI及其使用方式的更重要的监管框架。以这种方式,创新者可能因其创新而受到惩罚。
诉讼目标更容易
当企业清楚其如何保护消费者的数据以实现透明性为目的时,它们可能会不知不觉地使自己更容易受到声称其信息使用不当的消费者的法律主张的影响。聪明的律师可以仔细审查AI透明性信息,然后开发有关业务对AI的使用的创新法律理论。
例如,他们可能专注于企业没有采取哪些措施来保护消费者的隐私。然后,他们可能会使用此信息来声称该企业的行为或疏忽大意。此外,许多AI系统都以更简单的模型运行。对其算法透明的公司可能会使用不太复杂的算法,这些算法可能会忽略某些信息或在某些情况下导致错误。经验丰富的律师可能能够确定AI导致的其他问题,以证实其对企业的法律主张。
关于AI和隐私的真相
任何看过《终结者》电影(或者基本上是世界末日电影)的人都知道,即使仅出于最崇高的理由而开发的技术也有可能被武器化或用作最终损害社会的东西。
由于存在潜在的危害,已经通过了许多法律,要求某些公司在使用AI方面保持透明。例如,金融服务公司必须披露他们在确定一个人的信誉时使用的主要因素,以及为什么他们在贷款决定中采取不利行动。
立法者正在积极提出并考虑其他法律。
如果获得通过,这些法律可能会确立企业必须遵守的有关其如何收集信息,如何使用AI以及是否首先需要征得消费者同意的新义务。2019年,一项行政命令签署成为法律,指示联邦机构将资源投入到AI的开发和维护中,并呼吁制定准则和标准,以允许联邦机构以保护隐私和国家安全的方式监管AI技术。
即使尚未要求企业对AI的使用保持透明,也可能很快就没有选择的机会了。为了应对这种可能的结果,一些企业正在积极建立内部审查委员会,以测试AI并确定围绕AI的道德问题。
他们还可以与法律部门和开发人员合作,为他们发现的问题创建解决方案。通过仔细评估其潜在风险并在强制披露之前确定问题的解决方案,企业可能会更好地规避与AI透明度相关的风险。
第三十八届CIO班招生
国际CIO认证培训
首席数据官(CDO)认证培训
责编:zhangwenwen
免责声明:本网站(http://www.ciotimes.com/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等)版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。