首页 > 人工智能 > 正文

人工智能道德与数据治理:良性循环

2019-07-17 11:32:21  来源:企业网D1Net

摘要:随着很多企业投入大量资金和人力研究和开发人工智能,他们面临着隐私与道德的相关问题。
关键词: 人工智能 AI
  随着很多企业投入大量资金和人力研究和开发人工智能,他们面临着隐私与道德的相关问题。例如,负责任的人工智能是什么样的?如何控制人工智能偏见?人工智能技术是前沿技术,它对社会发展有着严重的影响。但在企业能够解决道德问题之前,他们应该关注数据治理的更基本问题。
 
  人工智能技术在过去五年中发展迅速。很多人认为神经网络在某些任务中比人类做得更好,特别是在某些图像分类系统中。企业可以利用这些先进的人工智能功能来简化运营,提高利润,降低成本,并改善客户服务。
 
  但Information Builders公司阿姆斯特丹办事处数据管理卓越中心的国际主管James Cotton说,尽管人工智能技术很强大,但如果基础数据管理不善,就不能以合乎道德的方式实施。他指出,了解数据治理与人工智能道德之间的关系至关重要。
 
  他说,“数据治理是人工智能道德的基础。如果企业不知道自己拥有什么,数据来自哪里,数据是如何使用的,或者数据被用于什么目的,就不能以道德的方式使用数据。”
 
  实施GDPR法规是一个良好的开端
 
  企业面临的挑战在于没有适用的数据治理的标准或方法。而欧盟推出的通用数据保护法规(GDPR)就是一个良好的开端,但即使实施GDPR法规也不足以确保在所有情况下都能实现良好的数据治理。而人们希望通过2021年推出的电子隐私条例(ePR)法来解决这一问题。
 
  对于同一数据块,采用良好治理的规则可能会有所不同,这取决于如何收集它们以及如何使用它们,这是问题之一。
 
  Cotton说,“人们都倾向于把数据看作一堆1和0,并在数据库中存放大量数据。事实上,并非所有数据都是平等创建的。当然,也并非所有数据都被同等对待,而且可能不应该这样。”
 
  Cotton表示,例如记录中某位客户的头发是红色的,这并不被视为“个人数据”。他说,“这并没有什么个人暗示。但如果他或她住在芬兰北部一个只有20人的村庄,将这两个特征相结合,合并的数据集可能能够识别这个客户,因此应该以不同的方式处理。”
 
  Cotton表示,这种不断变化的数据性质可能会破坏企业遵守GDPR法规的能力,更不用说提供有意义的信息来长期训练人工智能模型。其最佳实践是不要在与原始数据集合相关联的场景之外使用数据。
 
  但数据和数据治理的其他方面对人工智能和模型训练有着更直接的影响,其中之一就是糟糕的数据。
 
  错误的数据
 
  那些希望在人工智能技术方面有所成就的企业都希望获得准确和正确的数据,这是因为可以提高人工智能的有效性和实用性。由于数据准确性是良好数据治理的副产品,因此采用良好的数据治理实践符合企业的本身利益。
 
  这是循环的良性部分:良好的数据治理导致开发更好的人工智能,而更好的人工智能反过来支持更符合道德的人工智能。人们还可以想象,如果客户相信开发商以合乎道德的方式实施人工智能,他们会更愿意与开发商共享更多、更好的数据,如果他们知道它不会被滥用,并且是准确的,他们也可能从中得到一些有益的东西。
 
  但如果数据质量一开始就很低,其输出的结果将会更加糟糕。
 
  Cotton说,“我们知道,世界上大部分数据都是错误的。”这些数据质量错误来自各种地方。问题是,一将它们应用到人工智能上,无论人工智能技术能否处理这些问题,人工智能只会在大规模上做出错误的决定。”
 
  Information Builders公司将数据治理解决方案作为其套件的一部分出售。该软件可以帮助客户回答这样的问题:“例如,这些数据来自何处?为什么首先收集这些数据?在此过程中,我们对它做了什么?出于什么原因?谁最后使用了它?它在哪里使用?它是如何被利用的?我们是否对此认同?”
 
  Cotton说:“任何合适的数据管理项目都存在这样的问题。如今,当越来越多的企业和潜在客户开始认识到他们在组织中所拥有的数据的价值,并开始真正地将其视为一种战略资产时,他们也开始更加重视该信息的实际管理和治理,并应以最佳方式进行组织和使用。”
 
  人工智能道德伦理指南
 
  GDPR法规和其他类似隐私法律为企业提供数据治理的最低标准,或者因此而面临巨额罚款。最重要的数据驱动型企业在与人们及其数据的互动方面往往超出GDPR法规要求,但GDPR法规仍然是一种标准较低的法规。
 
  目前,在人工智能道德方面并不能采用最低标准。咨询机构德勤公司负责人Vic Katyal说,不要指望人工智能道德法规会很快出台。
 
  Katyal说,“对于那些使用人工智能技术的用户来说,担心面临一些风险。而在调查中,40多名证券交易委员会注册者对人工智能相关风险表示担忧。但是,当人们谈论组织的发展方向、支出、发展旅程时,在这一点上,我认为很多事情都处在初始发展阶段。”
 
  Katyal说,受监管行业的企业正在进一步解决人工智能道德问题,就像他们倾向于进一步推进数据治理项目一样,位于人工智能道德领域前沿。但他表示,由于美国缺乏数据治理和数据隐私监管法规,因此在确定人工智能道德标准方面的进展正在受到阻碍。
 
  他说,“在美国,人们甚至无法就数据隐私规则的共性达成一致。美国各州都有自己的法规。即使是基本的数据隐私动机、本地化类型的规则,也无法创建联邦层面的规则。”
 
  Katyal预测,如果制定出更加完善的人工智能道德法规,那么很可能来自欧洲,而且将在三到五年之后推出。
 
  他继续说:“人们仍在努力控制人工智能的道德标准,而实现这个标准需要一段时间。我希望在数据治理方面看到更多的事情发生,将其视为隐私标准和规则,并达成一致。如果能达成协议,那就更好了。”
 
  然而,只是因为目前没有关于人工智能道德使用的法规,这并不意味着企业不应该考虑它。
 
  现在的人工智能道德
 
  Katyal提供了一些如何在组织中考虑采用人工智能的提示。
 
  他说,“首先,企业在采用人工智能技术时,必须将控制结构放在管理算法以及数据方面。”
 
  他表示,“如果是一个受监管的行业,那么该算法所做的任何决定都可能以某种方式影响或违反监管措施。如果不是受监管的行业,那将面临声誉风险,因为其算法可能会失控,带来一些问题,并导致企业的品牌、声誉、人员、客户受到影响,而企业可能不得不为此付出代价。企业应该以正在建造的东西和谁在建造它们为重点进行治理,因为数据治理显然正在发生变化。围绕人工智能的算法进行一些治理,确保企业能够了解正在发生的事情。这是一种很好的做法,虽然可能没有规则推动这样做,但这是正确的做法。”

第三十八届CIO班招生
国际CIO认证培训
首席数据官(CDO)认证培训
责编:baiyl

免责声明:本网站(http://www.ciotimes.com/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等)版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。