首页 > 推荐 > 正文

FOL制定23条AI发展原则 获霍金、马斯克等支持

2017-02-07 16:44:05  来源:网易科技

摘要:据国外媒体报道,未来生命研究所近日就人工智能未来发展的管控制定了23条原则。
关键词: 霍金 马斯克 AI原则
\

  据国外媒体报道,未来生命研究所近日就人工智能未来发展的管控制定了23条原则。

  最近,一个名为Libratus的人工智能(AI)计算机程序击败了4位专业级德州扑克选手——Libratus创造者表示,这对于AI来说是“具有里程碑意义的一步”,因为在此之前扑克一直被认为对于AI而言尤其具有挑战性。

  AI在扑克比赛中的胜利——继在国际象棋和要复杂得多的围棋比赛中获胜之后——提醒人们,AI正在变得越来越智能。那么,人类要如何确保AI仍然是自己的好伙伴,而不会像《终结者》(Terminator)系列电影中的Skynet那样作恶呢?

  在1月初在加州举行的BeneficialAI大会上,来自全球各地的专家就这一问题展开了讨论。该大会旨在倾听来自不同背景的专家的想法,让大家共同思考一套指引AI未来发展的原则。会议期间,专家们讨论了AI达到人类级别的智能之时可能会出现怎样的结果。

  该大会的主办方是未来生命(FOL)研究所,该非盈利组织由麻省理工学院(MIT)宇宙学家马克斯·特格马克(MaxTegmark)、Skype联合创始人扬·塔里安(JaanTallinn)和DeepMind研究科学家(ViktoriyaKrakovna)在2014年3月创办。

  该研究所在其官方网站上描述了精选AI原则的过程:“我们收集了我们能够收集的所有报告,然后编辑出各种有关未来几十年社会最好应当如何来管理AI的观点。从这些观点当中,我们寻找重复的部分,并将那些观点进行简化,寻求尽可能地将它们提炼成一套一定程度上传达人们的共识的核心原则。”

  只有获得90%的会议参与者的准许,原则才能被纳入最终的清单——清单定名为“23条阿西洛玛AI原则”,因为该会议是在加州阿西洛玛会议中心举行。

  据Gizmodo称,那些原则已获得近2300人的支持,其中还包括880名机器人和AI研究者。作为未来生命研究所的科学咨询委员会成员,物理学家史蒂芬·霍金(StephenHawking)和特斯拉CEO伊隆·马斯克(ElonMusk)也对那些原则表示支持。那些原则具体如下:

\

  研究问题

  1.研究目标:AI研究的目标应当是打造惠及社会大众的智能,而不是无目标的智能。

  2.研究经费:在投资发展AI的同时,也应当投入研究经费来确保AI的有益用途,其中包括探究计算机科学、经济学、法律、伦理道德和社会研究方面的棘手问题,例如:

  ·我们能够如何确保未来的AI系统高度发达,使得它们能够按照我们的意愿做事,而不会发生故障或者被入侵?

  ·我们如何能够在利用自动化技术促进经济繁荣发展的同时,维护好人们的资源和意志呢?

  ·我们如何能够将我们的法律体系升级得更加公平有效,跟上AI发展步伐,管理AI相关的风险呢?

  ·AI应当符合什么样的价值体系,它应当拥有怎样的法律地位和伦理地位呢?

  3.科学政策链接:AI研究者和政策制定者之间应当展开健康且有建设性的交流。

  4.研究文化:在研究者和AI开发者当中,应当培养相互合作、彼此信任和透明的文化。

  5.避免无谓的竞争:各个开发AI系统的团队应当积极合作,以避免出现安全标准方面的漏洞。

\

  道德观与价值观

  6.安全性:AI系统在一整个运作生命周期中都应当维持安全性。

  7.失败透明性:一旦AI系统造成损害,它应当能够查明原因。

  8.司法透明性:自动化系统在司法裁决中的任何参与活动,都应当提供令有能力的人类权威满意的解释。

  9.责任:AI系统的设计师和建造者,在它们的使用、误用和动作相关的道德问题上是利害相关人,同时负有塑造那些影响的责任和机会。

  10.价值定位:设计者应当确保,高度自动化的AI系统的目标和行为能够在整个运作过程中都符合人类标准。

  11.人的价值:设计者和运营者应当确保,AI系统能够与人的尊严、权利、自由和文化多元性相一致。

  12.个人隐私:鉴于AI系统有分析和利用人产生的数据的能力,人应当有权访问、管理和控制那些数据。

  13.自由和隐私:AI对个人数据的应用不得无理剥夺人真实的或者所认为的自由。

  14.利益共享:AI技术应当惠及和赋能尽可能多的人。

  15.共同繁荣:AI带来的经济繁荣,应当广泛共享,惠及全人类。

  16.人类的控制:人类应当选择如何和是否委派决策权给AI系统来完成人类选择的目标。

  17.不搞破坏:对先进AI系统的控制,应当尊重和改善社会安康所依靠的社会和公民秩序,而不是实施破坏。

  18.AI军备竞赛:人类应当避免致命自动化武器的军备竞赛。

\

  长期问题

  19.能力警告:在没有形成共识的情况下,我们应当避免在未来AI能力的上限上做强假设。

  20.重要性:先进AI可能会对地球生命历史产生深刻的改变,应当投入大量的精力和资源去规划和管理它们。

  21.风险:必须要投入与AI系统预期影响力相称的努力来应对和缓解它们带来的风险,尤其是毁灭性风险或者人类存亡风险。

  22.递归式自我改善:对于设计得能够递归地进行自我改善或者自我复制,可能会导致质量快速提升或者复制品迅速增加的AI系统,必须要实施严格的安全和控制措施。

  23.共同利益:超级智能的开发应当只为普遍认同的道德理想服务,应当惠及全人类,而非惠及某一个国家或者组织。

  以上的原则目前还只是原则。现阶段,还没有主管部门要寻求实施这些被提议的指引。然而,对于与AI未来发展相关的潜在法律或者规定,这些原则能够充当主心骨或者起始点。

  未来生命研究所的网站表示,“我们希望,这些原则将会为各方的踊跃讨论提供素材,同时也在未来几年如何利用AI的力量来改善每一个人的生活的问题上提供人们所向往的目标。”

(文章来源:网易科技)

第三十八届CIO班招生
国际CIO认证培训
首席数据官(CDO)认证培训
责编:houlimin

免责声明:本网站(http://www.ciotimes.com/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等)版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。