10 月 31 日,由北京智源人工智能研究院主办的 2019 北京智源大会在国家会议中心开幕,本次大会吸引了国际人工智能领域的顶级专家学者参加,围绕人工智能基础研究现状及面临的机遇和挑战、人工智能技术未来发展的核心方向等话题,回归 AI 技术本身,开展深入研讨,探索人工智能前沿科技发展趋势。
会议第一天,在上午场的尖峰对话上,张钹、朱松纯、黄铁军、文继荣四位学术界大牛就《人工智能的“能”与“不能”》这一话题展开了一场思辨,探索 AI 的真理和本质。
主持人:
唐杰,智源研究院学术副院长,清华大学教授
刘知远,清华大学副教授,智源青年科学家
嘉宾:
张钹,中国科学院院士,智源研究院学术委员会主席
朱松纯,加州大学洛杉矶分校教授,智源研究院学术委员会委员
黄铁军,北京大学教授,智源研究院院长
文继荣,中国人民大学教授,智源研究院首席科学家
以下为 Panel 环节全程对话内容,AI 科技大本营整理(ID:rgznai100):
唐杰(主持人):从1956 年在美国开始的一场讨论至今,人工智能已经走过了六十多年的历程,这中间有波峰,也有波谷,而且波谷时间很长。在一代和又一代科学家的不懈努力下,终于到达今天机器学习成为推动力的发展阶段。而对于人工智能的能与不能,学术界有较大的分歧,且这种分歧将会持续下去。这里,请几位专家就“人工智能的能与不能”的主题来分享各自的观点。
本论坛名为 AI Time,这个名字源自于我的一个想法,当时也得到张钹院士的大力支持。我在英国看到很多辩论性的思维,所以萌生了在中国也通过这种思辨的方法来探索科学的本质,所以今天创造了一个平缓宽松的环境,大家可以一起思辨,探索 AI 的真理和本质。
今天选了一个非常有意思的话题——人工智能的能与不能。这个题目中有三个“能”,但是意思完全不同,所以今天我们来探索一下这三个“能”到底都是哪些“能”。
下面进入 AI Time 思辨环节。我们知道,很多科幻电影为我们呈现了未来 AI 的场景。
电影中的AI实现难度如何?
刘知远(主持人):大家看一下在人工智能相关的科幻电影里,人工智能都能做什么?
第一个是非常有名的动画电影《超能陆战队》,里面大白就是人工智能。第二个是来自于《复仇者联盟》的相关案例,里面的钢铁侠的助手贾维斯为钢铁侠提供了非常好的可视化交互和手势智能识别系统。第三个是《流浪地球》的同声传译,影片中刘培强使用了具有同声传译功能的软件,然后可以去和外国人进行无缝交流。第四个是《速度与激情》中展现的无人驾驶场景。第五个是非常有名的文艺电影《Her》,其中男主角与人工智能系统建立了恋爱关系,称为人工智能的情感伴侣。
这些是科幻电影中几个非常有代表性的场景:以大白为代表的智能诊断系统,以贾维斯为代表的手势交互系统,使用了很多计算机视觉和可视化交互手段,以及同声传译、自动驾驶、感情伴侣。在电影世界中,这些人工智能技术人们似乎已经司空见惯,但实际上在现实中,这些技术距离我们还非常遥远。
唐杰:科幻电影中的一些 AI 技术已经在现实生活中实现,但还有一些 AI 技术距离实现还比较遥远,所以第一个问题是这五种相关技术最有可能实现的是哪些?最难实现的是哪些?前三个容易实现的技术是哪些?阐述一下另外两种技术不容易实现的原因。
张钹:手势交互实现相对容易一点,智能诊断其次,然后是同声传译、自动驾驶和情感伴侣,情感伴侣肯定是最难的。现在,人工智能究竟能解释什么问题?我认为做人工智能只有两个资源,一个资源是知识和经验,特别是常识。第二个是数据,人类也使用一些数据。
所以根据这两个资源,人工智能领域当时提出两个模型。最早的模型就是以知识和经验为基础的推理模型,但做得不很成功。后来,人们发现机器在运用知识方面与人类差距很大,很困难。之后,另外一个思路是利用数据,结果得到意想之外的成就,发现计算机使用数据的能力远超人类,所以现在人工智能的成功很大一部分是基于大数据的深度学习,目前大多数的应用都基于这些技术。这种模型在图像识别、语音识别、自然语言处理上取得了一些成果,中国很多应用领域中用的都是这个成果。
但是,我们必须要看到这个成果本身的局限性,它的应用场景必须符合四个条件。第一个条件是信息基本上是完全确定的;第二是环境基本上是结构化的,如果有变化,变化需要是可预测的;第三是限定领域;第四是关键重要的场景不能用,主要是因为这个技术有四大缺点:不可靠、不可信、不安全、难以推广,这就是单纯数据驱动造成的问题。
为了克服这个问题,最重要的是需要加入知识。刚才讲到了通用,这两个资源必须要用,没有这些资源不可能做出来人工智能。我的体会是尽量应用常识和知识,现在的问题是单靠数据在一些应用场景下可以解决一些问题,但在很多应用场景下不能解决问题。
关于同声翻译,目前在一般情况下做翻译没有很大问题,犯一些错误关系也不大。但是要知道这种系统一定会不可避免地产生重大错误,因为它缺乏知识和常识。比如现在所有的翻译系统,“说你行的人行”这句话一定翻译不好,最好的翻译系统也翻得一塌糊涂。为什么出现这样的错误?因为没有常识。
自动驾驶也是如此,关键场景不可靠,经常会犯人类不可能犯的大错。下一步最重要的是要把数据与知识结合起来,这样才能做好系统。
朱松纯:我不看科幻片,因为老是看不懂,逻辑不通看不进去。很有意思的是我明天晚上要赶回去,后天约了一帮好莱坞拍电影的人聊天。他们要拍新的人工智能电影,编剧希望和我聊一聊,到底哪些是可行和不可行的,哪些是将来可行的,这也正好是今天问到的问题。
我完全同意张老师的看法,手势交互可能会实现。大白的状况取决于感知器,我不知道现实中是否存在这样的感知器。同声翻译和自动驾驶都非常危险,特别是用在外交上是不可靠的。智能情侣是很有趣的现象,将来人工智能会在方面超过人类,因为人的记忆力非常短暂,如果人拥有这种能力可以同时维持好多个女朋友,因为他的记忆力非常好,与谁交谈过什么内容、撒过什么谎都能圆过来。计算机在这方面超过人是没有问题的。
至于“能”和“不能”,如果能够把任务定义清楚,即某一个单一任务,并且有数据,基本上都可以做。我极力反对百度、谷歌宣称在某些任务上超过人类的做法,因为那只是定义了一个任务,如果重新定义新的任务,人工智能可能就不奏效了。这就是核心的分水岭,即能够做多大的任务、多少任务,是否能自己定义任务。
“任务陷阱”这个词不是我的发明。现在所有刷榜的数据库是陷阱,让大家陷进去爬不起来。2008 年开了一个会,提出计算机视觉的方向,把计算机视觉变成一个图像分类问题。我当时就认为,这是把大家引到了一个任务陷阱中了,这是非常危险的。但不管我怎么说,大家还是很感兴趣,玩得很嗨。但是我也很高兴,我们能有十年的时间独立研究,没有受到太多的打扰,坚持了自己研究理念。
文继荣:基本上我是同意张老师和朱老师的意见,因为我自己是个科幻电影迷,这些电影我都看过。不好意思,因为我知道里面有很多Bug,但是还能看下去,跟朱老师不太一样,朱老师是看不下去。我自己从这五个功能来说,可能有一点点不一样的,刚才张老师和朱老师说贾维斯的手势,其实不是手势交互系统,更多是接近于通用的人工智能助手,实际上有点接近于你问它什么,它都可以帮你。
因为大白只是医疗方面的信息助手,所以我觉得最容易的是大白。接着应该是贾维斯和同声传译。自动驾驶的问题,主要是容错性要求太高了,除了技术上实现的难度以外,还要从另外一个维度考虑问题,比如说技术难度实现的差不多,但是从用户角度有些技术是容易接受的。比如同声翻译也很难,但是翻译错一些内容问题不大,但是无人驾驶不一样,容错性特别特别低。情感伴侣的话,应该是最难的,因为这里面有更复杂的东西,甚至涉及到意识的问题。
黄铁军:我也得表个态,刚才各位专家回答的都很谨慎、很专业,我的回答跟你们不一样,我是另类,脑洞派。这五个功能,每一个功能人都能做得到,包括最后一个情感伴侣,我们这一生大概花不少时间去折腾这个事,只要找一个异性就可以找到一个伴侣。实现难度排序我排不出来,但是我的回答是所有的都能实现。
为什么呢?我们人天天实现的不挺好的吗?所以人工智能如果能够做一个像人一样的机器,为什么不能做这些事情呢?这个机器不是今天的计算机,我们可以构造一个全新的不同的系统,比如我推销的类脑智能,我们可以构造一个新的像人的神经系统,只不过是电子版本的机器。它在复杂环境里面去训练,我们人能在自然环境里面长出这些功能,为什么它不能呢?所以我认为这在未来的机器里面是完全有可能的。
唐杰:刚才大家提到了数据开放共享,包括竞赛可能是一个陷阱,这样的陷阱甚至对未来 AI 发展产生阻碍。黄铁军院长是否要回应一下这个问题?
黄铁军:我觉得不是阻碍,这是一个重要的阶段。我从来不反对大数据,因为人就是大数据训练出来的一个结果。我们从单细胞动物进化到今天这么复杂的一个身体、神经系统,那是因为进化过程中的大数据。不管我们叫不叫它大数据,也就是环境、地球的自然环境给予我们的刺激和约束,使我们不断地去调整系统,这是一个大数据。从广义的大数据意义上我是同意的。今天收集这么多数据变成静态的、标好的图像,这只不过是一种比较僵化的大数据,从大的思路上讲还是必要的,因为没有这样足够数据和环境的刺激,我们很难做出更强的智能。
张钹:大数据、计算机处理数据的能力远比人类强,我们要充分利用它,它可以发展出来在某些方面比人类强的机器。我对黄教授的看法有一点质疑,我们的目标一定是要做一个与人类完全一样的机器吗?我认为不是。做一些在某些方面比人强得多,在某些方面比人弱的机器才是我们需要的,这样人与机器就可以互补,建立和谐的人与机器的共同体,没有必要让两者站在对立面。
刘知远:关于最容易实现和最难实现的 AI 技术,现场观众的投票结果已经出来了。大约 300 张投票显示,大家对于最难实现的 AI 技术意见比较一致,就是情感伴侣。最容易实现的 AI 技术,有超过一半的观众投给了同声传译,各位嘉宾老师对此有何评价?
唐杰:朱老师可以回答一下,因为朱老师讲同声传译非常难,在外交上如果翻错一个词会很危险。
朱松纯:我估计是科大讯飞的广告做的好,让大家都知道以为同声传译已经成为现实了。我觉得如果看看真正翻译结果的话,其实还是有很大差距的。科大讯飞也是我们校友师弟做的公司,我们支持他们,但是科学还是科学,我相信他们做不了,这是现实。
唐杰:这里有几个来自线上朋友提出的问题,第一个问题是实现人工智能有几个基本的要素?第二个问题是实现人工智能的自我意识最基本的元素是什么?
张钹:计算机是否会有意识?这些问题目前不可能进行科学的讨论,因为我们对人类的意识了解太少。持支持和不支持观点的人都不可能拿出充分的科学证据来支持自己的观点。我的意思是,这个问题不应该在科学领域里争论,但可以在哲学领域中讨论。因为哲学的讨论就是讨论现在科学还解释不了和解决不了的问题。
这涉及到智能这条路究竟是唯一的,还是有别的途径。我们知道,现在的智能,包括意识在内是通过几亿年的进化产生的。除了进化这条路以外,是否还有别的路?如果有别的路,就可以通过机器技术的不断提高来解决。人家常说哲学家非常痛苦,要讨论目前都解决不了的问题。但是我劝搞技术的人,作为科学家或技术人员还是做快乐的科学家和技术人员,不要去讨论这些问题,因为这些问题是讨论不清楚的。
黄铁军:我的观点跟张老师几乎完全不同,我觉得从不同的角度来看这个问题。我认为要产生自我意识的必要条件,第一是要有一个类似甚至超越人类的神经系统的物理载体。可以想想最简单的是把人的神经系统做一个电子拷贝,做一个身体。你要有一个身体,而且要有一个类似于神经系统的可以被训练、可以被改变调整的物理载体。
第二是要有一个复杂的环境,其实这个很容易。地球就是一个很复杂的环境,要有一个自然的环境,或者像朱老师说的要训练仿真的环境,无论如何要让它有尝试失败、成功的环境。
有了这两个条件之后,就可以进行交互、尝试,然后不断地去训练。在这个过程中会发生很多种可能性,包括自我意识的产生。为什么我刚才说跟张老师的观点不太一样呢?张老师说科学范围不适合讨论,我完全同意。在哲学领域的讨论,我不同意,哲学再讨论也是空谈,讨论不出什么东西。但是我们可以做的是在技术领域去讨论、在技术领域去实现,这件事是可做的。为什么?我就只举一个例子,请问宋朝的时候中国发明指南针的时候,谁告诉我们有一种东西能够沿着地磁的方向去指南?没有。那时候科学还没有、还不存在。那时候根本不知道电磁学、地球、磁场,所有的知识理论都没有。但是这没有影响中国人发明指南针。
在宋朝的时候绝对解释不清楚司南为什么老往南指,我们觉得很神秘,但是是可重复、可实现的装置。这种装置引导着人类前行进入了航海时代,发现了地球是圆的,对科学的发展起到了很大的作用。今天我们才明白了为什么是指南的。
回过来讲,我们做一个有自我意识的系统,前提是先去做这个系统,而不是解释人智能背后的原理问题,它不是科学问题、哲学问题,而是技术问题。
唐杰:刚才这个问题有上升到人的意识形态,下一个问题,我们是否能抛开意识形态、自我意识做一些更具体的解释?比如是否能自动进行任务分解,分解以后针对不同的任务用一种大神经网络、小神经网络,甚至自动机器学习的方法全部自动分解以后做自动学习?这样是否就可以实现技术层面的人工智能?
朱松纯:我再补充一下关于意识的问题,关于人的意识,这个事情一直是个迷,心理学和认知科学方面大概在十年前是不许讨论的,把所有的经费都卡掉了,不支持这方面的研究。这几年又开始了,我觉得人的意识是说不清楚的,因为人的进化系统不是最优的系统,是多少年沉淀慢慢积累下来的系统,很多东西是跟我们的神经系统相关的。很大程度上它依赖于我们这个特定的系统。
我同意黄铁军说的情况,这样人工智能来解决意识的话本身不是一个问题。你可以认为里面所有的状态,都可以随机被调用、抽取出来,也就是意识的表达,这倒不是一个很大的问题。
回到刚才的问题,技术能不能把任务分解,用每个不同的任务去训练,然后总结在一块。我不否认这种路线,就是说我们人脑里面有很多不同的区,我的同事用不同的芯片来做不同的任务,他发现比如说人做加法和减法都是完全不同的区域在做,这就是一个问题。
至于特定的怎么总和起来达成一个自洽的解释,这有另外的算法来做。这种计算的机理我们也考虑过,数据驱动的算法,每一个边缘分布,相当于每一个子任务都可以来算数据系统,但是互相之间要保证自洽性、完整性,必须要有联合的推理过程,这个过程是另外一个区域完成的。我倒不完全否定大数据的训练方式在工程上的作用,可能大部分的学生被黄铁军的训练集吸引过去了,或者调参去了,这是一个陷阱。
黄铁军:刚才的问题我想是否定的回答,我可以肯定地说“NO”。因为我想这位听众想问的问题,实际上是能不能设计一种机器,把任意的任务分解,分别有其他的机器完成,最后是全自动了,智能问题就解决了,我想他背后的意思是这个,这个显然是“NO”。因为只要读一下图灵的论文就知道答案,1936年的文章说的很清楚,因为不可计算理论的奠基才有了计算机。
我没有时间展开,我的意思是结论很清楚,不可能设计一台机器把所有可计算的过程来自动完成,不存在这样的机器,更不存在你说的一个机器能分配任务。你想象中强大的机器是不存在的,逻辑上就不可能,而不是说任务的难度和不难的问题。
张钹:其实大家说的意见是一致的,刚才黄教授也表示争论机器是否意识的条件不成熟;第二,我并不反对做研究,只是说不要去争论,按照自己的观点去实践,我们应该鼓励。最后有一点不同的,哲学家肯定会去讨论这个问题,我们也无法阻止他们去讨论。而且我认为这个讨论肯定是有益处的,哲学会讨论出一些很有启发性的思想。
黄铁军:最后这一点我同意张老师,哲学家不仅可以讨论,确实需要讨论。我希望他们讨论的是如果技术走的太快,捅出篓子来怎么可以和谐的问题,但是让哲学家给我们提出路线,我觉得不太现实。
实现AI不会一蹴而就,AI发展应该分级吗?
唐杰:很多人工智能技术可以实现,有的不容易实现,人工智能的发展不可能一蹴而就,一下子就拥有自我意识,甚至有些技术自动化也是有必要的。我们是否有必要和自动驾驶一样对人工智能发展进行分级,甚至是认证,比如哪家公司的某项技术,或者某个学校的技术达到人工智能一级、二级、三级、四级、五级?这个分级怎么分?
文继荣:我记得上次跟张老师在 AI Time 讨论的时候就在想,一个程序到底为什么是人工智能的程序,而不是一个普通程序?我不知道各位想没想过这个问题,你怎么判断一个程序是人工智能还是普通的?我后来琢磨了这个事情,其实有一个隐含的判断标准,这个程序是不是具有一些人才有的特质。比如说人跟传统的程序比起来有一些特性包括了什么?
第一是灵活性,它能够处理各种不确定性,有各种不确定性,灵活性、可泛化等等。
第二是有自适应性,能够适应不同的变化,能够自学习。
第三是可解释性。其实可解释性的事情对人是很重要的,背后的含义是人的理性。我们做任何东西背后是有理性的支持,这是可解释性。
第四,还有创造性和自主性等等。
我自己根据这些特性,把人工智能做了一个分级。
Level 0 是能够完成固定逻辑任务的,就是预定义逻辑任务,其实就是现在说的普通的程序。
Level 1 是定义为完成特定领域任务,不管用什么方法,用大数据方法或其他方法也好,它可以处理不确定的输入、可泛化,像人脸识别。
Level 2 是可以对结果行为可解释,能够从相关到因果。这个事情很重要,为什么要有理性,其实是因为我们想结果可控。刚才大家讨论了很多,基于大数据深度学习和可解释性是有一些矛盾和冲突的。
Level 3 是刚才朱教授谈到的通用人工智能,实际上这一块就需要能够具有多领域的自适应性,并且具有常识推理能力等等,使得能够在多个领域自由游走。
Level 4 应该是让系统具有一些创造性。AI产生的一些新的、有意义的东西,比如真的能够写出一部小说了,但是这个东西必须是要有意义的,所以这是创造性,也是人很重要的特性。
Level 5 是具有自我意识,刚才已经进行了哲学层面的讨论,如果到了这一级是真的有生命了。
我立了一个靶子,请各位老师来批判。
朱松纯:我觉得这个分级在各个垂直应用行业是非常有意义的,因为目标和任务非常清楚。但是作为一个通用人工智能的分级,整体的分级我觉得目前还很难。因为到底人工智能包含有多少个模块,包含有多少个功能,在整体的框架没有说清楚之前,在维度没有说清楚之前,去分析的话可能会引起很大的争论。
关于这个问题,更简单的情况下把它说成是智商。比如说智商到底有多少个维度,为什么我们测人的智商是从0到150,这其实就是个分级,人也可以分级。我们最近也在研究这个事情,美国也在研究这个事情,为什么我们比动物聪明,为什么有的人比我聪明,基本的机制在哪儿?天才到底是因为什么变成了天才,比如数学天才或者下棋的天才。这就是有很多种维度,这个维度在大的空间里面到底是有限的还是无限的,那就说到了任务的边界在哪儿。到底有多少个任务,智能的边界在哪儿,智能极限在那,或者学习的终极极限在哪儿。
原来图灵有一个停机问题,刚才黄铁军也提到了。我们其实在学习也有个停机问题,我提出了学习的极限。是什么东西决定了我们智商的极限、学习的极限,这个是可以作为一个科学的问题来研究。
张钹:我基本上同意他的意见,对于具体问题要进行一些分级,这对于我们的研究很意义。比如自动驾驶现在分成五级,这样就可以知道这个阶段究竟可以做到什么程度。
但是,我认为对整个智能进行分级很难,因为这涉及到了很多方面。什么叫聪明?智能在不同方面的表现不同,牵涉的面很宽,所以分级的可能性较小、较难。特别是对于通用人工智能一定要谨慎,要有明确的定义。最早看到他(朱松纯)讲的题目,我觉得他的胆子够大了。后来听他讲了,感觉就不一样了,等于是做大任务。我们对通用人工智能的使用要谨慎,这在人工智能历史上有过激烈的争论,到现在为止都没有搞清楚。
黄铁军:我就补充一点,我觉得我们除了功能,还要考虑性能的维度。为什么呢?比如说下围棋,现在毫无疑问机器比人强大得多,不能说机器就超越人了,因为它靠的是速度、性能的维度。刚才提到几个级别的时候,性能一件事就足以颠覆我们对功能的分级。比如说我们昨天给朱老师看视觉芯片,速度比人眼快一千倍。这样的传感器如果照着这样的感知,动作也是这样,推理也是这样的,就可能远远超越人类了。
我们原来很多时候想的以人的功能为标准,制定了级别,又考虑场景,在被性能冲击的时候可能完全就不适用了。
AI隐私问题
唐杰:今天的主题是讨论“能”与“不能”,刚才大量的时间都在讨论第一个“能”,第二个”能”还没有讨论。第一个“不能”和第二个”能”的含义不同。现在随着AI 技术的发展,我们可以做到很多事情,比如国内的在课堂通过视频自动观察学生有没有认真听课,深圳的交警窗口把闯红灯者的照片、姓名自动打在大屏幕上,看起来非常厉害。
今年 5 月份,美国加州通过了网络隐私法保护,禁止在任何公共场所使用拍照的人脸,甚至包括警察抓小偷。关于隐私问题,几位嘉宾是否有相关考虑,你们是支持更多的保护隐私,还是在当下,尤其是中国当前的情况下,可以放开隐私(问题)做更多的技术探索?
黄铁军:我认为人工智能技术嵌入到社会生活中,嵌入到方方面面过程中一定有适应过程。但是这个适应过程是双向的,既要技术适应人类社会,人类有时候也要一定程度上适应技术,构成一个和谐的共同体。
可能对于技术应该适应人类,我觉得不用论证,大家多数都会同意。但是从人类要适应技术的这一点,我们心理上也要做一定的调整。我就不举那么多例子了,比如说图灵之所以1954年去世,就是因为当年的伦理给了他致命一击。如果没有人类伦理限制的话,今天的计算机科学、人工智能可能完全是另外一个状态,所以人类自己适当的调整是必要的。
张钹:这个问题涉及广泛,属于人工智能治理的问题。我认为涉及到了三个层面,第一是误用人工智能技术,第二是滥用人工智能技术,第三是有益利用人工智能技术进行国家与国家之间的对抗、集团与集团之间的对抗,这三个层面是不同的,应该采取不同的治理方法。
朱松纯:我觉得隐私和自由,隐私是侵犯了自由的空间,人家看到你的时候,你做事情就不自由了。我觉得这个问题应该是由社会中大部分人来决定。以前我说了伦理道德不是绝对的,是相对的,在人和人之间交流过程中达成的共识。道德的“德”字我原来解释过,就是一大堆人有十个人眼睛看着你心里怎么想的,这个东西合适是道德,不合适就是不道德,这是随着时间在改变的事情。
我觉得自由的话,像人脸识别系统,我们的机场、火车站都非常方便,也是大家选择的一个问题,要由公众选择。公众如果通过法律不让你这么做,那就不能做。
文继荣:第一点,这次在 AI Time 时张老师提了一个观点,我分享一下。大家可以看到在(美国)加州禁止了人脸的东西,但在中国可以看见各种人脸监控还是比较普遍的,跟这两个国家的特点有关系。可能西方更强调的是个人自由。在咱们这儿更强调集体主义。在中国一直提倡可以为了集体、国家的利益,甚至可以牺牲一些个人利益,这对这个社会大多数人来说是接受这一点,这是不同点。
在中国的话,我们不能简单说加州不让做,中国就一定要这样做,其实不是这样的。但是边界在哪里?我同意朱老师说的,这要交给人民去决定。比如说前两天看新闻,比教室监控更厉害,教室是用摄像头,而他们是给学生戴一个东西,可以监测你的脑电波,然后看你走神没走神,最后给你弄个大数据来分析你,这是不是有点走的太远了,所以有一个边界。
第二,隐私安全另一点比较重要的是人工智能要可控。现在深度学习黑箱的问题是很麻烦的事情,我是比较担心的。比如说武器,如果里面的可解释性、可控性解决不了,这才是真正危险的东西。
刘知远:实际上,随着 AI 技术的深入应用,已经出现了很多隐私、安全和伦理相关问题,各位嘉宾都非常认可 AI 技术应用应该有一些边界。很多国家和机构也都意识到了这个问题,纷纷发起了如何以负责任的态度发展人工智能的行动。
唐杰:最近各很多国家发表了 AI 宣言,北京也发布了《人工智能北京共识》,因为黄铁军参加了很多相关工作,我们请他简单解读一下《人工智能北京共识》。
黄铁军:发展人工智能,让它造福、服务于人类,这样的宗旨我相信是大家的共识。我不仅参加了《人工智能北京共识》的讨论,也参加了国家新一代人工智能治理委员会的一些讨论。这些原则,我想既然是大家讨论的结果,就是一个多数人的共识,我也是同意的。
但是像我刚才说的,其实在刚才的两个委员会里面我都是另类,都是提反对意见比较多的。我的一个观点,一方面在现阶段或者在未来的一段时间之内,我们确实要从人的利益、幸福感出发来考虑这个问题,但这不是永远的。
从长远来看,我个人的观点还是要跳出以人为中心的思维惯性,而要考虑智能在地球、宇宙的意义下的长远未来,这是同样要考虑的问题。在那个时候就不是说智能怎么服务于人,而是人和智能系统如何共处、共融,共同融合在一起在未来去发展下去的问题。
AI技术安全和伦理的边界在哪里?
唐杰:人工智能的发展离不开伦理,请几位嘉宾简单论述对于伦理和 AI 发展边界的观点。
张钹:一两句话说不清楚,治理应该分成几个层面,有的涉及到安全,有的涉及到伦理,作为宣言,笼统地提倡是可以的。但是具体到技术问题,还需要具体界定,这比较复杂。
朱松纯:这个问题确实是非常难,现在大概花不到1000 美金就可以造一个杀人武器,无人机和摄像头有人脸识别,定位某个人,就可以开枪了,其实这是非常危险的事情,肯定也无法阻止有人这么做。既然这个工具产生了,他拿这个工具砸银行或者干什么是别人的事情。我想科学家在这个方面上阻止不了他,只能通过社会去做。
将来最好的办法是计算机能够形成一定的伦理,它能够判断这么去做会造成的社会后果是什么,这是一般人基本的能力。因为我们社会上的每一个人都可能做一些违法的事情,但是它会考虑到后果。如果机器没有考虑到这个后果的话,每一个都是自杀炸弹性质的机器人,这是危险所在。
文继荣:其实这个问题特别难,我有一个很朴素的想法,大家为什么会讨论人工智能伦理,是因为大家担心让人工智能去做一些人不能做,或者不敢做的事情,或者不愿意做的事情,将来交给机器或者人工智能去做。一个简单、朴素的边界在哪里?就是在这个地方。如果让人工智能去做对人的伦理评价这么大事情的话,实际上是要三思一下。
唐杰:医疗领域的容错率很低,在医疗领域中,未来五年哪些 AI 技术真的可以实现在这个场景中落地?
张钹:现在的技术实际上用在了非关键的场景,如分诊、医疗健康管理、医院管理、医疗系统的支撑系统等。现在的技术还难以支持人命关天的医疗场景,比如计算机疾病诊断用起来大家就很慎重。简单来讲,现在大家做了很多医疗图像识别系统,识别率都做的很高,有的声称超过人类。但是医生还是不敢用,为什么?因为不可解释,做出的判断解释不了原因,医生敢签字吗?所以,在关键领域还要下工夫,人命关天的问题还是要慎重,大家还没有真正普遍使用。
唐杰:我们现在研究人工智能有两个思路,一个思路是用计算机模拟人脑的思维方式,然后用人脑的思维方式求解这个问题。另一个思路是作为纯算法,然后用纯算法的思路来求解,比如可确定性的问题,或者人很难求解,但是计算可以求解的问题。这两个思路哪个在当下最可行,为什么?
黄铁军:我觉得两个思路好像是一个思路。当然我知道有点区别,一个是人把规则定下来然后去做,另外一个是训练,总的来说也没有绕出计算机的范围。因为时间已经到了,我就简单说两句。其实我昨天晚上被唐杰抓来做找茬的,只看到了题目,不知道今天讨论的不能是那个意思。实际上我脑子里想的“不能”是人工智能作为一种技术,它不能的边界在什么地方,这个事情跟你刚才提的问题有关系。
计算机的能与不能有很多讨论,也有很多着作、文章可以去看。最基本的是图灵在1936年论文说计算边界有了很清楚的结论,绝对不是无所不能,计算的范围是很有限的。因此你刚才说的两个问题在人工智能是一种方法,但是它是一种可能的有限范围内的方法。
但这并不等于人工智能永远就只能限制在这样的范围之内,我们完全可以去制造、去创造全新的系统。这个系统不一定非要计算,或者它超越了图灵机,所谓超越了图灵机因为不是在机械计算的方式在进行的。从这个意义上讲,它的能力比刚才那样的方法要大得多。我认为人也有不能,因为人类神经元有几百亿,人也有一个智能上限的天花板。天花板的突破要靠未来的机器,机器从物理载体的能力上超越我们,这是完全有可能的。
当然谁要敢给一个说“不能”,因为说“不能”都是最伟大的贡献,你敢肯定一件事不能,能说人工智能的“不能”,那一定也是一个伟大的贡献。但是我认为说“不能”时代的远远还没有到来,而是有巨大的探索空间。
唐杰:非常感谢黄老师,最后的“不能”讲得非常好。今天我们用了一个小时探讨了人工智能的“能”与“不能”,但其实这没有标准答案,很多 AI 相关技术和应用场景,还有很长的路要走。
第三十八届CIO班招生
国际CIO认证培训
首席数据官(CDO)认证培训
责编:baiyl
免责声明:本网站(http://www.ciotimes.com/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等)版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。