戴琼海院士:人工智能几点思考——算力、算法、测试

大数据文摘

共 7558字,需浏览 16分钟

 ·

2020-12-01 11:29

大数据文摘授权转载自数据派THU

11月14日至15日,由中国人工智能学会、嘉兴市人民政府主办,嘉兴市南湖区人民政府、嘉兴科技城管理委员会、浙江未来技术研究院(嘉兴)共同承办的2020第十届中国智能产业高峰论坛(CIIS 2020)在嘉兴南湖举办。在11月14日的主论坛上,国务院参事、CAAI 理事长、中国工程院院士、清华大学信息学院院长、CAAI Fellow戴琼海教授为我们带来了题为《人工智能几点思考——算力、算法、测试》的精彩演讲。

以下是戴琼海院士的演讲实录:

今天我和大家一起讨论关于人工智能本身发展里的几个问题。

首先,从历史发展的长河来看,各种时代的区别不在于生产什么,而在于怎么生产和创造,这是最重要的环节。信息时代计算机技术、微电子技术和互联网技术三大发明的诞生,使得其他学科非常迅速发展起来,包括原子能、空间技术、生物能等。人工智能现在以深度网络为代表的工具应用,使得很多地方又发生了翻天覆地的变化,带来了新的增长点。人工智能迅速地推动行业发展,对人类社会的发展做出了突出贡献。本次大会既然是产业峰会,我们先来对人工智能产业做一个分析。

我们经过了几次产业革命,来到了人工智能时代,就是数字经济的后时代。在人工智能的发展历程中,美国人工智能企业、欧洲人工智能企业和中国很多公司起到了非常重要的作用。我们分析一下人工智能在国家战略中的地位。美国非常重视人工智能,在科研经费投入方面,诸多科研方向中对人工智能领域始终保持着非常大的投入;从 2018 年国防战略,一直到 2020 白皮书的发布,人工智能在美国掀起了很大的浪潮,希望在全世界把握高科技发展的动力。从美国人工智能产业布局来看主要有几个方面,从智能搜索,包括自然语言处理、智能语音助手和智能机器人,以及无人驾驶方面形成了完整的行业生态,使得人工智能企业蓬勃发展。典型 AI 技术应用包括智能机器人、无人驾驶,代表了两个硬方向的产业智能,推动非常快;还有在无人机方面,这是他们的杀手锏,也是未来军事智能里最重要的组成部分。

人工智能在欧洲国家战略中定位与发展, 2018 年 25 个国家签署了加强《人工智能合作宣言》。欧洲人工智能整个产业布局,系统深入分析有智能芯片,包括网络安全和医疗健康作为人工智能最重要的应用领域;欧洲人工智能产业布局在工业物联网、未来交通和智能健康,这是三个重大的产业布局。

人工智能在我国战略中的定位也非常深入。2016—2020 年,中共中央五中全会专门提到人工智能、量子科学、脑科学等前沿领域,定位非常重要。习主席在九次讲话中提到人工智能对科技创新的重要作用。从人工智能产业上,我国从2019 年开始提出了新基建,最重要的环节是人工智能,而且人工智能也作为新基建的基础问题和基础设施科技创新的题目展开。所以,2020 年我国人工智能市场规模远超全球市场规模增速的水平,尤其疫情时代不减反增,这是我国人工智能发展最重要的趋势。

人工智能产业布局从基础、技术和应用,以及硬件、软件方面有很多公司开展了非常大的创新,比如智能医疗、智能金融、智慧教育、智慧交通、智能家居、智能零售等。人工智能在螺旋式上升,产业发展非常快时,学术界和产业界也一直在讨论人工智能应该怎么往更加科学、更加透明、更加理性的方向发展。我们怎么做到强人工智能,怎么提升人工智能的算力,怎么开展测试,判断未来人工智能应该具有哪些法则、规则,这是大家要考虑的事情。通过上面的产业分析,回过头来从技术角度要讨论一下我们应该做的三件事。

一、算力

人工智能发展非常快,算力伴随着人工智能出现一直都在提升和发展,相辅相成。1956 年感知机的诞生,这时候就提到算力问题;1965 年摩尔提出了摩尔定律,算力与人工智能也是相辅相成发展;1980 年专家系统;一直到 2012 年, GPU 的加速,如果没有这个加速很难为产业服务;到 2016 年,围棋 AI 在 170 个 GPU 上运行。流媒体视频占全球互联网下行流量的 58%。2019 年8 月国内互联网终端数突破了 20 亿,每月超过 20亿的注册访问量,人工智能的蓬勃发展带来了算力需求的指数增长。

从硬件的角度来看,摩尔定律在最近几年已经放缓,算力需求每三到四个月翻一番。从算力需求快速增长,到算力提升放缓,怎么去解决这个矛盾,国际上也做了各种探索。这是谷歌的TPU,神经网络专用芯片,希望用它提升算力。包括中国的地平线、寒武纪等都开展了人工智能专用芯片的研究,这已经和 CPU、GPU 不在一个量级了。还包括量子计算,可不可以存算一体架构,类脑计算怎么提升,还有光电智能计算,从自然到科学都在讨论这个问题,算力如何提升。对算力提升在国际上也是一个极具需求和发展的路径。普林斯顿大学教授提到了全光计算,算力能提升3 个数量级,如果用上,功耗下降 6 个数量级。我们在提供算力的同时,功耗也在下降。其实光电计算并不是什么新东西,它和人工智能发展一样是三起三落。光计算起来时,硅基的算力就够了,后来贝尔实验室做了人工智能、做了光电计算,但是没有办法用。一直到今年光电计算才提到议事日程。以三维受控衍射传播实现全并行光速计算为例,这是一个颠覆,采集与计算无缝衔接,突破了存算分离速度制约,速度提升至少千倍,计算频次 1 THz,远超 GHz 电子计算。国际上目前有三个架构,一个是麻省理工的干涉神经网络,一个是明斯特大学和剑桥做的相变脉冲神经网络,还有清华大学做的衍射神经网络,都出现了不少研究和成果。如果光电计算实现,在无人系统中能够体现非常大的能力,尤其是光电计算的自动驾驶,因为计算量非常快,导致力度特别大;在军事武器,尤其导弹上,光电计算会使得现有的导弹速度再提升一个数量级,从而使无人系统更快、更小、更智能。现在也在研究云上的光电芯片、端侧的光电芯片,如果光电智能的芯片能研究出来,对新基建、工业互联网、计算机视觉、光通信和纳米级目标感知与识别这方面都能带来非常大的作用,也是算力提升的一个最重要的方向。

二、算法

算法牵扯到我们的核心。要让电脑像成人般下棋比较容易 , 让它把一个东西放在一个桌子上也非常简单。但是莫拉维克悖论指出,要让电脑有如1岁小孩般的感知和行动能力却是相当困难,甚至是不可能的。因此,如何实现高效,而且这个算法还能解释清楚,包括鲁棒的新一代智能,现在国内外都在研究。

脑科学对人工智能算法的启示。人工智能算法的进步都离不开脑科学的积累和呈现,包括算法层次的解释、启发卷积神经网络。Hubel 从1958 年发现简单和复杂的细胞,发现视觉系统的卷积特性。还有一类,类脑计算、脑启发、脑科学怎么做的。上面是 1907 年脉冲神经元的认知问题;1981 年美国加州提出了单板模拟百万神经元的计算,IBM 公司做了这方面的工作;直到现在,清华大学的专家都在类脑和存算一体上做了非常重要的工作。人工智能算法怎么考虑,下面这些做人工智能算法的很多科学家都是认知科学家,而不是人工智能的信息科学家;上面脑观测成果,脑科学为人工智能启示和认知科学家对人工智能的理解搭建了桥梁。

整体分析可以看到,脑科学家对信息传递机制、信息解释机制有一批获诺贝尔奖;人工智能方面,尤其是心理学家、认知科学家提出了一系列人工智能的算法,他们获得了图灵奖。所以人类如何思考和机器如何思考是有关系的,怎么建立这样一个恰当关系,是要研究的重要环节。大脑工作机理、信息的传递,工作的功耗非常低,只有 20 瓦,怎样找到新机制,找到新一代人工智能算法非常重要。从大机制来看,我们对神经细胞的理解,这时候是感知的智能。现在大部分都通过核磁共振对宏观图像理解,也就是现在提出的弱人工智能,如果把这三个打通,从微观、介观到宏观结合起来,对全脑的认知能不能做一个强认知智能。这是整体的脑科学和机理建立起来,构建一个认知桥,多模态的观测,通过先进神经技术,揭示脑结构、脑功能与智能产生的多层次关联与多模态影射机制,建立认知模型和类脑智能体系。

美国 2016 年就启动了一个阿波罗项目,1 亿美金,3 个课题组共同联合,有做机器学习,有做脑科学的,有做脑成像,有做脑机理,要做 1个立方毫米、10 万神经元的解析,把它们的连接打通。上面是神经元模型,下面是机器学习模型,能不能揭秘映射关系。尽管斑马鱼、小鼠神经元都不同,斑马鱼才有 1 千神经元,果蝇不到 10 万神经元,人类最多 8 百多亿神经元,但是它们都具有通用智能。所以通用智能怎样看待它对环节的理解,人对复杂环境的理解,斑马鱼对复杂环境的理解,生存的环境它们都能理解,因此都具备通用智能。但是完全靠它很难解释一个通用智能的诞生。最近 IBM 用果蝇通用智能方法研制了一套武器装备系统。果蝇 10 万神经元有 8 万是视觉系统。研究符合人脑进化过程的新一代人工智能理论体系能不能构建起来,这是大家要思考的问题。因此,我们对脑科学里,尤其是机理做了分析,既有记忆痕迹假设,也有海马体和记忆,一直到记忆与脑区的关系。通过记忆能不能构建起一个新的人工智能算法,这是另外一条通路,我们在做试验。

于是提出了生物机制,包括记忆环路。如果记忆环路超出界限,我们用物理的熵平衡把这个机理建模,最后能不能提出一个新的人工智能算法,这是清华提出的人工智能算法框架。这里需要反馈验证,所以提出了生物科学机制的发掘,包括数学物理机制的约束,一直到新一代神经网络,这样一个自学习的作用。这里给出一个框架,科学家希望能在这个框架下研究算法和工作。我们要做人工智能新的算法,一定要去打通脑科学机理;第二通过知识驱动和数据趋同共同构架一个架构,这是人工智能算法的初步分析。

三、测试

既然人工智能算法这样做了,现在我们一直要想到,算法好、算法坏是不是应该测试一下。所以,人工智能从 2016 年到未来这一段时间发展非常快,各种游戏、工具,以及各种与人类相关的这种工作都被人工智能取代。但是,这些东西能不能做的更好,是不是已经完结,需要做一套测试。图灵首先给出了一个测试判断人工智能的水平。第一代图灵测试进行过分析,图灵测试的提出,包括到 1986 年早期自然语言处理,到现在程序首次通过了图灵测试,人工智能终于能像人类一样学习并通过了图灵测试。第二代有很多科学家都在研究图灵测试,对深度网络怎么测试,现在已经从通用测试到专用测试,具有了测试机器常识推理的能力,通过标准考试的能力。以前是给一个通用测试,70%,现在通用智能测试不能起作用,专用测试神经网络抽象推理能力。这是第二代,专用测试。

新一代图灵测试,现在讲新一代的认知智能,从专用智能要走向通用智能,以前我们所提到的图灵测试还能够测试认知智能吗?这又提出了一个新问题,也是一个新方向。我们从脑、认知、智能,人工智能理论从局部发展到全局发展,怎么做这样的测试,这是需要挖掘和发展的。如何实现具有功能识别、逻辑还能推理、认识还能决策的新一代认知智能,要达到这三个要素,我们称为新一代人工智能特征。

我们测试什么,按照功能识别、逻辑推理和认知决策这三方面测试,可以分布测试也可以整体测试,这是对新一代人工智能提出的目标和要求,给出新的测试方向。我们以前做认知智能时,微观、宏观和全脑的介观尺度观测,类脑计算技术起到很大作用,也对测试带来了新挑战。大脑的信息 80% 来自视觉,包括人类独有的语言功能,感知外界环境,理解建模外界环境,与外界环境交互,怎样做决策、记忆与学习,感知世界、理解世界是人工智能最重要的目标。从这里大家可以看到,多模态回路观测技术揭示了脑结构、脑功能与智能产生的多层次关系,所以认知测试应该是未来一个新方向。新一代图灵测试逻辑推理,功能识别到认知决策,目前部分方面国际上已经做了很多贡献,也在初步发展这条路径。希望在座的,包括科学家、包括产业界都能够在图灵测试上发掘一些力量。

最后总结一下。在算力上包括光电计算在这里起到很大作用,从算法上我们更希望能不能更接近、更逼近本原的认知计算理论与方法;第二,脑科学启发人工智能;第三,认知测试层面,能不能提出新一代图灵测试,功能识别、逻辑推理、认知决策这方面给出一个新方向。

(本报告根据速记整理)



实习/全职编辑记者招聘ing

加入我们,亲身体验一家专业科技媒体采写的每个细节,在最有前景的行业,和一群遍布全球最优秀的人一起成长。坐标北京·清华东门,在大数据文摘主页对话页回复“招聘”了解详情。简历请直接发送至zz@bigdatadigest.cn





点「在看」的人都变好看了哦!
浏览 31
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报