平台服务->科普宣传->科普百科->人工智能简史:从自动木偶到智能处理器


人工智能简史:从自动木偶到智能处理器

图片1.png

人工智能的发展历经了一个跌宕起伏的过程,但始终向前迈进。由生物神经元抽象后开始萌芽,神经元模型初步诞生,再发展到可以应用在简单实际问题的感知机。为了突破感知机的局限性,又演化出多层感知机,给复杂的问题提供了一种解决方法。后续又出现了各种神经网络,如卷积神经网络等,打破了多层感知机的计算复杂性限制,为人工智能理论在各个领域中的应用提供了一种崭新的实现方式。

混沌初开

历史长流,中西并进,日新月异,智能源起,盘根于民,神乎其技。

远古时代:技艺发展到一个高峰就体现出高度仿人化的智能,从公元前10世纪的西周偃师(今天洛阳)的能歌善舞木偶到公元12世纪阿拉伯加扎利(Jazari)的自动人偶(如图1所示)代表了人类对智能的不懈追求。

1.png


图1 阿拉伯加扎利(Jazari)的自动人偶

人类希望赋予智慧和思想于机器工具,用以解放生产力,便利人们生活,推动社会发展。人工智能(Artificial Intelligence, AI)诞生的过程缓慢而悠长,从源远流长的神话,到天马行空的科幻,再到鬼斧神工的科技,无不包含着人类对智能的渴望。但是人工智能的实现紧跟人类知识的发展,复现甚至超越人类的智慧。早期形式推理 (Formal Reasoning)的发展,为人类思维的机械化提供了研究的方向。

萌芽初长

17世纪中期:戈特弗里德· 威廉· 莱布尼茨(Gottfried Wilhelm Leibniz)、勒内·笛卡儿(René Descartes)和托马斯·霍布斯(Thomas Hobbes)(图2),致力于理性思考系统体系化的研究工作,催生了形式符号系统,成为人工智能研究的灯塔。

2.png

图2 莱布尼茨、笛卡儿、霍布斯(从左到右)

20世纪初期:伯特兰·阿瑟· 威廉·罗素(Bertrand Arthur William Russel)、阿弗烈· 诺夫·怀特海(Alfred North Whitehead)和库尔特· 哥德尔(Kurt G?del)对数理逻辑的贡献,为数学推理机械化提供了理论的基础。随之图灵机的创造从符号学本质上为机器思考提供了可能。工程学上,由最初的查尔斯·巴贝奇(Charles Babbage)的“分析机”设想,到服役二战的 ENIAC 大型译码机器,见证了艾伦· 图灵(Alan Turing)和约翰·冯·诺依曼(Johnvon Neumann,如图3所示)的计算机科学理论,将计算机科学理论工程化,加快了人工智能的发展。

3.png

图3  图灵和冯· 诺依曼(从左到右)

曙光初现

20世纪中期:不同领域的科学家为人工智能的诞生进行了一系列的研究和准备。从20世纪30年代到50年代,诺伯特·维纳(Norbert Wiener)的控制论,克劳德· 香农(Claude Shannon)的信息论,图灵的计算理论以及神经学的发展为人工智能破土而出提供了阳光和土壤。

AI诞生

1950年:图灵发表《计算机器与智能》,提出了著名的图灵测试:如果机器与人类进行对话而人无法辨别机器身份,则该机器具有智能。图灵测试的提出对后来人工智能的发展具有不可忽略的意义。

1951年:年仅24岁的马文·闵斯基(Marvin Minsky)与迪恩· 埃德蒙兹(Dean Edmonds)建造了神经网络机器SNARC(Stochastic Neural Analog Reinforcement Calculator)。随后闵斯基在人工智能领域不断耕耘,对人工智能的发展起到巨大推动作用,并因此荣膺图灵奖。

1955年:一个名为“逻辑理论家”(Logic Theorist)的程序以更加新颖精巧的方法证明了《数学原理》中52个定理中的38个。这项工作的缔造者艾伦·纽厄尔(Allen Newell)和赫伯特·西蒙(Herbert Simon)等开辟了智能机器的一条新途径。

1956年:在达特茅斯会议(如图4所示)参与者闵斯基、约翰·麦卡锡(John Mcarthy)、香农和纳撒尼尔·罗切斯特(Nathan Rochester)等10位倡导者讨论后提出“学习或者智能的任何一个方面都应能被精确地描述,使得人们可以制造一台机器来模拟它”。人工智能从此带着使命和活力进入人类世界,正式形成一门学科,开辟了一片崭新的科学天地。

4.png

图4 达特茅斯会议参与者合影

扬帆起航

达特茅斯会议之后,人工智能如同火山爆发,它掀起的浪潮席卷全球,同时也带来了累累硕果。计算机能够完成更多人类的高级任务,如解决代数应用题、几何证明以及语言领域的拓展。这些进步使得研究者热情高涨,对人工智能的完善充满信心,同时也吸引着大量资金进入该研究领域。

1958年:赫伯特·吉宁特(Herbert Gelernter)基于搜索算法实现了几何定理证明机。纽厄尔和西蒙通过“通用解题器(General Problem Solver)”程序将搜索式推理应用范围扩大。同时,搜索式推理在搜索目标和子目标决策方面取得应用成效,如斯坦福大学的机器人-STRIPS 系统。在自然语言领域,罗斯·奎利恩(Ross Quillian)开发了第一个语义网。接着,约瑟夫· 维森鲍姆(Joseph Weizenbaum)缔造了第一个对话机器人ELIZA。ELIZA能让人误以为是和一个人在交流,而不是一台机器。ELIZA的问世,标志着人工智能取得了重大进步。

1963年:麻省理工学院从美国高等研究计划局(ARPA)获得经费,让MAC(The Projecton Mathematics and Computation)项目落地前行。闵斯基和麦卡锡也是这一项目的主要参与者。MAC项目在人工智能史上占有重要地位,对计算机科学的发展产生了重要影响,并催生了后来著名的麻省理工学院计算机科学与人工智能实验室。这个时期,正如1970年闵斯基预测“在三到八年的时间里我们将得到一台具有人类平均智能的机器”的情形一样,人类期待加速人工智能历史发展进程,但是人工智能发展是一个不断完善成熟的过程,意味着之后将是一个缓慢前行的阶段。

遭遇瓶颈

1972年:理查德·卡普(Richard Karp)证明了很多问题的计算时间与输入量的幂成正比,这暗示着人工智能对于很多类似指数大爆炸问题的求解近乎不可能。在自然语言和机器视觉等领域,需要有大量的外界认知信息作为基础进行识别与认知。研究者发现,即使达到儿童程度的认知水平,人工智能数据库的构建也十分艰巨。对计算机来说,在定理证明和几何等数学问题上显示出的能力要远远强于处理在人类看来极其简单的任务,如物体辨识的能力,这使得研究者们近乎望而却步。

20世纪80年代初期:人工智能的发展速度逐渐变缓,当时最好的人工智能程序只能在某个点上解决问题,难以满足人们的需求。这是由于人工智能的发展碰到了难以轻松突破的瓶颈。在计算机能力上,由于人工智能对硬件资源要求高,当时的计算机内存和处理器速度难以满足实际的人工智能要求。很明显的一个例子就是在自然语言的研究上只能对20个单词的词汇表进行处理。在计算复杂性方面也受到了阻碍。

由于以上一系列因素,政府机构逐渐对人工智能的前景失去了耐心,开始转换资助方向,将资金转向其他项目。与此同时,人工智能研究者也备受冷落,人工智能渐渐淡出人们的视野。

浴火重生

经历了数年的低谷之后,伴随着“专家系统”的横空出世和神经网络的复燃,人工智能蓄力再度上路启程,重新成为热点。最早出现了由爱德华·费根鲍姆(Edward Feigenbaum)主导开发的能够根据一组特定逻辑规则来解决特定领域问题的程序系统。随后出现了可以诊断血液传染病的MYCIN系统,增大了人工智能特定领域应用的影响力。

1980年:XCON(eXpertCONfigurer,专家设置)程序因在自动根据需求选择计算机部件的方向上为客户节约了4000万美元的成本并带来了巨大商用价值而闻名于世,同时也大大提升了专家系统的研发热度。

1981年:日本对第五代计算机项目加大资助,定位于实现人机交互、机器翻译、图像识别以及自动推理功能,投入资金达到8.5亿美元。英国注入3.5亿英镑到Alvey工程,美国也加大了对人工智能领域的资助,一时群雄逐鹿。

1982年:约翰·霍普菲尔(John Hopfield)的神经网络使得机器对信息的处理方式发生了跨越性的改变。1986 年,大卫·鲁梅尔(David Rumelhart)将反向传播算法应用到神经网络中,形成了一种通用的训练方法。技术革新浪潮推动着人工智能不断向前发展。

但好景不长,人工智能之冬又一次悄然而至。以XCON程序为代表的专家系统应用的局限性以及高昂的维护成本,使其在市场上逐渐失去了当初的竞争力。初期对第五代工程的狂热投入没有收获期望的回报后,研发资金也逐渐枯竭。研究者的热情 也随之顿减,一时人工智能饱受争议,陷入寒冬。

黎明日升

饱受岁月磨炼,历经时光浮沉,秉承着对人类智能奥秘的追求,人工智能一直未停止前进的步伐。人工智能在发展过程中也增加了其他领域(如统计理论与优化理论等)的活力。同时,与其他领域学科进行深度融合,为数据挖掘、图像识别以及机器人等领域带来一场技术革命。

1997年:国际商用机器公司(IBM)的深蓝计算机系统在国际象棋领域战胜人类世界冠军卡斯帕罗夫(Kasparov),如图5所示,使得人工智能重新进入世界舞台。

5.png

图5 卡斯帕罗夫与IBM深蓝计算机对弈

2011年:谷歌大脑(Google Brain)利用分布式框架和大规模神经网络进行训练,在没有任何先验知识的情况下,在YouTube进行视频学习并识别出“猫”这个概念。

2016年:谷歌公司的AlphaGo在围棋领域击败世界冠军李世石,震惊世界。

2017年:AlphaGo改进版再次胜过世界排名第一的职业棋手柯洁。这一系列的成就,标志着人工智能已经到达了一个新的高峰,孕育着更多领域的智能变革。

大国战略

人工智能已成为引领新一轮生产力革命的战略支点。在人工智能这个新一轮生产力革命的发展上,同时是大国国力的竞争。我国敏锐抓住这个战略机遇。

2017年7月:国务院发布《新一代人工智能发展规划》,将我国人工智能技术与产业的发展上升为国家重大发展战略。

2018年4月:教育部发布《高等学校人工智能创新行动计划》,提出“优化高校人工智能领域科技创新体系”的重点任务,提出高校要不断推动人工智能与实体经济(产业)深度融合,开展高层次人才培养。

2020年2月:教育部发布《关于“双一流”建设高校促进学科融合,加快人工智能领域研究生培养的若干意见》。并在2020年新增审批180所高校获批建设人工智能本科专业,加上2019年试点审批的35所人工智能专业点,累计达到215所,成为增长最快的本科专业之一。

上述重磅基本政策,为快速建立高级人工智能人才培养机制与人工智能产业发展方向,建立了保障。

AI重器

截至今天,全世界范围内的人工智能应用布局已经初步形成,主流应用焦点包括机器学习、自然语言处理、语音处理、计算机图形学、计算视觉、人机交互、机器人、数据库、知识工程、信息检索、数据挖掘、可视计算等12个重大领域。

新一代人工智能的蓬勃发展依赖于三个要素——数据、算法和算力。所谓算力,就是超强的计算能力。目前,人工智能系统的算力大都构建在CPU+GPU之上,计算的主体是GPU。GPU原本是为图形处理与显示而设计的,大多用在显卡上。随着时间的推移,GPU处理向量、处理矩阵,甚至处理张量的能力越来越强。

除了显卡,高档GPU也经常被用作图像处理与科学计算的协处理器。英伟达公司就是因为提供高档GPU而在几年间成为(协)处理器市场上成长最快的公司。英伟达公司的TeslaV100处理器速度达到每秒十万亿次浮点运算,在AI算力方面先行一步。虽然用GPU进行深度神经网络的训练和推理速度很快,但由于GPU需要支持的计算类型繁多,所以芯片规模大、功耗高。

为了提高深度神经网络训练和推理的效率,几年前人们就开始考虑设计专用深度神经网络学习和推理的芯片。例如,谷歌和寒武纪公司均推出了深度学习专用芯片,大大提升了运行主流智能算法的性能。华为于2019年8月23日下午在深圳发布了全新AI处理器昇腾910芯片(该芯片是当时单芯片计算密度最大的芯片,采用自主“DaVinci(达芬奇)”架构、7nm+EUV工艺),它与昇腾310两颗人工智能芯片分别面向深度神经网络训练与推理,其设计理念更有利于打造完整的生态链, 可以为中国乃至全球开发者和企业提供新的选择。

6.png

图6 华为在深圳发布了全新AI处理器昇腾910   


Copyright ©2021 吉林省机器人学会. All Rights Reserved. 友情链接: 长春理工大学 工业和信息化部 中国自动化学会