3.2 何谓“智能”

人工智能简单来说,就是用人工的东西去模仿人类智能。“人工”意味着是人为的,是科学的,是工程的,而不是自然的。《牛津英语词典》对“智能”给出的定义是:获取和应用知识与技能的能力。《不列颠百科全书》(Encyclopedia Britannica)对智能的解释是有效适应环境的能力。

约翰·麦卡锡认为,智能就是为了实现目标所需能力中涉及计算的那部分。认知心理学家霍华德·加德纳(Howard Gardner)认为智能就是解决问题或创造。与人工智能对应的是生物进化产生的“自然智能”(Natural Intelligence),尤其是“人类智能”(Human Intelligence)。

到底什么是人类智能呢?关于这个问题,直到科技高度发展的今天,依然很难定论。

3.2.1 人工智能的脑视角

《人工智能的未来进展专家意见调查》(Future Progress in Artificial Intelligence:A Survey of Expert Opinions)报告共采访了550名专家,其中有11%的专家认为,10年内就能充分了解人脑的基本构造,以创建人的思想的机器模拟。实际上,对于仅仅1.4千克重的人脑,我们知之甚少。我们对脑内局部了解得很少,更不要说整体的运作了。

1986年,来自美国阿尔伯特-爱因斯坦医学院的研究人员在一种称为秀丽隐杆线虫的简单生物中成功构造出了整个神经系统中所有神经细胞相互连接的路线图,它的整个神经系统中仅有302个神经细胞,这种小虫的神经系统虽然简单,但是到今天,研究人员对其的功能仍然没有完全研究明白。人的大脑大约有860亿个神经细胞,可见人脑的网络非常复杂,更难探索。

探索脑机制和开发脑启发智能机器的任务是截然不同的。在研究人工智能时,真的有必要研究人脑吗?飞机也没有仿照鸟类,一样可以在空中飞行。计算机和人脑中信息处理有什么差异呢?约翰·冯·诺依曼(John Von Neumann)对计算机与人脑曾进行了系统的讨论,《计算机与人脑》(The Computer and the Brain)一书在他去世后出版。该书原本是他为耶鲁大学西利曼讲座准备的演讲稿,由于1955年被查出身患癌症,至1957年去世时,他的演讲稿仅完成了两部分:第一部分讲述计算机,第二部分介绍人脑。这本书内容不多,但是非常精彩,将计算机工作原理与人脑运行机制进行了对比,并认为计算机和人脑在本质上是一样的。这本书是第一本从数学家和计算机科学家的双重视角对人脑进行剖析的书,在这之前,还从未有人将计算机科学和神经科学这两个学科进行交叉,这为研究生物体和神经网络引入了全新的方法。

杰夫·霍金斯(Jeff Hawkins)和桑德拉·布莱克斯利(Sandra Blakeslee)合著的《论智能》(On Intelligence)一书从工程师的角度对神经科学进行阐述,一个核心观点是大脑是记忆—预测系统而不是计算系统。

人工智能的研究从来都与下棋保持着密切的联系,因为下棋被看作人类取胜的游戏,反映了人的思维。经常听人说,头越大越聪明,真是这样的吗?论大脑的绝对尺寸,人类比不上大象,甚至比不上海豚。论大脑与身体质量的相对之比,人类不如小鼠。究竟是什么让人类在智能上胜出?一种观点认为是神经元的连接方式不同而导致的大脑运作方式不同。

利用神经网络的人们有一个默认的假设,那就是认为智能和意识来自人脑的复杂结构。1948年,当数字计算机还没有出现时,威廉·格雷·沃尔特(William Grey Walter)就设计了乌龟机器人,他也被认为是首个制作出电子机器人的科学家。这个机器人使用了模拟电子电路去仿真大脑的工作原理,与人类大脑中神经元连接方式相似。

仅仅模仿大脑就能够代表智能了吗?不少学者提出了疑问,他们称这种以大脑代表智能的做法为“大脑中心论”。这些学者认为,大脑不是目标,仅仅是维持人类生命众多器官之一,是实现目标的工具。因此,智能仅仅考虑大脑活动是远远不够的,还应当基于身体的行为与机器进行比较。

一些学者不断声称很快就可以建立起仿真人脑。例如,2005年的蓝脑计划(Blue Brain Project),科学家就是期望在超级计算机上仿真人脑,并期望在2020年左右制造出第一台会“思考”的机器,此机器可能拥有感觉、痛苦、愿望和恐惧感。2013年的人脑计划(Human Brain Project)也获得了10亿欧元的支持,成为全球最重要的大脑研究项目之一。而也有一些学者批评仅仅根据神经元数量及它们之间的连接数就可以代表人脑复杂性,建立仿真人脑的这种观点。

人脑和计算机都在处理信息和保存信息。计算机处理信息时,采用的是“0”和“1”的形式将编译后的信息通过CPU进行计算。然而CPU却没有存储功能,必须要通过内存或硬盘等具有存储信息功能的硬件一边处理一边保存,最终将处理好的信息存储在硬盘中,存储方式是地址存储。大脑则是通过神经细胞并行处理,存储方式是联想记忆,因此可以形成看到北京就想到天安门,看到成都就想到大熊猫一样的联想反射,这点人工智能是很难做到的。雷·库兹韦尔(Ray Kurzweil)在《人工智能的未来》(How to Create a Mind)中也表达了他的观点,尽管大脑也能存储和处理信息,但是计算机与大脑之间存在很大的不同。

3.2.2 图灵测试与“人工蠢能”

1950年,英国数学家艾伦·图灵(Alan M.Turing)发表了一篇关于计算机器与智能的文章,文章的第一句就提出“机器会思考吗”(Can machines think?)。通过采用模仿游戏(Imitation Game)对机器能够思考进行验证,也就是后来的图灵测试(Turing Test)。

图灵测试的目的就是希望能够给智能重新进行定义,即如果机器是否能够思考人们无从得知,那么是否可以通过最终与一个结果挂钩,去衡量智能呢?通过图灵测试,智能从原本的问题,成功地变成了另一个问题。

早在1966年,就出现了一款名为ELIZA的机器人。它是由麻省理工学院的约瑟夫·魏岑鲍姆(Joseph Weizenbaum)开发的,是目前已知最早的机器人。约瑟夫·魏岑鲍姆是自然语言处理方面的领军人物,这个模拟罗杰斯心理治疗的BASIC脚本程序,在对话上表现得很好,使得很多人产生了情感上的依赖,并愿意向它吐露更多的心声。以下是它扮演医生和患者的一段对话。

医生:我可以为你效劳吗?

患者:我不知道。

医生:请告诉我一些情形。

患者:不。

医生:请你说得仔细些。

患者:今天我厌烦得很。

医生:你知道这是什么原因?

患者:是的,我老了。

医生:请继续讲。

患者:仿佛任何事情都激不起我的兴致。

医生:请更多地告诉我你的这种感觉。

患者:我也略知为何我会有这样的感觉。

医生:是吗?

患者:我似乎在想有一个家。

医生:什么东西使你有这样的想法?

患者:它是一种挑战。

医生:为什么它对你是重要的?

初次看到对话,人们会产生一种计算机已经具有理解力的错觉,其实,计算机只不过是按照某种规则对用户输入的语言进行匹配后回复而已。ELIZA的出现对自然语言处理及人工智能研究的发展都起到了积极的推动作用。几十年过去,那些曾获得勒布纳奖(Loebner Prize)的机器人,与ELIZA仍没有本质的区别。

根据艾伦·图灵当时的预测,2000年时测试者答案的正确率可以达到70%。到了2014年,终于有一台计算机“通过”了图灵测试,“他”骗过了33%的测试者,让人们相信它是一名13岁的男孩,这一度成为人工智能发展史上的里程碑事件。然而,让人啼笑皆非的是,它是因故意设计出了一些错误才在短时间内骗过了那些测试他们的人。

计算机要表现得太聪明,很容易被识破,因此,如果想要骗过人类,计算机就要有针对性地稍微“愚蠢”一点。在经济学中,存在一个理性人假设,然而行为经济学认为,人是有限理性的,即非理性。理性人假设中的理性人几乎在现实中不存在,因此,表现得出奇的理性,真的就可以被视为是人通过图灵测试的伎俩吗?

很多人认为应该将“人工蠢能”(Artificial Stupidity)加入到计算机中。例如,知名人工智能专家兰斯·艾略特(Lance Eliot)就在《人工蠢能可能是人工智能和实现真正的自动驾驶汽车的关键》(Artificial Stupidity Could Be The Crux To AI And Achieving True Self-Driving Cars)中提出要将“人工蠢能”加入到“人工智能”中。麻省理工学院的罗闻全(Andrew Lo)教授认为在金融模型中加入“人工蠢能”可以更好地帮助金融模型进化。

1992年的一期《经济学人》(Economist)杂志上刊登了题为《人工蠢能》的文章,认为该计算机之所以能获得勒布纳奖,是因为它模仿了人类打字的错误。另有一台计算机假装自己是一个偏执、孤独的7岁男孩,也获得了高分。一些游戏开发者也坦言,他们必须在“人工蠢能”和“人工智能”之间取得平衡,以使机器感觉像人一样。

约翰·塞尔(John Searle)在1980年提出的中文屋论证(Chinese Room Argument)就是想说明一个问题,程序不能理解它所使用的符号,进一步说,如果这些符号对机器没有意义,那么怎么能够说机器是在思考呢?

中文屋论证是一个思维实验,最早出现于1980年美国哲学家约翰·塞尔发表在《行为与脑科学》(The Behavioral and Brain Sciences)的文章《思想、大脑和程序》(Minds,Brains,and Programs)中,中文屋论证已经成为近代哲学中最著名的论点之一。在这篇文章中,约翰·塞尔想象自己独自一人在一个房间里,手头有一个计算机程序能够遵循指令打印出汉字并将之从门缝里递出来。塞尔对汉语一窍不通,然而,通过像计算机一样依照程序要求,通过操作符号和数字,他能够把恰当的汉字字符串从门下送出去,这使得外面的人误以为房间里有一个会说汉语的人。BBC在节目《寻找人工智能》(The Hunt for AI)中重现了中文屋这一情景。

图3-3所示为中文屋剧照。

图3-3 中文屋剧照

中文屋论证的狭隘推论是,数字计算机程序可能看上去能够理解语言,但并不能真正理解语言的含义,因此,图灵测试是不充分的。约翰·塞尔认为,思维实验强调了这样一个事实,即计算机仅仅使用语法规则来操纵符号字符串,而对字符的意义和语义没有丝毫理解。

这一论证的更广泛推论驳斥了人类的思维是类似计算机的计算系统或信息处理系统的观点,认为思维必须是生物过程的结果,计算机最多只能模拟这些生物过程。中文屋论证对语义学、语言和心智哲学、意识理论、计算机科学和认知科学都具有重大意义。

尽管中文屋论证自发布以来就争议不断,但学术界至今尚未对该论证的合理性做出最终判断和共识。虽然争论仍在继续,但人工智能和自然语言处理方面的科研工作并未停滞,关于意识本质的猜想在很多学科中仍旧是一个研讨方向。

3.2.3 智能的测量

弗朗西斯·高尔顿(Francis Galton)是第一个尝试测量智力的人,他认为智力是感官敏锐的一种功能。1888年,弗朗西斯·高尔顿建立了一个“人体测量实验室”,利用视觉灵敏度、听觉准确度和呼吸能力等感官辨别能力来评估智力水平。

心理学家詹姆斯·麦基恩·卡特尔(James McKeen Cattell)创造了“心理测试”(Mental Tests)这个术语来指代高尔顿测量。在经历了一段时间的研究之后,1901年,詹姆斯·麦基恩·卡特尔发现感官辨别能力和智力表现(学业成绩)之间没有关系,于是普遍放弃了用弗朗西斯·高尔顿测量来衡量智力的方法。

阿尔弗雷德·比奈(Alfred Binet)开始了他的智力尺度研究。当时为了解决弱智儿童的特殊教育问题,需要设计一种方法识别弱智儿童。因此,阿尔弗雷德·比奈与西奥多·西蒙(Theodore Simon)合作研究出一套量表,用以区分学习迟缓的儿童与那些能够跟上教学水平的儿童。与弗朗西斯·高尔顿使用的感官辨别不同,他们认为儿童的智力是通过理解、判断、推理和创造的练习来评估的。

多元智能理论(Theory of Multiple Intelligences)将人类智能区分为特定的“模式”,而不是将智能视为由单一的一般能力所支配。霍华德·加德纳(Howard Gardner)在1983年出版的《思维框架:多元智能理论》(Frames of Mind: The Theory of Multiple Intelligence)一书中提出了这一模型。

霍华德·加德纳(Howard Gardner)提出了他认为符合这些标准的8种智能:语言(Verbal/Linguistic)、数理逻辑(Logical/Mathematical)、空间(Visual/Spatial)、肢体动觉(Bodily/Kinesthetic)、音乐(Musical/Rhythmic)、人际(Inter-personal/Social)、内省(Intra-personal/Introspective)、自然(Naturalist)。

语言智能高的人在词汇和语言方面表现出很强的能力。数理逻辑智能与逻辑、抽象、推理、数字和批判性思维有关。空间智能是指处理空间判断和用心灵的眼睛视觉化的能力。肢体动觉智能是指控制一个人的身体动作和熟练地处理物体的能力。音乐智能是对声音、节奏、音调和音乐的敏感性方面的能力。人际智能是指对他人的情绪、感觉、性情、动机具有敏感性,并能够作为团队的一部分与他人进行合作的能力。内省智能是指意识到自己内在情绪、意向、动机、脾气和欲求,以及自律、自知和自尊的能力。自然智能是指识别动、植物的和自然界中其他事物的能力。

多元智能理论对人工智能产生了很大的影响。随着神经网络的发展,通过模仿人脑的这8种智能,人工智能中对这些多重智能的认识可能会不断发展。一些人工智能公司认为构建这些智能可能是发展人工智能的很重要的一步。

人工智能出现之前,人们就开始梦想着有与人能够对弈的机器。国际象棋等这样的棋局游戏一直被看作人类智能的特征,下棋之所以好,是因为智力高,歌德(Goethe)也曾写道,国际象棋是人类智慧的试金石。因此,产生了一个这样的逻辑,如果机器可以在棋局上打败人类,那么它就具备了人类智能,就能够了解人类的认知。

18世纪末,一台被称为“土耳其人”(Turk)的国际象棋机器是当时的一个传奇。木头雕刻的小人下棋水平很高,据说它击败了拿破仑·巴拿马(Napoleon Bonaparte)和本杰明·富兰克林(Benjamin Franklin)。1854年,它在一场火灾中被毁。后来被证明,“土耳其人”是通过桌下隐藏的机关及内部藏有一人工作的,是一个彻头彻尾的骗局。

百年后,在计算机发明之前,艾伦·图灵就编写了一个国际象棋的程序,自己充当CPU的角色,并在“纸带计算机”上运行了这个算法。克劳德·艾尔伍德·香农(Claude Elwood Shannon)也认为国际象棋是一个非常好的计算机测试平台,因为他认为,下棋需要一定的规则,涉及赋值,需要评估,并且涉及搜索算法。以至于在计算机诞生的那段时间中,研究如何让机器下棋是一个前沿性的课题。诺伯特·维纳(Norbert Wiener)在其《控制论》(Cybernetics)中也曾对机器下棋有过这样的评论,能够下国际象棋的机器所具备的能力,是否代表机器和心智之间的根本区别。

深蓝几经周折,最终战胜了国际象棋世界冠军加里·卡斯帕罗夫(Garry Kasparov)。尽管人工智能的研究人员无比兴奋,将该事件认为是技术发展史上的里程碑,加里·卡斯帕罗夫却认为深蓝的那种所谓的智能方式,与可编程闹钟的工作方式没有区别。因为它不是一台具有人类创造力、能像人类那样思考的机器,它能做的就是每秒评估约两亿个落子可能性并利用强大的计算能力暴力求解。

几十年来,大脑神经网络的详细地图是人工智能研究人员的彼岸,他们期待能够从中找出大脑内神经元之间的联系,从而知道人脑的工作机制。果蝇是生物学等学科中理想的实验对象,人工智能等领域的学者对果蝇研究得如火如荼。2018年,在《自然》(Nature)上刊登了一篇《三维图像显示果蝇大脑中隐藏的神经元》(3DImage Reveals Hidden Neurons in Fruit-Fly Brain),科学家已经制作了果蝇大脑的3D图像,它是如此详细,以至于研究人员可以用来追踪整个器官的神经元之间的联系。2019年,麻省理工学院和霍华德·休斯医学研究所(Howard Hughes Medical Institute)的科学家们在三天之内成功对果蝇的完整大脑进行了纳米级清晰度成像的研究成果登上了《科学》(Science)杂志封面。

约翰·麦卡锡称国际象棋是“人工智能的果蝇”。而与艾伦·图灵共同参与破解密码的唐纳德·米基(Donald Michie)认为,下棋的精彩在于对抗及事后精彩的回顾与总结,机器让这些不复存在,因为机器是通过强大的搜索而不是精彩的谋略取胜的。

3.2.4 强/弱人工智能

1980年,约翰·塞尔在他著名的“中文屋”思维实验中探讨了关于强人工智能(Strong AI)的界定问题,他认为不能与人一样理解词语含义的人工智能不能被称为强人工智能。暂且不提中文屋论证结论本身的争议,单就从这个界定本身来看,也仅仅是从自然语言理解角度出发,并不能对强人工智能和弱人工智能进行完备的定义或说明。

强人工智能认为,创造像人一样的具备思考能力的机器是很有可能的,机器不但可以理解信息,还能拥有意识。但是,这又回到了前文所讨论的内容上,人类连自己的大脑、意识等都没有弄清楚,就要让机器达到与人类一样的水平,实现这样的目标,可能应该比科幻小说还难吧,因为,这一切都已经超出了人的认知范围。这就好比2世纪的医生盖伦(Galen),钟情于大脑内那些充满液体的孔洞一般。所以,要想实现强人工智能,至少还有很长的路要走。

维基百科给出了强弱人工智能的界定,认为针对某一特定任务的人工智能是弱人工智能(Weak AI),而不局限于特定任务而开发的人工智能是强人工智能。按照这个界定,现有的很多人工智能相关产品,如苹果的人工智能助手Siri,都应该划分到弱人工智能类别,因为它们往往只能针对预先设定好的既定套路进行应答和内容检索。也就是,弱人工智能只要求机器具有某些“智能”行为。

上述的两个定义其实都有些差强人意。如果想要分辨强弱人工智能,就需要先理解什么是框架问题(Frame Problem),它是由人工智能命名者约翰·麦卡锡和帕特·海思(Pat Hayes)在1969年发表的论文《从人工智能的角度来看一些哲学问题》(Some Philosophical Problems From the Standpoint of Artificial Intelligence)中提出的。

框架问题指的是“从所有可能事项中选出和即将解决的任务相关的事项是极为困难的”这一问题。该问题其后也被认为是人工智能研究中的最大难关。哲学家和认知科学家丹尼尔·丹尼特(Daniel Clement Dennett)对框架问题给出了更形象的解说。假设有搭载了人工智能的机器人A替代人类进行排爆工作,它需要从被安放了危险品的房间中取出一幅珍贵的画作。机器人A进入房间,将放置了画作的推车推出来,可惜的是,危险品就安置在推车上,机器人A只想着取出画作,没有对危险品的位置进行判定,任务失败。人们吸取经验,制作了机器人B,它能够思考所有可能的事项,但它在进入房间后,就陷入了杞人忧天式的思维迷障,不断提出一个又一个可能性。例如,推动推车时,吊棚会不会脱落、灯会不会停电、墙壁会不会破个洞、墙纸会不会掉色、推车上有没有危险品等。机器人B需要尽可能地从所有与任务相关的事项中思考出所有潜在的危险性,但这显然是不现实的,于是在它正想着的时候,倒计时时间到了,任务失败。

人们又想,是不是只考虑和危险品与画作相关的东西就可以?但事实上,光是排除墙壁、天棚、地板、电线等能探测到的事物与目标物品的相关性也需要大量的计算时间,更不用说还有“连锁反应”的可能性。

像这样无论采用哪种方法,都需要在解决问题的过程中,对不断产生的事项进行思考的问题,被称为“框架问题”。像是针对下象棋、围棋,组装机械等预先设定好任务内容的人工智能,当然不会遇到框架问题,这类人工智能被称为弱人工智能或狭义人工智能(Narrow AI),已经被应用在很多现实场景之中。但是可能面临复杂问题或复合场景的人工智能就不能忽视框架问题的存在。

另外,框架问题也不是说只有在人工智能上才会发生,人类亦然。当面对预料之外的事故发生时,多数人类也会像机器人A一样出现思维死角;当被突然带到陌生环境茫然无措时,人们也会像机器人B一样脑中产生无数猜想。

框架问题很难从根本上去解决,但是就像拆弹专家在最后两根导线面前总会做出抉择,面对未知人类会做出行动去尝试,面对陌生人类也会迈开脚步勇于探索,现今的人类科技文明就是在无数次的勇敢尝试、开拓探索中一步一步铸就而成,某种意义上,人类不断地打破了框架问题的束缚。而在正在到来的大数据、物联网、人工智能时代,让拥有庞大信息基础和算力支持的人工智能也像人类一般打破框架,自主解决问题,成就强人工智能,便是今后人工智能和其相关领域的一个重要研究方向和目标。

3.2.5 奇点

奇点(Singularity),有时也称为技术奇点,这个思想最早是由约翰·冯·诺依曼提出的。他认为技术的加速进步和人类生活的变化说明人类正在接近自身种族上某种重大奇点,一旦超过了这个奇点,人类的很多事物就难以为继了[3]

也就是说,奇点就是一个机器智能与人类智能交叉的时点,一旦过了这个时点,人工智能将超过人类智能,而且,人工智能还会自我完善并不断向前发展。一种观点认为,奇点到来的时间是2045年。

雷·库兹韦尔(Ray Kurzweil)的《奇点临近》(The Singularity Is Near: When Humans Transcend Biology)描述了一个人工智能技术指数级增长的未来世界,他的根据就是摩尔定律(Moore’s Law)。奇点理论的提出在一定程度上加深了人们对未来的担心。