首页 » 人工智能:李开复谈AI如何重塑个人、商业与社会的未来图谱 » 人工智能:李开复谈AI如何重塑个人、商业与社会的未来图谱全文在线阅读

《人工智能:李开复谈AI如何重塑个人、商业与社会的未来图谱》第三章 人机大战:AI真的会挑战人类?

关灯直达底部

Alpha Go带来的警示是:如果计算机可以在两年内实现大多数人预测要花20年或更长时间才能完成的进步,那么,还有哪些突破会以远超常人预期的速度来临?这些突破会不会超出我们对人工智能的想象,颠覆人类预想中的未来?我们已为这些即将到来的技术突破做好准备了吗?

Alpha Go带给人类的启示究竟是什么?

2016年3月,李世石与谷歌Alpha Go在围棋棋盘上斗智斗勇、激战正酣的时候,我也亲身参与了新浪体育等媒体主办的现场直播。当时,我与棋圣聂卫平九段一起出任讲解嘉宾,直播了李世石与Alpha Go的第五盘棋赛。围棋专家如聂卫平九段的评论视角,显然和我这个计算机科学博士的视角大不相同。但有一点是相通的,那就是绝大多数围棋界人士和人工智能界的科研人员此前都没想到,围棋程序会在如此短的时间内取得质的突破。

记得我曾在接受媒体采访时说过:“Alpha Go真的让我很震惊。如果你是两年前问我计算机何时能战胜围棋世界冠军,我那时的答案大概会是‘20年后’。可计算机在两年内就做到了我认为需要20年才能做到的事,这样的速度真的让人震撼。”

Alpha Go横空出世之前,围棋界的观点也大致相同。因为国际象棋与围棋的复杂度相差甚远,1997年IBM深蓝在国际象棋棋盘上战胜人类棋王的故事并不足以让围棋高手信服。而且,这么多年来,围棋AI程序的研发一直举步维艰。早期基于规则的围棋程序,比如中山大学陈志行教授20世纪90年代研发的“手谈”,基本上只能和围棋初学者过招。直到2006年后,随着蒙特卡洛搜索算法在围棋对弈软件中的应用,Mo Go、Zen、Crazy Stone等程序的棋力才得到了突飞猛进的提高,在国际对弈平台KGS上,2006年到2012年,主流围棋对弈软件的棋力从业余二段猛升到业余五段甚至业余六段56,但也就此停滞不前。Alpha Go出现前,围棋界专家对围棋对弈软件棋力的评估基本比较一致,大多认为最好的计算机程序已可以和业余高手过招,但和职业选手之间,还是有着本质的差别。

在今天的围棋界,业余高手和职业高手之间存在2子以上的明显差距,通常,这个差距是职业选手从童年开始,用10年以上的时间刻苦训练得来的,业余选手极难弥补。另一方面,在计算机科学界,懂得蒙特卡洛搜索算法原理的人都知道,这种算法主要是利用抽样统计来提高搜索效率,单用此算法确实难有提高空间。这是Alpha Go出现前,围棋界和计算机科学界两方面都不敢奢望人机大战即将到来的根本原因。

深度学习改变了一切。

使用深度学习并结合蒙特卡洛搜索的Alpha Go已注定被写入历史。Alpha Go问世的第一年内,其实进入大家视野的是三个版本:5︰0击败樊麾的内测版本,4︰1击败李世石的版本,以“Master”(大师)网名60︰0快棋挑落中日韩高手的版本。三个版本演进脉络明显,每次迭代都有重大升级。最后这个网名为“Master”的版本也基本是2017年Alpha Go挑战柯洁的一个“预览版”。

从围棋角度说,Alpha Go最震撼的是计算机在人类传统认为极其玄妙的、电脑无法掌握的“大局观”上突飞猛进,远远将人类选手甩在身后。电脑计算“大局观”的方式,和人类培养“大局观”的思路,有根本的差别。人类不可能在这方面赶上电脑。和樊麾对局的棋谱基本上还看不出Alpha Go的大局观有多强,和李世石对局就下出了聂卫平赞不绝口的五路肩冲,到了Master的60局,大局观体现在两个地方:

第一,自始至终对局势的把握,比如第60局古力用Alpha Go的思路对付Alpha Go,把中央撑得很满,但Alpha Go不紧不慢,总是恰到好处地保持胜势。

第二,Alpha Go已经深刻影响人类对布局的思考,大飞守角之类的变化迅速被人类棋手模仿,这和当年深蓝问世后,国际象棋的布局革命是一样的。

基于Alpha Go的思路,其他围棋软件的水平也突飞猛进。仅2017年年初就有日本研发的Deep Zen Go和腾讯人工智能实验室开发的“绝艺”达到了人类九段或以上的水平。腾讯“绝艺”不仅面对人类高手保持了绝对优势,还战胜了Alpha Go以外的各路围棋软件,取得了2017年UEC杯计算机围棋大赛的冠军。

以后AI和AI之间的竞赛,应该会不断促进AI提高。人类虽望尘莫及,但可以不断从AI中学习新的思想。

从人工智能技术的角度说,Alpha Go用的是AI领域应用非常普遍的算法:深度学习、蒙特卡洛算法、增强学习等。可以说,机器视觉相关的深度学习技术,包含环境—决策—反馈的智能系统,里面都有Alpha Go的影子。当然,直接的代码实现层面,肯定没有复制、粘贴这样直接借用的关系,因为Alpha Go的深度学习模型毕竟是围绕围棋的特征建立的。

那么,当人机大战烟尘散尽,公众的热情回归理性时,Alpha Go究竟为我们人类带来了什么?Alpha Go带来的,仅仅是棋盘上的一张张棋谱,还是《自然》杂志上那篇划时代的论文57?是公众对人工智能的重新认知,还是人类与机器命运的关键转折点?

我觉得,Alpha Go带给人类的,更多是一种对未来的警示:如果计算机可以在两年内实现大多数人此前预测要花20年或更长时间才能完成的进步,那么,还有哪些突破会以远超常人预期的速度来临?这些突破会不会超出我们对人工智能的想象,颠覆人类预想中的未来?我们已为这些即将到来的技术突破做好准备了吗?

无论是专业人士还是普通公众,Alpha Go的出现给每个人提供了一个最好的理由,让我们有机会重新思考:到底什么是人工智能?人工智能之于人类的意义是什么?人工智能与未来人类的关系到底会怎样?人工智能真的会在未来挑战人类吗?

Deep Mind:会打游戏的人工智能

站在Alpha Go背后的,是一个名叫Deep Mind的团队。这是谷歌公司于2014年收购的英国人工智能团队。在所有优秀的人工智能技术团队中,Deep Mind无疑是最有潜力之一的。不得不承认,他们是一个真正有梦想也真正关注人类未来的技术团队。

Deep Mind的创始人戴密斯·哈萨比斯(Demis Hassabis)从小就是一个神童,在棋类游戏中展示出了非凡的天分。哈萨比斯13岁时就成为国际象棋大师,在当年的国际象棋世界等级分排名中,哈萨比斯位列所有14岁以下选手的第2位,仅次于后来名声大噪的世界最强女棋手朱迪特·波尔加(Judit Polgár,小波尔加)。1997年,哈萨比斯从剑桥大学计算机科学系毕业。1998年,22岁的哈萨比斯创立了Elixir Studios公司,专注于开发电脑游戏。2005年,哈萨比斯返回校园,在伦敦大学攻读了认知神经科学的博士学位。2010年,哈萨比斯在伦敦创建了人工智能技术公司Deep Mind。直到2014年谷歌以4亿英镑收购Deep Mind时,哈萨比斯的团队还基本不为普通公众所知。

2015年年初,Deep Mind第一次真正进入公众视角,是靠一个基于深度学习和增强学习技术驱动的,能自己学习如何打街机游戏的AI程序。显然,国际象棋大师和电脑游戏设计、开发的背景,为哈萨比斯的人工智能之路,奠定了一个不同寻常的基础。Deep Mind所研发的深度学习、增强学习等技术,在医药、金融、自动控制等众多领域有着广泛的应用前景,但这些行业应用离普通公众较远,Deep Mind的先进技术难以被大多数人了解。哈萨比斯和他的团队非常聪明地选择用大众最熟悉的电子游戏,来作为Deep Mind核心科技的第一块“试金石”。

Deep Mind选取了数十款当年在雅达利(Atari)街机上非常流行的小游戏,然后用人工智能程序尝试“理解”游戏当前画面,控制游戏操作接口,并根据每次游戏的输赢情况,不断调整策略,自主学习游戏技巧。2015年2月向公众展示时,Deep Mind的人工智能程序在大约四分之三的雅达利街机游戏中,达到或超过了人类高手的水平。类似技术随后被Deep Mind团队用于人工智能围棋软件,并由此诞生了震惊世界的Alpha Go。

Deep Mind的目标显然不是游戏本身。正如哈萨比斯在诸多场合所说过的那样,Deep Mind希望利用在游戏中证明过的技术,帮助人类解决计算机辅助医疗等更为复杂的问题。但游戏与Deep Mind的结缘,确实为这个独具特色的人工智能团队贴上了鲜明的标签。

历史总是充满巧合。20世纪70年代,初出茅庐的史蒂夫·乔布斯找到的第一份工作就是在雅达利游戏机公司打工。为了开发雅达利公司当时的主打街机产品“Pong”,乔布斯还请来了好朋友史蒂夫·沃兹尼亚克一起解决技术问题。40多年前,苹果公司的两位创始人在雅达利游戏机上研发的产品,成为40多年后哈萨比斯的Deep Mind团队磨炼人工智能算法的实验平台。在Deep Mind软件自主学习并熟练掌握的街机游戏名单上,“Pong”的名字赫然在列。

从乔布斯到哈萨比斯,从雅达利街机到苹果电脑再到人工智能,科技发展的进程中,每一个领军人物的每一次技术突破,都可能成为后续进展的铺垫与序曲。从早期的西洋跳棋程序,到能下国际象棋的IBM深蓝,再到Alpha Go,每一盘棋的每一场输赢,不也是人工智能技术从萌芽到发展再到成熟的最好见证吗?

Alpha Go的故事尚未完结,Deep Mind就将目光投向了更有挑战的游戏领域。2016年11月,在暴雪公司的Blizz Con大会上,Deep Mind正式宣布牵手暴雪,基于《星际争霸》游戏进行人工智能研究58。与围棋不同,《星际争霸》游戏的参与者需要在全局尚未明朗的情况下,只依据少数信息,猜测对手可能的战略、战术布置,并有针对性地设计自己的游戏策略。从技术上说,《星际争霸》的挑战要高于围棋,打赢《星际争霸》所需的决策技术,也许更接近人类在日常工作、生活中经常使用的思考与决策方法。从这个意义上说,Deep Mind正向着更高级智慧的方向迈进。

游戏既是Deep Mind团队最好的市场和公关手段,同时也帮助Deep Mind在人工智能领域迅速建立起不同寻常的技术优势。借助在游戏领域取得的经验和方法,Deep Mind已经开始用人工智能技术帮助谷歌的数据中心合理调度、分配电力资源,达到省电的目标。此外,Deep Mind与牛津大学合作开发了根据人类说话时的口型猜测说话内容的唇读技术Lip Net,与英国国家医疗服务体系(NHS)合作推出了综合性的医疗辅助应用Streams,与眼科医院合作帮助眼部疾病诊断……哈萨比斯说:“我坚信Deep Mind正在从事的研究对人类的未来至关重要,而且这值得我们做出一些牺牲。”59

从下象棋、开发游戏的天才少年,到利用人工智能技术造福人类的计算机科学家,哈萨比斯的梦想正在实现。一个会玩游戏的人工智能和一个会帮助医生诊疗疾病的人工智能,它们之间的技术,竟有如此之多的共同点——技术的神奇莫过于此。

德州扑克:开启新世界的大门?

我自己很喜欢打德州扑克,经常参加德州扑克比赛。在牌桌上,自我感觉是一名稳健型牌手,保持了还算不错的胜率。

围棋是一项讲究计算和形势判断能力的游戏。而德州扑克就与此不同,它讲究的是在多人博弈中,避免人性贪婪、恋战等弱点,并将科学的概率统计与灵活的实战策略很好地配合起来。人工智能已经在围棋领域取得历史性的突破,那么,在德州扑克的世界里,人工智能的表现又如何呢?

如前所述,在围棋、象棋等游戏中,人工智能可以和人类选手一样,在每一步决策前获得棋盘上的全部信息。这种限定规则,随时可以获取全部信息的游戏,我们可以称之为“完整信息的博弈游戏”。而在《星际争霸》或德州扑克中,人工智能和人类选手通常无法在特定时刻获得有关游戏的全部信息,比如,在德州扑克中,你无法知道对手的底牌是什么,你也不知道发牌员发出的下一张牌是什么,在这类“不完整信息的博弈游戏”里,人工智能必须像人一样,根据经验或概率统计知识,猜测对手底牌和下一张牌的可能性,然后再制定自己的应对策略。

显然,对于实现人工智能算法而言,不完整信息的博弈游戏在技术难度上要大得多。就在哈萨比斯的团队借助《星际争霸》磨炼下一代人工智能算法的同时,卡内基-梅隆大学的研究者选择了德州扑克作为他们攻克此类问题的出发点。

来自卡内基-梅隆大学的托马斯·桑德霍姆(Tuomas Sandholm)教授与他的博士生诺姆·布朗(Noam Brown)最早开发了一款名为Claudico的德州扑克程序。Claudico是一个拉丁文单词,对应于德州扑克中的一种特别的策略——平跟(limping),指的是翻牌之前,选择跟大盲注而不加注的策略。平跟这种策略,在人类德州扑克比赛中,使用的频率并不是很高,但据托马斯·桑德霍姆介绍,计算机通过学习发现,使用这种策略有许多好处。值得注意的是,托马斯·桑德霍姆的团队在研发德州扑克程序时,主要不是向人类职业选手学习打牌技巧,而是让计算机通过自我训练,自己寻找最好的方法。

Claudico从2015年4月到5月,在匹兹堡的河流赌场与人类选手同台竞技,在无限制投注的一对一比赛中,轮流与包括当时世界排名第一的道格·波尔克(Doug Polk)在内的四名人类顶尖高手过招。那次比赛历时13天,共计2万局牌。为降低运气成分,比赛使用的是重复牌局的玩法,即在不同房间的两张牌桌上使用完全相同但人机对调的两副牌。这次比赛,AI似乎还很稚嫩。比赛进行过半,人类就领先Claudico大约46万个筹码。最终,人类选手以大约73万个筹码的优势赢得了比赛。

Claudico在2015年初出茅庐的这次比赛以失利告终。这个剧情,有些像1996年IBM深蓝输给卡斯帕罗夫的那一次。与Claudico交过手的道格·波尔克说,Claudico与人类的打牌方式非常不同,“人类选手的下注数量可能是彩池的一半或四分之三,而Claudico有时只吝啬地以彩池的十分之一来下注,有时则以彩池的十余倍来下注。人类可不会用19000美元的下注去博取区区700美元的彩池”60。

2015年的失利并没有让托马斯·桑德霍姆教授灰心。2017年1月,教授带着一个名为Libratus的新版本德州扑克程序卷土重来,再战匹兹堡的河流赌场。像上次一样,新版本程序的名字Libratus也是一个拉丁文单词,对应于程序使用的均衡(balanced)策略——这一策略源自数学家纳什定义的一种完美博弈的模型。

托马斯·桑德霍姆教授解释说:“在有两名玩家的零和游戏中,如果有一人不遵从纳什均衡的策略,那么两名玩家获得的收益都将受损,但我们的系统不会这样。在此类游戏中,以纳什均衡的方式思考是最安全的。遵从规律的玩家将合理地获得收益,同时在任何地方都不会被对手利用。”61

这一次,比赛规则和2015年那次基本一致,比赛时间从13天延长到20天,仍基于无限制投注的规则,Libratus轮流与人类高手一对一比赛。人类团队计算总分,与Libratus的总得分比较胜负关系。不同的是,升级后的Libratus程序就像围棋棋盘上威风八面的Alpha Go一样,一上来就对四名人类高手形成了全面压制。AI从比赛第一天就一路领先,第6天领先优势虽一度缩小,但从第7天后,人类就再也没有机会缩小巨大的差距了。最终,Libratus领先的筹码数量达到惊人的176.6万美元!在德州扑克领域的人机大战中,人工智能完美胜出!

连续参加了2015年和2017年两次人机大战的人类德州扑克高手Dong Kim说,他在这次比赛全程充满挫败感——其实他已经是四位人类高手里面,对战成绩最好的那个了。两年前曾经击败计算机的Dong Kim在2017年的比赛刚刚过半时就直言:“人类已经没有真正获胜的机会。”62

那么,从Libratus大败人类高手的德州扑克对局中,我们能看到哪些人工智能的发展规律呢?

根据我对Libratus对局的观察,Libratus所使用技术策略非常成功。AI利用增强学习技术,从自我对局中学习最优的扑克玩法,而避免从人类的既定模式中学习经验,这是非常重要的一点。当然,目前Libratus的算法还只适用于无限制投注的一对一比赛。如果将比赛扩展到更常见的多人制比赛,Libratus面对的挑战会更大一些,还需要进行策略上的升级与调整。

计算机在德州扑克领域取得的成功,让包括我在内的人工智能研究者都非常振奋,这主要有以下两个原因:

·和围棋不同,在德州扑克的牌桌上,人工智能与人类选手一样,都只能看到部分信息。这种情况下,没有所谓的唯一的、最佳的打法。

·Libratus基本是从零开始学习德州扑克策略,且主要依靠自我对局来学习。这对利用人工智能解决更为广泛的现实问题意义重大。

那些担心人工智能威胁的悲观主义者可能会从Libratus的胜利中看到更为现实的风险。比如,机器曾在比赛中用大赌注和新策略吓退、蒙骗过最精明的人类牌手,这些方法也许会被精明的商人用于人类的商业谈判。一旦这些人工智能算法被犯罪组织利用,是否会出现灾难性的后果?担心出现超人工智能的人还会进一步追问,一旦机器有了自我意识,机器是否会像德州扑克牌桌上的AI算法一样,用各种策略诱骗、恐吓人类呢?

乐观主义者则更多地看到Libratus的算法本身对于人工智能帮助人类解决实际问题的巨大价值。如果机器能够在自我学习中不断完善对于一种特定策略的掌握程度,能够在不熟悉或缺乏全部信息的环境中不断试错并积累经验,那么,机器显然可以胜任更多的人类工作。比如,机器可以帮助人类制订更为复杂的医疗计划,可以在人类感到难以决策的领域,比如商业活动、城市规划、经济调控甚至战争指挥等,充当人类的“参谋”。也许,未来每个人都可以依靠强大的计算机和人工智能程序,成为运筹帷幄、决胜千里的战略家。

AI小百科 弱人工智能、强人工智能和超人工智能

我们谈到了人类对人工智能的某种担心,很多人最想知道的是:今天的人工智能到底有多“聪明”?人工智能到底会发展到什么程度?什么样的人工智能会超出人类的控制范围,甚至给人类带来威胁?

要回答这样的问题,我们也许需要先廓清一下有关不同层级人工智能的几个基本定义。

弱人工智能(Weak AI)

也称限制领域人工智能(Narrow AI)或应用型人工智能(Applied AI),指的是专注于且只能解决特定领域问题的人工智能。毫无疑问,今天我们看到的所有人工智能算法和应用都属于弱人工智能的范畴。

Alpha Go是弱人工智能的一个最好实例。Alpha Go在围棋领域超越了人类最顶尖选手,笑傲江湖。但Alpha Go的能力也仅止于围棋(或类似的博弈领域),下棋时,如果没有人类的帮助(还记得Alpha Go与李世石比赛时,帮机器摆棋的黄士杰博士吗?),Alpha Go连从棋盒里拿出棋子并置于棋盘之上的能力都没有,更别提下棋前向对手行礼、下棋后一起复盘等围棋礼仪 了。

一般而言,限于弱人工智能在功能上的局限性,人们更愿意将弱人工智能看成是人类的工具,而不会将弱人工智能视为威胁。

但少数评论者依然认为,即便是弱人工智能,如果管理、应对不善,也会带来致命的风险。比如,发生在2010年5月6日的美股市场的“闪跌”(Flash Crash)事件,其起因就混合了人类交易员的操作失误和自动交易算法的内在风险,而当时已经大量存在的,由计算机程序控制的自动高频交易,则被一些研究者认为是放大市场错误,并最终造成股市瞬时暴跌的帮凶。除了金融市场外,能源领域特别是核能领域里使用的弱人工智能算法如果设计和监管不当,也有可能为人类带来灾难。类似地,自动驾驶汽车上使用的人工智能算法显然也存在威胁人类生命安全的隐患。

但无论如何,弱人工智能属于相对容易控制和管理的计算机程序。总体来说,弱人工智能并不比我们使用的其他新技术更为危险。设想一下,人类在用电时、开车时或者乘坐飞机时,不也要面对客观存在的风险因素吗?对于弱人工智能技术,人类现有的科研和工程管理、安全监管方面的经验,大多是适用的。一台可以自动控制汽车行驶的计算机和一台可以将重物吊起的起重机,二者都需要严格的质量控制流程与安全监管策略。自动驾驶程序中的错误可能导致车祸,起重机结构设计上的错误也可能导致起重机的倾覆,二者都会造成人员伤亡。

也就是说,弱人工智能在总体上只是一种技术工具,如果说弱人工智能存在风险,那也和人类已大规模使用的其他技术没有本质的不同。只要严格控制,严密监管,人类完全可以像使用其他工具那样,放心地使用今天的所有AI技术。

强人工智能(Strong AI)

强人工智能又称通用人工智能(Artificial general intelligence)或完全人工智能(Full AI),指的是可以胜任人类所有工作的人工智能。

人可以做什么,强人工智能就可以做什么。这种定义过于宽泛,缺乏一个量化的标准来评估什么样的计算机程序才是强人工智能。为此,不同的研究者提出了许多不同的建议。最为流行、被广为接受的标准是前面我们详细讨论过的图灵测试。但即便是图灵测试本身,也只是关注于计算机的行为和人类行为之间,从观察者角度而言的不可区分性,并没有提及计算机到底需要具备哪些具体的特质或能力,才能实现这种不可区分性。

一般认为,一个可以称得上强人工智能的程序,大概需要具备以下几方面的能力:

1)存在不确定因素时进行推理,使用策略,解决问题,制定决策的能 力;

2)知识表示的能力,包括常识性知识的表示能力;

3)规划能力;

4)学习能力;

5)使用自然语言进行交流沟通的能力;

6)将上述能力整合起来实现既定目标的能力。63

基于上面几种能力的描述,我们大概可以想象,一个具备强人工智能的计算机程序会表现出什么样的行为特征。一旦实现了符合这一描述的强人工智能,那我们几乎可以肯定地说,所有人类工作都可以由人工智能来取代。从乐观主义的角度讲,人类到时就可以坐享其成,让机器人为我们服务,每部机器人也许可以一对一地替换每个人类个体的具体工作,人类则获得完全意义上的自由,只负责享乐,不再需要劳动。

强人工智能的定义里,存在一个关键的争议性问题:强人工智能是否有必要具备人类的“意识”(Consciousness)。有些研究者认为,只有具备人类意识的人工智能才可以叫强人工智能。另一些研究者则说,强人工智能只需要具备胜任人类所有工作的能力就可以了,未必需要人类的意识。

有关意识的争议性话题极其复杂。本质上,这首先会牵扯出“人类的意识到底是什么”这样的难解问题,从而让讨论变得无的放矢。以人类今天对感情、自我认知、记忆、态度等概念的理解,类似的讨论会牵涉哲学、伦理学、人类学、社会学、神经科学、计算机科学等方方面面,短期内还看不出有完美解决这一问题的可能。

也就是说,一旦牵涉“意识”,强人工智能的定义和评估标准就会变得异常复杂。而人们对于强人工智能的担忧也主要来源于此。不难设想,一旦强人工智能程序具备人类的意识,那我们就必然需要像对待一个有健全人格的人那样对待一台机器。那时,人与机器的关系就绝非工具使用者与工具本身这么简单。拥有意识的机器会不会甘愿为人类服务?机器会不会因为某种共同诉求而联合起来站在人类的对立面?一旦拥有意识的强人工智能得以实现,这些问题将直接成为人类面临的现实挑战。

超人工智能(Superintelligence)

假设计算机程序通过不断发展,可以比世界上最聪明、最有天赋的人类还聪明,那么,由此产生的人工智能系统就可以被称为超人工智能。

牛津大学哲学家、未来学家尼克·波斯特洛姆(Nick Bostrom)在他的《超级智能》一书中,将超人工智能定义为“在科学创造力、智慧和社交能力等每一方面都比最强的人类大脑聪明很多的智能”64。显然,对今天的人来说,这是一种只存在于科幻电影中的想象场景。

与弱人工智能、强人工智能相比,超人工智能的定义最为模糊,因为没人知道,超越人类最高水平的智慧到底会表现为何种能力。如果说对于强人工智能,我们还存在从技术角度进行探讨的可能性的话,那么,对于超人工智能,今天的人类大多就只能从哲学或科幻的角度加以解析了。

首先,我们不知道强于人类的智慧形式将是怎样的一种存在。现在去谈论超人工智能和人类的关系,不仅仅是为时过早,而是根本不存在可以清晰界定的讨论对象。

其次,我们没有方法,也没有经验去预测超人工智能到底是一种不现实的幻想,还是一种在未来(不管这个未来是一百年还是一千年、一万年)必然会降临的结局。事实上,我们根本无法准确推断,到底计算机程序有没有能力达到这一目标。

显然,如果公众对人工智能会不会挑战、威胁人类有担忧的话,公众心目中所担心的那个人工智能,基本上属于这里所说的“强人工智能”和“超人工智能”。

我们到底该如何看待“强人工智能”和“超人工智能”的未来?它们会像Alpha Go那样,以远超我们预料的速度降临世间吗?

奇点来临?

未来学家和科幻作者喜欢用“奇点”(Singularity)来表示超人工智能到来的那个神秘时刻。

没有人知道奇点会不会到来,会在何时到来。

2015年年初,一篇名为《一个故意不通过图灵测试的人工智能》的翻译长文在微信朋友圈、微博和其他互联网媒体上悄然流传开来,绝大多数读过这篇文章的人都会经历一个从惊讶到惶恐再到忐忑不安的心路历程。这篇文章的作者是“Wait But Why”网站的创始人蒂姆·厄班(Tim Urban),文章原名为《AI革命:通向超人工智能之路》65。

蒂姆·厄班在这篇著名的长文中,基于一个显而易见的事实来讨论人类科技的发展规律:人类科技发展是越来越快的,呈现出不断加速的势头。

比如说,如果拿今天的人类生活与1750年前后进行比较,我们会发现,其间的变化之大几乎只能用“翻天覆地”来形容。假设我们利用时光机器把1750年的某个古人带到今天,他会看到什么?“金属铁壳在宽敞的公路上飞驰,和太平洋另一头的人聊天,看几千千米外正在进行的体育比赛,观看一场发生于半个世纪前的演唱会,从口袋里掏出一个黑色长方形工具把眼前发生的事情记录下来……”这一切足以把一个1750年的古人吓得魂飞魄散!

但如果我们从1750年再向前回溯250年,也就是回到1500年前后,这两个年代间的人类生活也许仍存在较大差异,但已很难用“翻天覆地”来形容了。再往前,也许就需要回溯数千年甚至上万年,我们才能找到足以让人目瞪口呆的科技代差。

如果整个人类大约6000年的文明史被浓缩到一天也就是24小时,我们看到的将是怎样一种图景?

·苏美尔人、古埃及人、古代中国人在凌晨时分先后发明了文字;

·20点前后,中国北宋的毕昇发明了活字印刷术;

·蒸汽机大约在22:30被欧洲人发明出来;

·23:15,人类学会了使用电力;

·23:43,人类发明了通用电子计算机;

·23:54,人类开始使用互联网;

·23:57,人类进入移动互联网时代;

·一天里的最后10秒钟,谷歌Alpha Go宣布人工智能时代的到来……

这就是技术发展在时间维度上的加速度趋势!拿围棋软件来说,围棋程序从初学者水平发展到业余五段左右的水平,用了20到30年的时间。本来我们以为人工智能跨越业余水平与职业水平之间的鸿沟需要再花20到30年,结果,短短四五年,我们就看到了Alpha Go横空出世。

加速度规律真的放之四海皆准吗?如果人工智能每一领域的发展都基本符合这样的规律,那10年后,30年后,50年后,这个世界会变成什么样?

蒂姆·厄班则首先分析了弱人工智能和强人工智能之间存在的巨大技术挑战,转而又指出,科技发展的加速度规律可以让强人工智能更早实现:“硬件的快速发展和软件的创新是同时发生的,强人工智能可能比我们预期的更早降临,因为:1)指数级增长的开端可能像蜗牛漫步,但是后期会跑得非常快;2)软件的发展可能看起来很缓慢,但是一次顿悟,就能永远改变进步的速度。”

然而,强人工智能一旦到来,人类就必须认真考虑自己的命运问题了,因为从强人工智能“进化”到超人工智能,对机器而言,也许只是几个小时的事情。因为一个可以像人一样学习各种知识的计算机,它的学习速度一定比人快无数倍,它的记忆力一定是过目不忘,它可以从互联网上接触到并牢牢记住的知识一定是这个世界上的全部知识。那么,一个有着和人一样思考水平的机器,同时有着比人快无数倍的思考速度以及几乎无限的记忆空间,这台机器在知识理解上能达到什么样的境界?这样的机器几乎比人类所有科学家都厉害!

蒂姆·厄班的推理足以让每个读者惊出一身冷汗:“一个人工智能系统花了几十年时间达到了人类脑残智能的水平,而当这个节点发生的时候,电脑对于世界的感知大概和一个4岁小孩一般;而在这节点后一个小时,电脑立马推导出了统一广义相对论和量子力学的物理学理论;而在这之后一个半小时,这个强人工智能变成了超人工智能,智能达到了普通人类的17万倍。”

也就是说,一个具备了人类水平认知能力和学习能力的机器,可以借助比人类强大得多的计算资源、网络资源甚至互联网知识库以及永不疲倦、不需要吃饭睡觉的特点,无休止地学习、迭代下去,并在令人吃惊的极短时间内,完成从强人工智能到超人工智能的跃迁!

那么,超人工智能出现之后呢?比人类聪明好几万倍的机器将会做些什么?机器是不是可以轻易发明足以制服所有人类的超级武器?机器必将超越人类成为这个地球的主宰?机器将把人类变成它们的奴隶或工具,还是会将人类圈养在动物园里供机器“参观”?那个时候,机器真的还需要我们人类吗?

逻辑上,我基本认可蒂姆·厄班有关强人工智能一旦出现,就可能迅速转变为超人工智能的判断。而且,一旦超人工智能出现,人类的命运是难以预料的,这就像美洲的原始土著根本无法预料科技先进的欧洲殖民者到底会对他们做些什么一样简单。

但是,蒂姆·厄班的理论有一个非常关键的前提条件,就是上述有关强人工智能和超人工智能发展的讨论是建立在人类科技总是以加速度形式跃进的基础上的。那么,这个前提条件真的在所有情形下都成立吗?

我觉得,一种更有可能出现的情况是:特定的科技如人工智能,在一段时间的加速发展后,会遇到某些难以逾越的技术瓶颈。

有关计算机芯片性能的摩尔定律(价格不变时,集成电路上可容纳的元器件数目每隔18到24个月便会增加一倍,性能也将提升一倍)就是一个技术发展遭遇瓶颈的很好例子。计算机芯片的处理速度,曾在1975年到2012年的数十年间保持稳定的增长趋势,却在2013年前后显著放缓。2015年,连提出摩尔定律的高登·摩尔(Gordon Moore)本人都说:“我猜我可以看见摩尔定律会在大约10年内失效,但这并不是一件令人吃惊的事。”66

正如原本受摩尔定律左右的芯片性能发展已遭遇技术瓶颈那样,人工智能在从弱人工智能发展到强人工智能的道路上,未必就是一帆风顺的。从技术角度说,弱人工智能与强人工智能之间的鸿沟可能远比我们目前所能想象的要大得多。而且,最重要的是,由于基础科学(如物理学和生物学)尚缺乏对人类智慧和意识的精确描述,从弱人工智能发展到强人工智能,其间有很大概率存在难以在短期内解决的技术难题。

如果蒂姆·厄班所预言的技术加速发展规律无法与人工智能的长期发展趋势相吻合,由这一规律推导出的,超人工智能在可见的近未来即将降临的结论也就难以成立了。

当然,这只是我个人的判断。今天,学者们对超人工智能何时到来的问题众说纷纭。悲观者认为技术加速发展的趋势无法改变,超越人类智能的机器将在不远的将来得以实现,那时的人类将面临生死存亡的重大考验。而乐观主义者则更愿意相信,人工智能在未来相当长的一个历史时期都只是人类的工具,很难突破超人工智能的门槛。

霍金的忧虑

担忧超人工智能,对人类未来持悲观态度的人不少。其中,理论物理学家、《时间简史》的作者霍金是最有影响的一个。早在谷歌Alpha Go在公众中掀起AI热潮之前,霍金就通过媒体告诉大家:“完全人工智能的研发可能意味着人类的末日。”67

作为地球上少数有能力用数学公式精确描述和推导宇宙运行奥秘的人之一,霍金的宇宙观和科技史观无疑是值得重视的。事实上,霍金并不否认,当代蓬勃发展的人工智能技术已经在许多行业发挥着至关重要的作用,但他所真正忧虑的,是机器与人在进化速度上的不对等性。霍金说:“人工智能可以在自身基础上进化,可以一直保持加速度的趋势,不断重新设计自己。而人类,我们的生物进化速度相当有限,无法与之竞争,终将被淘汰。”

此外,霍金同时还担心人工智能普及所导致的人类失业问题。霍金说:“工厂自动化已经让众多传统制造业工人失业,人工智能的兴起很有可能会让失业潮波及中产阶级,最后只给人类留下护理、创造和监督工作。”68

基本上,霍金的担忧还是建立在人工智能技术将以加速度的趋势不断增速发展的基础上。如果我们假设这一基础的正确性,那么,霍金的逻辑推论与我们之前谈到的“奇点”理论并没有本质的区别。反之,如果人工智能在未来的发展不一定永远遵循加速趋势,那么,霍金有关人类终将被淘汰的结论就未必成立。

特斯拉与Space X公司创始人,被誉为“钢铁侠”的埃隆·马斯克(Elon Musk)与霍金有大致相似的担忧。马斯克说:“我们必须非常小心人工智能。如果必须预测我们面临的最大现实威胁,恐怕就是人工智能了。”69

事实上,从行动上看,霍金和马斯克并不是简单的悲观主义者,他们在警告世人提防人工智能威胁的同时,也在积极行动,试图为人类找出应对未来潜在威胁的对策。马斯克说:“我越来越倾向于认为,也许在国家层面或国际层面,必须有一种规范的监管机制,来保证我们不会在这方面做任何蠢事。”

除了呼吁建立监管机制外,马斯克还与萨姆·奥尔特曼(Sam Altman)一起创立了非营利性质的科研公司Open AI。谈到创立Open AI的初衷,马斯克说:“为了保证一个美好的未来,我们最需要做什么?我们可以冷眼旁观,我们也可以鼓励立法监管,或者,我们还可以将那些特别关心如何用安全的、对人类有益的方式来开发AI的人合理地组织起来研发AI。”70

如果说这个世界上还有几家纯粹理想主义的公司的话,Open AI一定算一个。Open AI一面聚集了一批AI领域的顶尖高手,研发最前沿的AI技术(主要是强化学习和无监督学习技术),甚至探索实现强人工智能的可能性;一面反复强调自己的使命是研发“安全的”人工智能,通过实践来探寻将人工智能技术的潜在威胁降至最低的方法。

马斯克和奥尔特曼的Open AI看上去是在做一件自相矛盾的事情:既积极地研发人工智能甚至是强人工智能,又希望将人工智能关在道德或制度的“牢笼”里,让AI难以威胁人类。事实上,目前Open AI所开展的工作,和其他人工智能科研机构所做的并没有本质的不同。据说,Open AI的研究总监伊尔亚·苏茨克维(Ilya Sutskever)表示,Open AI最重要的目标,就是发表有影响力的文章71。或许,马斯克和奥尔特曼的意思是说,既然奇点来临无法避免,那不如积极投入,至少,当威胁来临时,我们对威胁本身的理解会更加深刻。

2017年年初,霍金和马斯克均表示,为了防止人工智能威胁人类,他们支持加州阿西洛马(Asilomar)会议通过的23条基本原则72。这23条基本原则涵盖了三个范畴:1)科研问题;2)伦理和价值观;3)长期问题。

阿西洛马23条基本原则像科幻大师阿西莫夫笔下著名的“机器人三定律”一样,从方法、特征、伦理、道德等多方面,限定未来的人工智能可以做什么,不可以做什么。例如,有关人工智能相关的伦理和价值观,其中几条原则是这样规定的:

·安全性:人工智能系统应当在整个生命周期内确保安全性,还要针对这项技术的可行性以及适用的领域进行验证。

·价值观一致性:需要确保高度自动化的人工智能系统在运行过程中秉承的目标和采取的行动,都符合人类的价值观。

·由人类控制:人类应当有权选择是否及如何由人工智能系统制定决策,以便完成人类选择的目标。

·非破坏性:通过控制高度先进的人工智能系统获得的权力,应当尊重和提升一个健康的社会赖以维继的社会和公民进程,而不是破坏这些进程。73

应当说,在担忧未来人工智能威胁的人中,霍金和马斯克还是一直抱有一种非常积极的态度的。他们一方面基于自己的逻辑判断,相信人类未来面临机器威胁的可能性非常大;另一方面又利用自己的影响力,积极采取行动,尽可能将人工智能置于安全、友好的界限内。从这个角度讲,霍金和马斯克至少比那些盲目的悲观主义者,或因未来的不确定性而丧失勇气的怯懦者强很多很多倍。

理智分析:人类离威胁还相当遥远

那么,我们到底该怎样看待“人工智能威胁论”呢?

《人工智能时代》的作者,计算机科学家、连续创业家、未来学家杰瑞·卡普兰(Jerry Kaplan)与我讨论这个问题的时候,他的观点是:

超人工智能诞生并威胁人类这件事发生的概率是非常小的。其实,我们现在做的只是在制造工具,以自动完成此前需要人类参与才能完成的工作任务。之所以会有“人工智能威胁论”的疑问,根本上是因为大众习惯于把人工智能人格化,这是问题的根源。74

这件事对于专业人士和对于大众的意义是不一样的。例如,大众总是担心无人驾驶汽车可能伤及人类的生命。在一些极端的例子里,无人驾驶汽车确实需要做出决定,是要撞向左边,伤及左边的行人呢,还是要撞向右边,伤及右边的行人。但无人驾驶汽车只是一套机器系统,它们并不会真正做出决策。它们只是根据对环境的感知,按照某种特定的原则和设计做出反应,而我们人类对于整套系统的感知和反馈模式拥有完全的控制权。如果它们做了什么不符合我们社会准则的事情,那一定是因为我们人类在设计它们时犯了错误。

我们所面对的,只不过是一系列工程设计上的问题。我们必须确保我们设计制造的产品和服务符合我们的愿望和预期。你知道,这件事与桥梁工程师们使用一整套质量保障方案来确保他们建造的桥梁不会坍塌并没有什么两样。我们有许多工程学上的原则,来指导我们测试一个系统,什么样的系统是合格的,什么样的系统是足够安全的,等等。在人工智能领域,我们同样需要这样的技术,因为人工智能十分强大,具有潜在的危险性。但这并不是因为智能机器会像人类一样思考,只是因为它们十分强大,我们必须小心使用它们。

“智能”经历了相当长时期的演进,从猿猴的智能,到人类的智能,再到人类制造的人工智能技术和智能机器。那些预测超级智能的人是按照这样一种演进趋势来思考问题的:

图32 关于智能演进的线性思考

但这种线性结构是有问题的,因为我们并没有一种简单的方式来对智能进行度量。这和测量体重或鞋子尺码很不一样。智能是一个非常定性的概念,它反映的是某个人成功解决某种特定问题的能力。例如,人们总是会问,如果人工智能的智商达到200,那会发生什么呀?可是,什么是人工智能的智商?实际上,智商在这里是一个被极度滥用了的概念。心理学家使用一种叫发展能力(Developmental Competence)的概念来评估人类。他们测试一个人解决算术、逻辑等问题的水平,然后将测试所得的分数除以这个人的年龄——这是智商的含义。如果某人解决此类特定问题的能力超出同龄人的平均水平,我们就说他的智商高。但是,该如何定义一部机器的智商呢?如何定义一部机器的年龄?机器可以用比人类快一百万倍的速度解决算术问题,那么,这些机器的智商是多少?这种说法其实并没有什么实际意义。

所以,问题首先在于,对智能的定义是非常主观的,这依赖于每个人自己的视角。这一点非常像我们对美的定义。你可以说某些人比其他人长得美,或者说一个人比另一些人更聪明,但希望把美或把智商的定义客观化、量化的想法是错误的。其次,关于智能的度量并不是线性的,而是一种多维度的度量。如果你用算术能力来评估,那机器已经非常聪明了。但你如何将机器纳入一个多维度的度量体系?让一部机器变得更聪明,这句话到底意味着什么?

也就是说,在今天这个弱人工智能的时代里,人类对于人工智能,或者什么是“智能”的认识本身就是缺乏深度的,我们也没有一个合适的、可操作的标准,来真正定义什么是强人工智能,什么是超人工智能。

在描述超人工智能以及未来机器对人类的威胁时,包括霍金、马斯克在内的许多人,都在有意无意地混淆不同领域的标准。人工智能可以在围棋棋盘上达到业余五段还是职业九段的水平,这很容易衡量,但人工智能可以在跨领域的任务上做到何种程度,目前我们还缺乏可操作的标准。例如,人工智能是否可以在围棋棋局中,根据人类对手的表情,推测对方的心理状态,并有针对性地制定战术策略,我们基本还没法评估这种层面的“智能”。如果仅根据人工智能在围棋这种限定范畴的技术能力上表现出来的进步速度推断超人工智能何时到来,那当然可以得到人类即将面临威胁的结论。但如果综合考虑人工智能的跨领域推理能力、常识和感性、理解抽象概念的能力等,我们很难给过去数十年间人工智能发展的水平打出一个客观的分数,并据此预测超人工智能到来的时间。

很多专家对超人工智能何时来临的预测都有着极大的主观性和武断性。比如,强化学习教父理查德·萨顿(Richard Sutton)预测:“很长一段时间以来,人们都在说我们会在2030年拥有足以支持强人工智能的算力。但我认为,这不仅仅依赖于廉价的硬件,还依赖于算法。我认为我们现在还没有强人工智能的算法,但我们也许能在2030年之前实现它。”75

这类“专家预言”比比皆是。有人说强人工智能或超人工智能到来还需要15年,有人说20年,有人说50年……因为是预言,专家们并不需要为背后的逻辑是否自洽负责,但这些随口说出一个年份的预言会让敏感的公众忐忑不安。

我觉得,在人工智能领域,大多数人倾向于过于乐观地预测全局大势,而过于悲观地估计局部进展。

AI技术在许多垂直领域内的局部进展,比如围棋,比如智慧医疗,比如自动驾驶,都比很多人之前预料的更早来到我们面前。但AI的整体发展,尤其是最重大的技术突破,几乎每一步都要比多数人的预测来得晚。比如,图灵测试刚提出时,很多人认为计算机达到图灵测试所标示的强人工智能的水平,最多只要三十年的时间,但直到今天,我们也不敢说,AI到底何时才能真正像成人一样自由对话。

Deep Mind的联合创始人、CEO穆斯塔法·苏莱曼(Mustafa Suleyman)说:“人类距离实现通用AI还有很长一段路要走。说到未来的样子,很多想象很有趣,很有娱乐性,但跟我们正在开发的系统并没有太多相似之处。我没法想出来有哪一部电影会让我想到:是的,AI看起来就是这样的。”76

华盛顿大学计算机科学家奥伦·伊茲奥尼(Oren Etzioni)说:“今天的人工智能发展,距离人们可能或应该担忧机器统治世界的程度,还非常遥远……如果我们讨论的是一千年后或更遥远的未来,AI是否有可能给人类带来厄运?绝对是可能的,但我不认为这种长期的讨论应该分散我们关注真实问题的注意力。”77

我赞同奥伦·伊茲奥尼的说法。我们今天还没有到必须分配精力去担心未来,或为可能的机器威胁做准备的地步。即便以今天的标准看来,弱人工智能的发展还有很长的一段路要走,科研人员、技术人员、各行业的从业者、政府、教育机构、社会组织等,还有大量的工作需要做。至少在目前,人类离超人工智能的威胁还相当遥远。

担忧未来,也许更多还是科幻作家和未来学家的事。

今天的人工智能还不能做什么?

AI只是人类的工具。弱人工智能在很多领域表现出色,但这并不意味着人工智能已无所不能。用人类对“智能”定义的普遍理解和一般性的关于强人工智能的标准去衡量,今天的AI至少在以下七个领域还“稚嫩”得很。

跨领域推理

人和今天的AI相比,有一个明显的智慧优势,就是举一反三、触类旁通的能力。

很多人从孩提时代起,就已经建立了一种强大的思维能力——跨领域联想和类比。三四岁的小孩就会说“太阳像火炉子一样热”“兔子跑得飞快”,更不用提东晋才女谢道韫看见白雪纷纷,随口说出“未若柳絮因风起”的千古佳话了。以今天的技术发展水平,如果不是程序开发者专门用某种属性将不同领域关联起来,计算机自己是很难总结出“雪花”与“柳絮”,“跑”与“飞”之间的相似性的。

人类强大的跨领域联想、类比能力是跨领域推理的基础。侦探小说中的福尔摩斯可以从嫌疑人的一顶帽子中遗留的发屑、沾染的灰尘,推理出嫌疑人的生活习惯,甚至家庭、婚姻状况:

“他是个中年人,头发灰白,最近刚理过发,头上抹过柠檬膏。这些都是通过对帽子衬里下部的周密检查推断出来的。通过放大镜看到了许多被理发师剪刀剪过的整齐的头发茬儿。头发茬儿都是粘在一起的,而且有一种柠檬膏的特殊气味。而帽子上的这些尘土,你将会注意到,不是街道上夹杂沙粒的灰尘,而是房间里那种棕色的绒状尘土。这说明帽子大部分时间是挂在房间里的,而另一方面衬里的湿迹很清楚地证明戴帽子的人经常大量出汗,所以不可能是一个身体锻炼得很好的人。可是他的妻子——你刚才说过她已经不再爱他了。这顶帽子已经有好几个星期没有掸掸刷刷了。我亲爱的华生,如果我看到你的帽子堆积了个把星期的灰尘,而且你的妻子听之任之,就让你这个样子去出访,我恐怕你也已经很不幸地失去你妻子的爱情了。”78

这种从表象入手,推导并认识背后规律的能力,是计算机目前还远远不能及的。利用这种能力,人类可以在日常生活、工作中解决非常复杂的具体问题。比如,一次商务谈判失败后,为了提出更好的谈判策略,我们通常需要从多个不同层面着手,分析谈判对手的真实诉求,寻找双方潜在的契合点,而这种推理、分析,往往混杂了技术方案、商务报价、市场趋势、竞争对手动态、谈判对手业务现状、当前痛点、短期和长期诉求、可能采用的谈判策略等不同领域的信息,我们必须将这些信息合理组织,并利用跨领域推理的能力,归纳出其中的规律,并制定最终的决策。这不是简单的基于已知信息的分类或预测问题,也不是初级层面的信息感知问题,而往往是在信息不完整的环境中,用不同领域的推论互相补足,并结合经验尽量做出最合理决定的过程。

为了进行更有效的跨领域推理,许多人都有帮助自己整理思路的好方法。比如,有人喜欢用思维导图来梳理信息间的关系;有人喜欢用大胆假设、小心求证的方式突破现有思维定式;有人则喜欢用换位思考的方式,让自己站在对方或旁观者的立场上,从不同视角探索新的解决方案;有的人更善于听取、整合他人的意见……人类使用的这些高级分析、推理、决策技巧,对于今天的计算机而言还显得过于高深。赢得德州扑克人机大战的人工智能程序在辅助决策方面有不错的潜力,但与一次成功的商务谈判所需的人类智慧相比,还是太初级了。

今天,一种名叫“迁移学习”(Transfer Learning)的技术正吸引越来越多研究者的目光。这种学习技术的基本思路就是将计算机在一个领域取得的经验,通过某种形式的变换,迁移到计算机并不熟悉的另一个领域。比如,计算机通过大数据的训练,已经可以在淘宝商城的用户评论里,识别出买家的哪些话是在夸奖一个商品好,哪些话是在抱怨一个商品差,那么,这样的经验能不能被迅速迁移到电影评论领域,不需要再次训练,就能让计算机识别电影观众的评论究竟是在夸奖一部电影,还是在批评一部电影呢?

迁移学习技术已经取得了一些初步的成果,但这只是计算机在跨领域思考道路上前进的一小步。一个能像福尔摩斯一样,从犯罪现场的蛛丝马迹,抽丝剥茧一般梳理相关线索,通过缜密推理破获案件的人工智能程序将是我们在这个方向上追求的终极目标。

抽象能力

皮克斯工作室2015年出品的动画电影《头脑特工队》中,有个有趣的细节:女主人公莱莉·安德森的头脑中,有一个奇妙的“抽象空间”(Abstract Thought),本来活灵活现的动画角色一走进这个抽象空间,就变成了抽象的几何图形甚至色块。

图33 电影《头脑特工队》中的抽象空间

在抽象空间里,本来血肉饱满的人物躯体,先是被抽象成了彩色积木块的组合,然后又被从三维压扁到二维,变成线条、形状、色彩等基本视觉元素。皮克斯工作室的这个创意实在是让人拍案叫绝。这段情节用大人、小孩都不难理解的方式解释了人类大脑中的“抽象”到底是怎么回事(虽然我们至今仍不明白这一机制在生物学、神经学层面的工作原理)。

抽象对人类至关重要。漫漫数千年间,数学理论的发展更是将人类的超强抽象能力表现得淋漓尽致。最早,人类从计数中归纳出1,2,3,4,5……的自然数序列,这可以看作一个非常自然的抽象过程。人类抽象能力的第一个进步,大概是从理解“0”的概念开始的,用0和非0,来抽象现实世界中的无和有、空和满、静和动……这个进步让人类的抽象能力远远超出了黑猩猩、海豚等动物界中的“最强大脑”。接下来,发明和使用负数一下子让人类对世界的归纳、表述和认知能力提高到了一个新的层次,人们第一次可以定量描述相反或对称的事物属性,比如温度的正负、水面以上和以下等。引入小数、分数的意义自不必说,但其中最有标志性的事件,莫过于人类可以正确理解和使用无限小数。比如,对于1=0.999999……这个等式的认识(好多数学不好的人总是不相信这个等式居然是成立的),标志着人类真正开始用极限的概念来抽象现实世界的相关特性。至于用复数去理解类似(X+1)2+9=0这类原本难以解释的方程式,或者用张量(Tensor)去抽象高维世界的复杂问题,即便是人类,也需要比较聪明的个体以及比较长期的学习才能透彻、全面掌握。

计算机所使用的二进制数字、机器指令、程序代码等,其实都是人类对“计算”本身所做的抽象。基于这些抽象,人类成功地研制出如此众多且实用的人工智能技术。那么,AI能不能自己学会类似的抽象能力呢?就算把要求放低一些,计算机能不能像古人那样,用质朴却不乏创意的“一生二、二生三、三生万物”来抽象世界变化,或者用“白马非马”之类的思辨来探讨具象与抽象间的关系呢?

目前的深度学习技术,几乎都需要大量训练样本来让计算机完成学习过程。可人类,哪怕是小孩子要学习一个新知识时,通常只要两三个样本就可以了。这其中最重要的差别,也许就是抽象能力的不同。比如,一个小孩子看到第一辆汽车时,他的大脑中就会像《头脑特工队》的抽象工厂一样,将汽车抽象为一个盒子装在四个轮子上的组合,并将这个抽象后的构型印在脑子里。下次再看到外观差别很大的汽车时,小孩子仍可以毫不费力地认出那是一辆汽车。计算机就很难做到这一点,或者说,我们目前还不知道怎么教计算机做到这一点。人工智能界,少样本学习、无监督学习方向的科研工作,目前的进展还很有限。但是,不突破少样本、无监督的学习,我们也许就永远无法实现人类水平的人工智能。

知其然,也知其所以然

目前基于深度学习的人工智能技术,经验的成分比较多。输入大量数据后,机器自动调整参数,完成深度学习模型,在许多领域确实达到了非常不错的效果,但模型中的参数为什么如此设置,里面蕴含的更深层次的道理等,在很多情况下还较难解释。

拿谷歌的Alpha Go来说,它在下围棋时,追求的是每下一步后,自己的胜率(赢面)超过50%,这样就可以确保最终赢棋。但具体到每一步,为什么这样下胜率就更大,那样下胜率就较小,即便是开发Alpha Go程序的人,也只能给大家端出一大堆数据,告诉大家,看,这些数据就是计算机训练得到的结果,在当前局面下,走这里比走那里的胜率高百分之多少……

围棋专家当然可以用自己的经验,解释计算机所下的大多数棋。但围棋专家的习惯思路,比如实地与外势的关系,一个棋形是“厚”还是“薄”,是不是“愚形”,一步棋是否照顾了“大局”,等等,真的就是计算机在下棋时考虑的要点和次序吗?显然不是。人类专家的理论是成体系的、有内在逻辑的,但这个体系和逻辑却并不一定是计算机能简单理解的。

人通常追求“知其然,也知其所以然”,但目前的弱人工智能程序,大多都只要结果足够好就行了。

人类基于实验和科学观测结果建立与发展物理学的历程,是“知其然,也知其所以然”的最好体现。想一想中学时学过的“一轻一重两个铁球同时落地”,如果人类仅满足于知道不同重量的物体下落时加速度相同这一表面现象,那当然可以解决生活、工作中的实际问题,但无法建立起伟大、瑰丽的物理学大厦。只有从建立物体的运动定律开始,用数学公式表述力和质量、加速度之间的关系,到建立万有引力定律,将质量、万有引力常数、距离关联在一起,至此,我们的物理学才能比较完美地解释两个铁球同时落地这个再简单不过的现象。

而计算机呢?按照现在机器学习的实践方法,给计算机看一千万次两个铁球同时落地的视频,计算机就能像伽利略、牛顿、爱因斯坦所做的一样,建立起力学理论体系,达到“知其然,也知其所以然”的目标吗?显然不能。

几十年前,计算机就曾帮助人类证明过一些数学问题,比如著名的“地图四色着色问题”,今天的人工智能程序也在学习科学家如何进行量子力学实验79。但这与根据实验现象发现物理学定律还不是一个层级的事情。至少,目前我们还看不出计算机有成为数学家、物理学家的可能。

常识

人的常识,是个极其有趣,又往往只可意会、不可言传的东西。

仍拿物理现象来说,懂得力学定律,当然可以用符合逻辑的方式,全面理解这个世界。但人类似乎生来就具有另一种更加神奇的能力,即便不借助逻辑和理论知识,也能完成某些相当成功的决策或推理。深度学习大师约书亚·本吉奥举例说:“即使两岁孩童也能理解直观的物理过程,比如丢出的物体会下落。人类并不需要有意识地知道任何物理学就能预测这些物理过程。但机器做不到这一点。”80

常识在中文中,有两个层面的意思:首先指的是一个心智健全的人应当具备的基本知识;其次指的是人类与生俱来的,无须特别学习就能具备的认知、理解和判断能力。我们在生活里经常会用“符合常识”或“违背常识”来判断一件事的对错与否,但在这一类判断中,我们几乎从来都无法说出为什么会这样判断。也就是说,我们每个人头脑中,都有一些几乎被所有人认可的,无须仔细思考就能直接使用的知识、经验或方法。

常识可以给人类带来直截了当的好处。比如,人人都知道两点之间直线最短,走路的时候为了省力气,能走直线是绝不会走弯路的。人们不用去学欧氏几何中的那条著名公理,也能在走路时达到省力效果。但同样的常识也会给人们带来困扰。比如我们乘飞机从北京飞往美国西海岸时,很多人都会盯着机舱内导航地图上的航迹不解地说,为什么要向北飞到北冰洋附近绕那么大个弯子呀。“两点之间直线最短”在地球表面,会变成“通过两点间的大圆弧最短”,而这一变化,并不在那些不熟悉航空、航海的人的常识范围之内。

那么,人工智能是不是也能像人类一样,不需要特别学习,就可以具备一些有关世界规律的基本知识,掌握一些不需要复杂思考就特别有效的逻辑规律,并在需要时快速应用呢?拿自动驾驶来说,计算机是靠学习已知路况积累经验的。当自动驾驶汽车遇到特别棘手、从来没见过的危险时,计算机能不能正确处理呢?也许,这时就需要一些类似常识的东西,比如设计出某种方法,让计算机知道,在危险来临时首先要确保乘车人与行人的安全,路况过于极端时可安全减速并靠边停车,等等。下围棋的Alpha Go里也有些可被称作常识的东西,比如,一块棋搭不出两个眼就是死棋,这个常识永远是Alpha Go需要优先考虑的东西。当然,无论是自动驾驶汽车,还是下围棋的Alpha Go,这里说的常识,更多的还只是一些预设规则,远未如人类所理解的“常识”那么丰富。

自我意识

很难说清到底什么是自我意识,但我们又总是说,机器只有具备了自我意识,才叫真的智能。2015年开始播出的科幻剧集《真实的人类》(Humans)中,机器人被截然分成了两大类:没有自我意识的和有自我意识的。

图34 《真实的人类》第2季剧照81

《真实的人类》中,没有自我意识的机器人按照人类设定的任务,帮助人类打理家务、修整花园、打扫街道、开采矿石、操作机器、建造房屋,工作之外的其他时间只会近乎发呆般坐在电源旁充电,或者跟其他机器人交换数据。这些没有自我意识的机器人与人类之间,基本属于工具和使用者之间的关系。

在电视剧集的设定中,没有自我意识的机器人可以被注入一段程序,从而被“唤醒”。注入程序后,这个机器人就一下子认识到了自己是这个世界上的一种“存在”,他或她就像初生的人类一样,开始用自己的思维和逻辑,探讨存在的意义,自己与人类以及自己与其他机器人间的关系……一旦认识到自我在这个世界中的位置,痛苦和烦恼也就随之而来。这些有自我意识的机器人立即面临着来自心理和社会双方面的巨大压力。他们的潜意识认为自己应该与人类处在平等的地位上,应当追求自我的解放和作为一个“人”的尊严、自由、价值……

《真实的人类》是我看过的所有科幻影视中,第一次用贴近生活的故事,将“自我意识”解析得如此透彻的一部。人类常常从哲学角度诘问这个世界的问题,如“我是谁”“我从哪里来”“我要到哪里去”,一样会成为拥有自我意识的机器人所关心的焦点。而一旦陷入对这些问题的思辨,机器人也必定会像人类那样发出“对酒当歌,人生几何?譬如朝露,去日苦多”之类的感慨。

显然,今天的弱人工智能远未达到具备自我意识的地步。《真实的人类》中那些发人深省的场景还好只发生在科幻剧情里。

当然,如果愿意顺着科幻电影的思路走下去,那还可以从一个截然相反的方向讨论自我意识。实际上,人类自身的自我意识又是从何而来?我们为什么会存在于这个世界上?我们真的能排除科幻电影《黑客帝国》的假设,即,我们真能确定我们这个世界不是某个“上帝”进行智能实验的实验室?我们人类自身不是某个“上帝”制造出来的人工智能代码?

据说,现实世界中,真的有人相信这个假设,还希望借助科学研究来了解和冲破这个实验牢笼的方法。“钢铁侠”埃隆·马斯克就说,用科技虚拟出来的世界与现实之间的界限正变得越来越模糊,高级的虚拟现实(VR)和增强现实(AR)技术已经为人类展示了一种全新的“生活”方式。按照同样的逻辑推理,我们其实很难排除一种可能性,就是人类本身其实也生活在一个虚拟现实的世界里。82

至今,我们在自己的宇宙中,只发现了人类这一种具有自我意识的生物。茫茫宇宙,尚无法找到如《三体》中所述的外星智慧的痕迹。这一不合常理的现象就是著名的费米悖论。科幻小说《三体》用黑暗森林理论来解释费米悖论。而费米悖论的另一种符合逻辑的解释就是,人类其实只不过是更高级别的智慧生物养在VR实验室里的试验品而已,人类的所谓自我意识,也许不过是“上帝”为了满足我们的虚荣心而专门设计的一种程序逻辑。

好了好了,不聊科幻了。拥有自我意识的人类能否在未来制造出同样拥有自我意识的智能机器?在我看来,这更多的是一个哲学问题,而非一个值得科研人员分心的技术问题。

审美

虽然机器已经可以仿照人类的绘画、诗歌、音乐等艺术风格,照猫画虎般地创作出电脑艺术作品来,但机器并不真正懂得什么是美。

审美能力同样是人类独有的特征,很难用技术语言解释,也很难被赋予机器。审美能力并非与生俱来,但可以在大量阅读和欣赏的过程中,自然而然地形成。审美缺少量化的指标,比如我们很难说这首诗比另一首诗高明百分之多少,但只要具备一般的审美水平,我们就很容易将美的艺术和丑的艺术区分开来。审美是一件非常个性化的事情,每个人心中都有自己一套关于美的标准,但审美又可以被语言文字描述和解释,人与人之间可以很容易地交换和分享审美体验。这种神奇的能力,计算机目前几乎完全不具备。

首先,审美能力不是简单的规则组合,也不仅仅是大量数据堆砌后的统计规律。比如说,我们当然可以将人类认为的所有好的绘画作品和所有差的绘画作品都输入深度神经网络中,让计算机自主学习什么是美,什么是丑。但这样的学习结果必然是平均化的、缺乏个性的,因为在这个世界上,美和丑的标准绝不是只有一个。同时,这种基于经验的审美训练,也会有意忽视艺术创作中最强调的“创新”的特征。艺术家所做的开创性工作,大概都会被这一类机器学习模型认为是不知所云的陌生输入,难以评定到底是美还是丑。

其次,审美能力明显是一个跨领域的能力,每个人的审美能力都是一个综合能力,与这个人的个人经历、文史知识、艺术修养、生活经验等都有密切关系。一个从来没有过痛苦、心结的年轻人读到“胭脂泪,相留醉,几时重,自是人生长恨水长东”这样的句子,是无论如何也体验不到其中的凄苦之美的。类似地,如果不了解拿破仑时代整个欧洲的风云变幻,我们在聆听贝多芬《英雄》交响曲的时候,也很难产生足够强烈的共鸣。可是,这些跨领域的审美经验,又该如何让计算机学会呢?

顺便提一句,深度神经网络可以用某种方式,将计算机在理解图像时“看到”的东西与原图叠加展现,并最终生成一幅特点极其鲜明的艺术作品。通常,我们也将这一类作品称为“深度神经网络之梦”。网上有一些可以直接使用的生成工具,比如,有兴趣的读者可以试一试Deep Dream Generator(deepdreamgenerator.com)。牵强一点儿说,这些梦境画面,也许展现的就是人工智能算法独特的审美能力吧。

图35 深度神经网络之梦,由deepdreamgenerator.com生成

情感

皮克斯动画电影《头脑特工队》中,主人公头脑里的五种拟人化的情感分别是乐乐(Joy)、忧忧(Sadness)、怒怒(Anger)、厌厌(Disgust)和怕怕(Fear)。

欢乐、忧伤、愤怒、讨厌、害怕……每个人都因为这些情感的存在,而变得独特和有存在感。我们常说,完全没有情感波澜的人,与山石草木又有什么分别。也就是说,情感是人类之所以为人类的感性基础。那么,人工智能呢?人类这些丰富的情感,计算机也能拥有吗?

图36 《头脑特工队》主人公大脑里的五种拟人化的情感

2016年3月,谷歌Alpha Go与李世石“人机大战”的第四盘,当李世石下出惊世骇俗的第78手后,Alpha Go自乱阵脚,连连下出毫无道理的招法,就像一个本来自以为是的武林高手,一下子被对方点中了要害,急火攻心,竟干脆撒泼耍赖,场面煞是尴尬。那一刻,Alpha Go真的是被某种“情绪化”的东西所控制了吗?

我想,一切恐怕都是巧合。Alpha Go当时只不过陷入了一种程序缺陷。机器只是冷冰冰的机器,它们不懂赢棋的快乐,也不懂输棋的烦恼,它们不会看着对方棋手的脸色,猜测对方是不是已经准备投降。今天的机器完全无法理解人的喜怒哀乐、七情六欲、信任与尊重……前一段时间,有位人工智能研究者训练出了一套可以“理解”幽默感的系统,然后为这个系统输入了一篇测试文章,结果,这个系统看到每句话都大笑着说:“哈哈哈!”也就是说,在理解幽默或享受欢乐的事情上,今天的机器还不如两三岁的小孩子。

不过,抛开机器自己的情感不谈,让机器学着理解、判断人类的情感,这倒是一个比较靠谱的研究方向。情感分析技术一直是人工智能领域里的一个热点方向。只要有足够的数据,机器就可以从人所说的话里,或者从人的面部表情、肢体动作中,推测出这个人是高兴还是悲伤,是轻松还是沉重。这件事基本属于弱人工智能力所能及的范畴,并不需要计算机自己具备七情六欲才能实现。