ITBear旗下自媒体矩阵:

评谷歌AlphaGo:是“人工智能”还是“人工低能”?

   时间:2016-03-11 13:36:59 来源:观察者网作者:沙烨编辑:星辉 发表评论无障碍通道

2016年1月,谷歌旗下的DeepMind公司在《自然》发表封面论文,介绍人工智能围棋程序——AlphaGo的算法。论文同时宣布,AlphaGo已于去年十月完胜欧洲围棋冠军樊麾。2016年3月9日、10日,AlphaGo迎战围棋界顶级高手李世石,再次完胜。

一棋激起千层浪。围棋的变化如恒河沙数,一直是人类最引以为豪的智力游戏,如今却被程序无情地攻破。看客纷纷惊呼奇点已经临近,机器纪元即将到来,超越人类的物种雏形已经出现。

人工智能是否会在不久的将来,接近甚至超过人类智能?人类智能的本质是什么?

李世石对战AlphaGo现场

人类智能简史

人类的智能是什么?人类自十万年前进化成为智人。人类的大脑里有这我们一路进化的痕迹。我们从爬行动物,哺乳动物,再进化到智人。每一段进化的历程都在对我们大脑的结构造成影响,直到形成我们今天的大脑。

我们从环境中演化而来。我们的智能一直就和环境不可分离。作为个体,我们通过我们的感官来感知世界,同时控制我们的身体和环境交互。就如任何哺乳动物,我们在脑中接受我们的感官输入,形成对环境的基本认知模型。我们通过和环境交互产生个体意识,通过记忆积累个体体验,通过情绪产生直觉反应。对环境的有效判断,让我们在物种竞争的长河中取得优势,得以繁衍。我们的感官输入和我们对世界的理解密切相关。如果我们如蝙蝠般弱于视觉,我们对世界的理解,对美的认知,和现在相比会截然不同。

而人类独有的发达的新皮层,或称理性脑,让我们具有了远超于其他哺乳动物的高阶认知功能。我们能进行抽象思维,对环境中的现象进行归纳,关联和推理。我们能对记忆进行重组,进而对未来进行思考。我们能创造工具,对环境进行改造。我们不再满足于适应环境,而试图让环境适应我们。

更重要的是,我们发明了语言。通过语言这套灵活的符号系统,我们能互相交流,让个体的智能成为群体智能的一部分。语言让我们把每个人的智慧结晶沉淀,形成人类的集体智慧。而每个个体又能站在巨人的肩膀上,从集体智慧中吸取养料,并进一步提升。同样的人类大脑结构,能产生爱因斯坦,也能产生隔壁班的差生。语言让我们每个人都能受益于人类星空中偶尔闪耀过的天才。

我们所处的环境,我们的感官,我们的身体,我们的语言所带来的社会知识结构,这些因素和我们的大脑能力综合在一起,形成我们今天的人类智能。它们互相依赖,缺一不可。我们可以宣称,我们是地球环境中进化出的最高等的社会化生物。虽然仅此而已,但也足够骄傲。

人类进化的过程中,工具也在不断改变。

人工智能

人工智能在近几年飞速发展,被广泛用于语音识别,自然语言处理,图像识别等领域。“智能”两字,给人们无限遐想。人工智能是否真能和人类的智能比拟?

“计算机科学之父”艾伦·图灵在他1950的论文《计算机器和智能》中,为了回答机器是否有智能的问题,提出了著名的图灵测试:电脑如果能回答一系列人类的问题,而且能让提问者不能分辨是否为电脑,那么电脑就通过了智能测试。

图灵测试绕过了直接回答什么是智能,把答案交回到我们手里。当人类不能辨别电脑是否和自己有区别,那电脑自然就具备了人类智能。从哲学上,这是一个不需证明的证明。

更有意思的是图灵的传记电影《模仿游戏》中的一段话。图灵说到:“机器当然和人的思维方式不同。机器和人本来不同,当然思维方式不同。有趣的问题是,机器和人的思维方式不同,是否意味着机器就不在思考?”

机器的思考不会是人类的思考。电脑由人类设计,其处的环境和输入由人类设定和控制。即使在未来,机器能利用身体,自由探索环境,它们也不需要和人类经历同等的进化过程,而且没有人类间的个体化差异。哪一天机器能有智能,会和人类不同。我们面临的会是一种和人类智能截然不同的智能形态。

现在人工智能应用普遍基于神经网络算法。神经网络算法应用多层连接的网络节点,并赋予每个节点不同的参数权重来控制输出。神经网络通过大量的样本学习,来不断调整每个节点的参数,学会给出“正确”的输出结果。虽然基础算法类似,针对不同的应用场景,我们需要开发不同的人工智能程序,并根据应用场景进行优化。每个程序只能做一件专项任务,如语音识别。一个程序不能胜任它的设计者在其设计范围之外的任何功能。这些人工智能程序,不是真正的“智能”,而更像人类的专项工具,成为人类能力的延伸。

虽然神经网络算法的名称由仿生人脑的神经元网络而来。其真正机理,和人脑无法比较。人脑需要很少的数据,就能抽象总结。给一个小孩看一张猫的照片,他就能辨认出下一张图片里的猫。而Google用最好的神经网络算法,看上几千万张照片,识别猫的准确率也不是百分之百。

什么是智能?DeepMind的创始人Hassabis给出他的答案:通用的学习算法。同一个程序能根据复杂环境产生的感官输入,自我学习技能,并不断加强在环境里的生存机会。同时学习的技能需要足够丰富,能够适应不同的任务。他把目前普遍的人工智能应用成为弱人工智能,以区别于通用人工智能。

通用人工智能是研究者的终极目标,只是现在我们还处于起跑线上。

AlphaGo和围棋

围棋本质上是一个计算和搜索类的游戏。其规则虽然简单,但组合变化繁多,甚至超过宇宙中所有原子数量的总和。如果用蛮力穷举,最先进的电脑也不能破解。一个好的算法在于从看似无穷的组合中找出有效的子集。AlphaGo使用了两个不同的神经网络。一个“策略网络”负责评估落子选择,一个“价值网络”负责评估局面胜算。前者减少搜索的广度,后者减少搜索的深度。这两个网络会同时被用在AlphaGo的蒙特卡洛搜索树算法中,得出下一步的最优解。AlphaGo的设计者用历史上的高手棋谱训练AlphaGo,同时还让AlphaGo自我对弈,双手互搏。经过三千多万对局的训练,才剑出江湖,挑战高手。

谷歌AlphaGo团队

无论在围棋爱好者眼里如何神奇,AlphaGo也是一个弱人工智能的应用。和以往人工智能围棋程序不同的是,DeepMind公司花了大量人力物力,根据围棋特性做了很多针对性的设计和优化。前述《自然》论文的共同作者就包括二十名顶级专家,其中还有数人专攻计算机围棋。AlphaGo在技术上没有太大突破,但把现有的技术做了很好的集成。

围棋因其计算量巨大,并不符合人脑先天功能。人类进化过程中从无大量计算的需要。计算是人脑的弱项,也是人类智能中极小的一个部分。人类玩围棋,永远只能算一个小小的子集。顶级棋手也最多只能根据当前局面,评估几百种可能下法。和真正的棋局可能性相比,只是沧海一粟。为了能得到更多的胜算,我们根据有限的过往棋局,总结出不少规律,我们叫它们棋理,大局观。但这些棋理只是在过往极其有限的棋局组合中得出的总结而已。当年吴清源发明新布局,举世皆惊,就是在以往的棋理之外稍作创新。

人类算围棋,本是以己之计算弱项,加上过往经验总结,来玩一个重度计算游戏。因为我们不善于计算,棋局变化又多,我们慢慢便把围棋神化,认为其包罗万象,棋如人生。那一代代的围棋高手,就像居于人类智慧之巅,被人顶礼膜拜。直到有一天,我们设计出的围棋程序更胜于棋盘计算,我们方明白,本来计算就该由计算机来做。

只有人类自己把围棋当一回事,AlphaGo的胜利才有意义。从这点上,人工智能的所谓胜利本来就是我们主观的产物。我们战胜了自己心里的影子。

我们离真正的通用人工智能还有多远?没有人知道。至少AlphaGo没有让我们走得更近。这些弱人工智能程序,只是人类手里工具,没有任何真正的思考功能。未来也许科幻,但今天的“人工智能”,更像是“人工低能”。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version