ITBear旗下自媒体矩阵:

有人把人工智能看成下一个风口,但我想说现在还为时尚早

   时间:2016-06-18 10:48:20 来源:腾讯科技编辑:星辉 发表评论无障碍通道
有人把人工智能看成下一个风口,但我想说现在还为时尚早

6月18日,《连线》(Wired)网站日前发表文章称,虽然“任何足够先进的技术都与魔法无异”,但当前的深度学习(Deep learning)技术还远未达到“魔法”的程度。

谷歌(微博)人工智能(AI)应用AlphaGo战胜李世石让全世界感到惊叹,一些行业权威人士也因此将深度学习技术吹嘘成“人脑模拟”。但事实上,机器学习还远不是一个将从魔瓶里被放出的“妖怪”。它只是一种数学算法,是人类在理解智能、建立与人类水平相当的AI过程中向前迈出的一步。

深度学习就是数学计算

深度学习正在迅速“吞噬”AI,但不要把这种方兴未艾的AI技术夸大其词。英国知名作家亚瑟·克拉克(Arthur C. Clarke)曾经说过:“任何足够先进的技术都与魔法无异。”深度学习当然是一种先进技术,它能识别图片中的物体和人脸,识别语音内容,将一种语言翻译成另一种语言,甚至还能在围棋比赛中战胜人类顶尖高手。但是,深度学习还没达到“魔法”的程度。

随着谷歌、Facebook和微软等科技巨头继续将该技术整合到日常在线服务中,以及全世界仍在为谷歌AlphaGo战胜李世石而感到惊叹之际,一些行业权威人士开始将深度学习技术吹嘘成“人脑模拟”。其实,机器学习就是简单的数学计算,只不过计算规模庞大而已。

事实上,深度计算就是一种算法,基于数据来调整神经网络。那么这句话到底是何含义呢?让我们来解释一下:一个神经网络就是一个计算机程序(受大脑结构而启发),它包括大量彼此连接的节点(或称 “神经元”),每个节点都会对接收到的数值输入进行简单的函数计算(如求和)。这里的“节点”远比大脑神经元要简单,其数量也远低于大脑神经元的数量。深度学习只是强化了神经网络中的这些节点的连接。

深度学习是机器学习的一个子域,机器学习是AI领域里一个非常活跃的研究分支。理论上讲,机器学习就是基于数据点收集的一种逼近函数(approximating functions)方法。例如,如果一组数字排列是 “2、4、6…” ,那么机器就能预测出第四个数字应该是“8”,第五个数字应该是“10”。计算公式就是2X,X代表排序中的位置。这种算法的应用空间很广泛,例如,在自动驾驶汽车、语音识别和预测机票价格波动等方面均有出色表现。

在某种意义上讲,深度学习不是独一无二、无规律可寻的。任何机器学习系统,无论是否属于“深度”学习,都由下列一些基本要素组成:

1.执行元素:系统中采取行动的部分。例如,在围棋比赛中负责走棋的部分。

2.目标函数:被学习的函数。例如,围棋比赛中棋盘位置或走子选择的映射。

3.训练数据:一套被标记的数据点集合,用于逼近目标函数。例如,围棋比赛中棋盘位置的集合,其中每一个位置都标注了人类专家在该位置上的走子选择。

4.数据表现:每个数据点通常会被表示为一个预先确定的变量的矢量。例如,围棋盘上每个棋子的位置。

5.学习算法:基于训练数据计算目标函数近似值的算法。

6.假设空间:学习算法可能考虑的函数的空间。

这种结构能适应所有取机器学习方法,包括从简单的线性回归方法到复杂的深度学习算法等。从技术上讲,我们指的正是监督学习(supervised learning),其中每个数据点都有人类做出的标记。如数据没有被标记,就是无监督学习,处理起来就要困难许多。如果有部分数据被标记,则属于半监督学习。

需要指出的是,机器学习架构中前五个部分都是人工输入的,意识到这一点很重要。人类程序员建构了其中每个元素,但并未控制机器学习程序。事实上,程序员通常会分析这个学习程序的行为,发现它不够完美之后,会手动修改其中一个或多个元素。这是一项非常艰苦的工作,在达到期望水平之前,可能需要几年、甚至更长时间的重复工作。

帮助人类

我们会发现,一个学习程序的能力会受到这种架构的严格限制。确切而言:

1.学习程序无法修改该架构的任何部分。

2.学习程序无法自我修改。

3.学习程序无法“学习”假设空间之外的函数。

正因为如此,像AlphaGo这样的学习程序,在没有人类帮助的情况下,是无法学会国际象棋或跳棋的。此外,如果未经过大量的专门训练,大多数程序员都无法成功地修改机器学习系统。即便是训练有素的数据科学家,也需要大量的时间和资源才能成功建立起一套成功的机器学习系统。

AlphaGo系统的设计和实现需要3000多万个从互联网上挑选的训练样本,以及一个庞大的研究人员和工程师团队的多年努力。其实,仅仅将AlphaGo击败欧洲围棋冠军樊麾的水平提升到击败李世石的水平,也需要几个月的努力工作 。

此外,AlphaGo还用到了一系列被称为“强化学习”的机器学习方法,通过不断地选择动作、并观察结果,以获得最大的赢面。在强化学习过程中,训练数据并不是“预先标记”的输入。相反,该学习程序被提供了一个“奖励函数”,即为不同的状态分配不同的奖励。强化学习方法通过执行某些动作、并观察奖励来获得训练数据,本文中的机器学习分析同样也适用于强化学习,该方法仍然受限于其目标函数、数据表现和假设空间等。

可能性空间

非常寻常的学习力量带来了显著结果,我们通常将其称之为“进化”。但需要指出的是,我们必须要意识到自然选择的进化过程和计算机程序模拟过程之间的区别。计算机程序模拟过程被称为遗传算法(Genetic algorithms),目前这种方法还不是特别成功。

遗传算法修改了“生命体”的表现形式,而这种表现形式是非常庞大的。例如,人类基因估计包含了10多亿比特的信息,这意味着人类DNA序列的可能数量是2的10亿次方。探索如此规模的空间所需的成本非常高,但这个空间的拓扑结构让它无法找到简单、适合的算法。相比之下,围棋的可能性空间就小很多,利用机器学习方法进行探索就会容易很多。

为了成功定义一个目标函数,将生活中的一项任务变成为一个简单的优化问题,计算机科学家、研究人员和统计学家整整花了十年时间。但是,许多问题在被表现为机器可操作的形式之前,还需要进行更多的分析。例如,如何以机器可以理解的语言写下一句话的含义?正如麻省理工学院教授杰拉尔德·萨斯曼( Gerald Sussman)所说的那样:“如果表达不出来,就学不会。”在这种情况下,选择适当的表现方法都做不到,更谈不上解决问题了。

因此,深度学习(或者从广义上讲是“机器学习”)已被证明是一种强大的AI方法,但当前的机器学习方法还需要大量的人工参与,才能将一些问题被表现为机器可操作的形式。之后,还需要大量的技巧和时间反复定义这些问题,直至这些问题最终被机器解决。最重要的是,该过程还被限定在很窄的范围内,机器的自主权限很低。和人不一样,AI不具备自主性。

因此,机器学习还远不是一个将从魔瓶里被放出的“妖怪”。相反,它只是理解智能、建立与人类水平相当的AI过程中所迈出的坚实一步。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version