文/大唐波斯将军
最近,比尔盖茨公开表态称,自己对人工智能感到担忧,而且不明白为什么有那么多人并不担心这种技术对未来的影响。两周前,马斯克和著名物理学家史蒂芬·霍金也都签署了一封公开信,呼吁在人工智能创新方面采取安全措施。但有趣的是,盖茨与马斯克都曾资助过人工智能的研究,微软旗下更是有专门的实验室从事人工智能相关产品的开发。与盖茨、马斯克的担忧相反的是,真正从事人工智能研究的科学家反而斥责这类“人工智能威胁论”,这种论调阻碍了科学的进步。Facebook 人工智能实验室的负责人Yann LeCun就曾指出类似的言论在历史上造成了恶劣的影响,公众对人工智能无端的恐惧迫使科学家停止了对人工智能的研究,造成“人工智能的严冬”这样研究停滞的时期。
人工智能从字面上看起来非常容易理解,就是由人类制造的拥有类人智能的机器。这也是大众最为容易接受的一种定义,绝大多数的小说与电影中的人工智能都是围绕这个定义进行描写与刻画的(比如美剧《疑犯追踪》中的两位人工智能“上帝”,它们在最新的剧情里甚至有了人间的化身)。但实际上,学界对于人工智能并没有统一的定义,许多研究者都只是从自己研究的方向出发对人工智能进行模糊的描述。美国斯坦福大学人工智能研究中心的尼尔逊教授对人工智能下了这样一个定义:“人工智能是关于知识的科学――怎样表示知识以及怎样获得知识并使用知识的科学。”而另一位美国麻省理工学院的温斯顿教授则认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”对于研究者而言,目前的人工智能研究主要是为了解决具体的问题,而非创造一位“上帝”。我的一位老师曾经做过关于图像智能识别的研究,她的主要工作就是设计算法让计算机从海量的照片中自动识别出含有交通指示牌的照片。对她而言,所谓的“智能”不过是精巧的算法,她当然不会害怕这些自己亲手敲出的代码。
但马斯克与盖茨的担忧也并非全然没有道理。随着技术的进步,人类有可能进一步的破解思维产生的奥秘,从而设计出拥有类人智能的机器。我不赞同那些认为人类大脑是不可破解的“神域”想法。人类的思想意识来源于大脑,而大脑是由物质组成的,和人体的其他器官并无二致。理论上,只要是物质,没有什么是不可复制的,只是技术是否能够达到的问题。曾经,我们也认为心脏是不可替换的,但现在,人工心脏已经挽救了许多患者的生命。超强的计算能力、海量的数据存储、无限的感知能力与人类的智能相加,在最疯狂的宗教中对最强大的神祇的想象也不过如此,这样的怪物当然值得人类畏惧。
除此以外,人工智能的思考是否能为人类所控制也是马斯克与霍金担忧的主要原因。人工智能拥有近乎无限的可能性,它是否服从人类的管理是一方面,管理它的人类是否会将其用于正道又是另一方面。相较于前者,后者的威胁明显更加巨大。人工智能的“恶”,我们还未曾领教过;但人性的“恶”,每天都在发生。人工智能被用于正途,可能会成为为人类服务的“核电站”,用于歧途,则可能成为撼动世界的“核武器”。没人想让一个坏孩子掌握毁灭世界的核按钮。
然而,即便如此,对于人工智能研究也不应被放下。从上个世纪四十年代开始,人类就已经掌握了可能导致灭世的核武器。美国在日本的广岛和长崎投下的两颗原子弹,造成了超过十万人的死亡。绝大多数的科学家反对核武器的使用,但没有一个科学家敢说从未发明核武器的社会就一定会比现在的社会美好。随着科学的进步,人类对于物质的认知进一步加深,核武器、核能是一定会被发明出来的,这是历史的必然。同样,人工智能的出现也是一种必然,或早或晚,但终究会到来。我们有理由提防它可能造成的破坏,但没有理由去阻止它的降生。
很多时候,人类对人工智能的畏惧实际上来源于对自身人性的失望。自认万物灵长的我们,时至今日也还没有消灭战争、饥饿与仇恨等“不道德”的现象。人工智能就像一面镜子,人人都能从自己的恐惧中照到自己内心深处的阴影。与其担忧尚未诞生的人工智能,倒不如好好反省一下人类自身。