李飞飞接受采访
辛苓
“AlphaGo Zero简单训练就可战胜前代,AI会脱离管制?”
“通过面部识别来判断人们的犯罪性,到底靠不靠谱?”
……
面对众说纷纭的人工智能,不同领域的专家有着别样的理解。
近日,斯坦福人工智能实验室和斯坦福视觉实验室负责人、谷歌云首席科学家李飞飞教授进行了采访,看看在这位“技术大牛”眼中,AI将呈现出怎样的蓝图。
新浪科技:您曾说,要警惕人工智能发展枯竭,造成人工智能发展枯竭的原因是什么?您认为人工智能未来发展的局限有哪些?
李飞飞:说到枯竭,它不仅仅是人工智能的问题 ,任何一个学科要发展,都需要不断地在上流的源头去支持基础科学,支持教育,支持所有科技科学最本质的源泉。
我当时说这个话的语境是,人工智能现在在产业界非常红火,这是一个好现象。但是在这样的环境下,人工智能要不断发展,我们需要给基础科学给予更多支持。
人工智能是一个只有60年历史的科学,它在很多科学科技的领域里是非常新的。我们现在所到达的人工智能的科技水平,还仅仅是刚刚起步。虽然有一些让人很exciting的应用场景和可能性,但是在这样一个情况下,一定要对上流的源泉付出更多才行。
新浪科技:作为女性科学家,您觉得在科研过程中女性科学家能够发挥哪些独特的作用?相对男性科学家您认为有何优势和劣势?
李飞飞:关于女性做科研的优势和劣势,我认为是一个相当个人的问题。每个人不管是男性还是女性,在科研、事业甚至人生的道路上都会遇到一些非常特别的挑战。
这个问题之于我个人的话,可能跟我的性格有关,我是一个比较乐观、坚忍的人,会更关注我该做的事和前方的目标,而不是太多停滞在关于性别的问题上。
但是走到今天,我确实比较呼吁研究人员的多元化。简短来说,我认为多元化的重要性有3层。
第一层,站在人工智能的角度,这是一个非常重要的世界的发展方向。今天人工智能的人才现状是供不应求的。所以站在一个经济学和就业的角度讲,我们需要更多的人来参与人工智能和整个计算机科学。
第二点是创造性和创新性的问题。已经有很多研究表明,大家完成项目或一件事的时候,多样化的团队比单一的团队更具有创新性。人在多样化团队合作时需要磨合,这更具有挑战性,能让你的产品、研究更有创新性。
第三点就是站在社会公平公正,甚至伦理的角度来说。机器是没有独立价值观的,机器的价值观就是人的价值观。当我们需要未来科技来公平公正、正面地反映人类价值观的时候,我们需要思考创造科学的人是谁,这种情况下就需要尊重人的多元化。
基于这三点我认为多元化是很重要的。
新浪科技:上次您来中国的时候,表示是来学习的,如今已经过去8个月了,可以向我们分享一下您学习的成果吗?
李飞飞:我上次回来,当时记者朋友们记住了我一句话,叫做“我在北京最冷的冬天感受到人工智能的狂热”。现在我能感受到的这份热情有增无减。
这一次我回来第一站是上海的交大,第二站是福州计算机大会。这两个都是学术的环境,我看到很多年轻的学生们对人工智能的热情。
作为一个教育工作者,这是让我特别欣慰的事情。很多人都在思考(人工智能)这里面有多少泡沫,但是当学生们向科学表现出热情和强烈的探索求知欲的时候,我觉得这不是泡沫,这是非常重要的事情。这是我最近一个很开心的新的体会。
新浪科技:人工智能下一个突破和发展方向在哪里?
李飞飞:人类可记录历史六七千年,从来没有一种思想学术的领域走到了尽头。所以我很难想象人工智能到了尽头,它肯定会不断演变,甚至出现新的名词。这种科学的探索和进步应该是孜孜不倦没有终极的。去预测下一个风口浪尖其实很难做到,这不是科学精神的本质。科学精神的本质是不断追求无知的世界,把无知变成有知,扩大思想的边界。
新浪科技:作为一个教育者,您比较偏爱什么样的学生?
李飞飞:可能是我年纪大了,看到学生们都像我的孩子一样,你很难说哪一个孩子更好。
最重要的不是我怎么喜欢学生,而是通过TA这一段时间和我的学习和成长,能把TA看到的甚至没看到的,有的时候是老师比TA还要先看到的潜力都发挥出来。
在科学研究这条路上,当我的学生变成独立的思考者,我会特别欣慰。他对科学的思考是一种纯粹的热情。不管做科学家还是做人,都带着一种责任感和一颗赤子之心去做科学。
新浪科技:视觉领域最近出现了一些有争议的研究。有的教授试图用深度学习,通过面部识别来判断人们的犯罪性。还有教授用这种方法来判断一个人是同性恋的概率。这种触犯伦理的研究,您有何看法?
李飞飞:几百年前地心学和日心学的研究也触犯了宗教的伦理敏感性。所以人类在探索的过程中除了不断扩展科学的边界,也在不断挑战自身的human norms(规则),有伦理的norm,有法制的norm,有道德的norm,很多。
一方面我觉得这个是不可避免的,这种科学研究总会挑战这些norm。另一方面这就是我刚才说的科学家的责任感和良知。还有就是科学和人类学、人文学、社会学是息息相关的。
人工智能是一个非常神奇的领域,我们所研究的东西和我们自己是那么相近。人工智能的算法,跟人是有一种影射关系的。所以我一直在呼吁 human centered AI thinking(围绕人来开展AI研究),这里面有很多层含义,从算法来说这点就很重要,因为脑科学、认知学本来就有人的inspiration(启发);第二层是人工智能和人的关系是更交互、互相帮助的关系,而不是上来就是人工智能把人给替代掉,这个在技术上来说有很多很有意思的研究;第三层涉及到社会,人伦等方面问题。我不认为我是一个社会学、心理学、伦理学专家,但是我认为所有这些关注、从事人工智能的学者,以及关注人类社会发展的专家一定要更走近一些,多一些交流和讨论,一起来探索这样的,所谓敏感边界也好,或者是未知的事情。
新浪科技:AlphaGo Zero经过3天的训练,就以100:0的比分完胜AlphaGo,这种自我学习和快速迭代的能力,是不是说明人工智能会渐渐脱离人的管制?
李飞飞:有些故事写出来,会让人产生一些误解。比如围棋是一个很特别的环境,他是人造的close world(封闭世界),有明确的规则,有完全的observable condition(可观测条件),这些都是比较虚拟的游戏环境。算法在这个环境下的力度,不太能直接切换到实际生活中。
比如说AlphaGo Zero给人的印象是,不需要任何人监督,但实际上他需要simulate(模拟)这种游戏。现在我要simulate这个房间都很难,我要simulate这位同学下一句要问什么话也很难,我都不知道怎么去写这个公式,但围棋就可以。
所以围棋实际上是一个很特殊的环境,它可以给我们带来很多启发,但是从围棋的结果立即上升到下一步社会就会失控,这个有点太远了。这就好比说,北京三环堵车,英国伦敦是不是就有可能发生车祸。也许从某种程度上这两个有联系,但是它离的太远了。所以我自己不这么看。
我喜欢的一位,纽约时报跟踪报道人工智能30年的老记者马尔科夫一直跟我说,当你把远方的目标看的很清楚的时候,不等于这条路很好走。好比无人驾驶,我们看到L4L5一定会来,但是没有我们想象的那么快。