7月9日,2021世界人工智能大会腾讯论坛在上海世博中心成功举办。在「绽放“视界”想象力」之后,今年,我们和大家一起迎接“光”。会上,我们正式宣布,与国家天文台联合发布探星计划,用AI寻找被誉为宇宙中的灯塔的脉冲星,更好地促进中国天体物理领域的深入研究。
追求“科技向善”,就要推动“AI向善”,让AI技术实现“可知、可控、可用、可靠”。
今年,腾讯将“可持续社会价值创新”写入了发展战略,希望能和大家一起凝聚成光,一步一个脚印地实现“科技向善”。在以“AI与可持续发展的未来”为主题的圆桌会议上,来自多个领域的大咖们共同探讨AI与社会可持续发展,AI如何助力可持续社会价值创新?如何让AI更人文、温暖一点?担忧与期望并行,AI如何保证安全和公平等问题?
让我们在本次圆桌论坛中寻找答案
圆桌论坛现场
圆桌论坛主题
AI与可持续发展的未来
主持人
李刚 腾讯研究院副院长
对话嘉宾
苏文颖 联合国儿童基金会驻华办儿童保护官员
朱劲松 腾讯安全管理部总经理
陈楸帆 全球科幻奖获得者、科幻作家
黄飞跃 腾讯优图实验室副总经理
01 AI应如何助力可持续社会价值创新?
苏文颖:“AI最重要的起点,即是来源于现实社会中最真实的需求”
苏文颖联合国儿童基金会驻华办儿童保护官员
最近这几年来,技术企业和公益行业都在探索如何让技术更好的赋能于一些社会问题的解决。比如说在我之前参与评委的腾讯Light·公益创新挑战赛上,我对在未成年人赛道上获得一等奖的,一个专门致力于做青少年心理健康服务的平台印象深刻。因为大家知道,现在青少年的心理问题比如抑郁、焦虑等非常的多发,他们迫切需要让他们有安全感、归属感的平台倾诉和交流一些心理问题。而这个青少年心理健康服务平台就提供了这样一种服务,而AI语音和AI聊天的技术搭载在这类心理健康服务平台上,在服务体验和效果上也值得期待今后更多的可能性。
在我熟悉的未成年人领域,一些实践从技术和产品出发,解决一些底层的需求,比如说未成年人上网安全的需求。腾讯优图也有一个「守护青苗」的行动,基于图象识别和OCR等技术,来过滤网上的一些不良内容或是不适合未成年人、对他们的身心健康有负面影响的内容。还有技术企业聚焦儿童健康,比如说用AI进行一些关于儿童身体形态和体能的评测,致力于推动教育公平的一些AI赋能教育实践也很多,虽然在很多领域,大量技术应用还仍在尝试和摸索阶段,但也积累了很多宝贵的经验和试错。
其实不仅仅是在未成年人领域,在日益老龄化的社会,AI技术能够助力服务于老年人群体,特别是在他们的生活支持、健康管理、心理慰籍方面。不过,当前很多AI的应用对于未成年人和老年人群体而言,总体来说还是比较注重安全和健康这类底层需求。很多技术应用的预设逻辑可能还是或多或少矮化了未成年人和老年人,往往采取了居高临下的扶助和管理思维,缺乏对他们真实处境和需求的理解,可能忽视了他们的尊严感和价值感,这需要今后更多吸纳这些群体的视角,进一步完善和丰富技术应用场景和体验,让AI更好地起到陪伴和赋能的作用。
归根到底,AI服务于这些社会问题的解决,它必须有一个最重要的起点,就是它是植根于真实的需求,而解决方案既符合AI技术自身的逻辑,也有现实应用可实现的路径,同时还要符合现阶段的法律和社会伦理。
02 AI技术如何和人文思想相结合?
陈楸帆:“AI是为每个人而生的,而不是为了某些特定的群体去设计出来”
陈楸帆 全球科幻奖获得者、科幻作家
最近可以看到包括国内外的一些相关的法律法规都在出台对于个人的一些数据隐私的保护,包括对一些不当应用个人数据行为的一些打击。其实赛博朋克这样一个类型是在上个世纪80年代在美国开始兴起,有非常强的一个时代背景,一个是消费类电子的兴起,一个是所谓的跨国的大工业、大公司的崛起。大家会重新提到赛博朋克这样一种美学和生活方式,我觉得是有一定历史的回音在。而且在当下,我们会发现这样一个命题更加的贴近我们现实。因为赛博朋克由“控制论+组织”,组合成的这样一个东西,就是人在一个高度信息化的控制论的社会里,它会不断的受到数据流反向的操控,你会发现自己无意之间会变成这个系统的一部分。人的自主性、人的主观能动性、自由意志被削减。苏老师提到的价值感、尊严感。去年开始提到困在系统里的人,会发现很多的外卖小哥受到算法的驱使,不断得更快的赶路,完成订单,赚到微不足道的收入。
归根到底,我们当以什么样的标准,以一种什么样的权量的参照系创造出这样一种算法。今年我跟李开复博士有一本书《AI 2041》,讲的是10个在20年后跟AI相关的故事,医疗、教育、娱乐也包括老年人等等这样一些问题,我们花很长的时间,跟AI从业者、学者、研究者做交流,希望从最坚实的基础展望未来。在这个过程当中,我发现现在的弱势群体在未来的AI主导的社会里,变得更加的弱势。因为我们现有的AI是基于现有收集的数据,经过机器的强化学习得到的解决方案,所谓的弱势群体,比如说在疫情中没有用智能手机的这样一群人,包括没有接入网络的一群人,他可能出行遇到很大的困难。其实在我们的书里探讨了非常多这样的议题,在未来怎么建立更加平衡、友好,用善意对待每个人这样一个AI技术。因为AI是为每个人而生的,而不是为了某些特定的群体去设计出来。
我们需要传递“AI可持续发展”这样一个非常重要的观念,不仅是对政策的制订者,对于大公司,对于技术的从业者,更重要的对每个个体应该理解说,我有什么样的权利。这种可持续发展在社会层面,在经济的层面,包括在环境、在个体的心理层面,比如说刚刚讲到的咱们青少年的心理问题、老人的陪伴问题,比如说个体在非常高度竞争的环境下,我们怎么样去给他一定的空间实现自我价值?我们通过文字做了非常多的设想,需要跟更多的业界从业者一起探讨,把一个想象通过讲故事的方式,建立起一个更大的共识,这样的共识形成之后,我们才能凝聚起这样的力量,让每个人都能看到AI所能带来的这种未来的光。
03人们对AI有期待也有担忧作为腾讯旗下顶级人工智能实验室,优图实验室做了哪些努力?
黄飞跃:“人工智能能实现它的价值”
黄飞跃 腾讯优图实验室副总经理
刀可以做菜也可以伤人,这都取决于用这个物件的人本身。人工智能也是这样一个逻辑,它是能力特别强大的工具、系统,但技术再强大,使用者才是核心。我们怎么样更好地设计它,怎么运用它,这非常关键。绝大多数的时候,我们看到的人工智能一定是对于人类,对于社会有非常大的帮助。这几年的人工智能的快速发展,我们有更多的时间、更多的去沉淀和思考人工智能如何发挥的更好。以前我们更多的是去想怎样解决问题,现在就会考虑更多的社会价值,比如我们在谈的人工智能可持续性发展。
早期的人工智能相对不成熟,比如说我打印一张照片,是不是可以仿冒这个人,能不能冒名。再比如人工智能对不同识别的个体,很难做到完全公平。也许我训练的数据集对于老年人识别效果未必那么好,这都是社会可持续发展的问题,这是我们更多需要讨论的,也有更多的考虑。
人工智能实际上会面临很多的一系列的问题,这个也正好切合我们现在的一些关注的点或者我们现在做的事情。优图从2012年成立以来,解决的问题是人工智能可以实现它的价值,我们从最开始图像智能的压缩,智能识别、图像检索、OCR、车辆识别,我们更多的是在实现它的应用功能。现在这些基础能力上面,我们都已经健全且足够完备,所以我们思考如何让人工智能降本增效和高效应用。
个体的AI应用无法做到单独针对性训练、采集数据,部署成本非常高,而成本高了以后,导致人工智能的成本增加,这样中小企业用起来是很难的。这个时候我们关注的是通过自动机器学习的算法、自适应,且通过平台的自动训练,更好的部署应用。即使在手机上端上运行,我们也要用自动的方法寻找出来一些更优的模型,能够让模型更小,跑的更快,这样才能真正的高效、降本增效地用起来。
人工智能里我们关注几个技术点:
一是怎么帮助人工智能应用的成本降低。人工智能其实它在长尾应用里数据是稀缺的,数据分散在不同场景里。其实就像我们今年跟国家天文台的合作,我们收集的望远镜观测的数据是残缺的,这些数据可能是不同的望远镜收集出来的,它的表现形式是有区别的。怎么样能够把这些不同的数据、残缺的数据用起来,所以我们会关注数据的监督,半监督的学习和训练的方式,以及跨越迁移等等技术,把这些技术能够真正的帮助人工智能应用的成本进一步的降低,在不同的场景里。这是我们关注的一个技术点。
二是让人工智能做到更公平,更安全。公平像刚刚提到的针对老年人,或者理解为我们以前这个机器见到的数据比较少,见到样本比较少,对它来说是比较难的一些事情。怎么样能让这些难的,老年人或者青少年识别也做的足够准,这样刷脸支付的时候可以非常方便的来用。这也是我们关注的问题,这是公平性的问题。
三就是人工智能要考虑的社会伦理和安全问题。像我们给健康码和刷脸支付提供的人脸识别技术,我们要注意防范的安全问题就是有人拿着别人的照片、面具、头模各种东西,希望攻破人脸识别系统。如果想真正的大批量应用,这些安全和公平都是我们关注的点。
这几年技术趋势上有一些变化,从原来的识别,现在往更多的像生成对抗网络这样一些深层的技术也有飞速的进步,把多模态的信息融合起来做一些综合的视频内容的理解。举个例子,像我们在做青少年内容保护,互联网上有很多不良的内容,包括色情、暴力、恐怖,如何更好的去鉴别这些内容,我们就会使用到多模态的技术,将CV,NLP,OCR等技术融合贯通来使用。
04以AI技术为代表的新技术给安全带来了哪些挑战?
朱劲松:“安全问题不容忽视,但我们有信心解决,并相信AI会让我们的生活更美好”
朱劲松 腾讯安全管理部总经理
在互联网安全行业从业13年,我理解安全与技术的关系,首先,安全是一个基石,如果处理不好会导致整个技术发展的失序。其次,安全的问题不能以偏概全,我们要用发展的眼光解决它,而不是出现问题就踩脚刹车,扼杀创新,这是不可取的。
随着人工智能的发展,它带给我们整个生活或者学习,工作,带来三类挑战和风险。
第一,以人工智能为代表的新技术,它对我们传统的伦理规则这一块带来很多的挑战。例如现在大家经常看到的关于自动驾驶的技术。有一天自动驾驶的车辆遭遇了紧急的状况,我们车里面有四个人,他判断这里面有50%的可能性会有死亡的发生的风险。但是如果采取紧急避险,往旁边的行人方向开过去撞死一个人,这里面的死亡率是100%,这时候自动驾驶的系统怎么选择?我们把一个人的选择权交给了一个人工智能,交给一个算法做决策的时候,这里带来了很多的伦理上的问题。包括看到最近法律上的服务,我们让人工智能来对证据做一些判断和排除,对量刑给一些建议。我们知道法律有温度,有很多可考量的角度,如果让算法去对案子做分析和决策,这里面也有伦理的问题遇到挑战。
第二,关于社会安全的角度。刚刚几位老师也有提到,这里面衍生很多的网络犯罪,网络黑产的问题,还有利用人脸识别深度伪造技术,可以骗过很多验证的策略,这都会带来很多安全风险,对于用户财产,包括整个社会网络秩序都造成比较大的冲击。
第三,关于用户隐私方面的挑战。大家最近几年谈的比较多,比如说关于信息茧房的问题。大数据会知道你很多的喜好,您喜欢浏览哪些新闻,你的观点是什么样的,它会推送同质的内容,似乎我们看到很多的信息,实际上处在很窄的信息茧房里面。包括大数据杀熟的问题,最近几年大家逐渐关注到,并且察觉到科技的发展给我们带来的困扰。但是,我觉得这些安全问题,是我们科技发展过程当中泛起的小涟漪,我们更要相信科技会给我们和我们的生活带来更多美好的东西。
过去几年参与了很多的项目,包括腾讯Light·公益创新挑战赛,还有更早之前我们部门跟优图一起合作了一个比较有意义的项目。中国西部地区有一个地方是被拐的儿童最多的省份,当地破获了一个案子,做恶很多年拐卖人口的团伙被抓了。犯罪分子交待说,他们拐卖很多儿童,都把儿童卖到了中国东南某沿海地区的地方,但是卖给谁却没有记录,那个时候没有任何的电子的数据存储的条件,他们也不记得买家是谁。只有这样一个很模糊的信息,在过去这种案件就变成没有办法破的案件。我们跟优图实验室做了一个推演,说这里面用人工智能的能力帮助解决社会痛点,通过照片比对,把相似度最高的前十名的学生筛出来,最后通过警方比对出来十几对被拐卖多年的儿童。这是我们利用技术能力去解决社会长期痛点,一个非常正面的例子。
安全问题是客观的存在,但是我们应该有信心去解决这个问题。一是开展立法研究,建立适应智能化时代的法律法规体系。二是对行业要有一个完善的监管的规则体系。三是引导大的平台,有技术能力的团队去做一些积极的向善的事情。我们安全问题不能忽视,我们要做好自己对于整个网络,安全免疫的能力,同时要有更多的信心,我们AI人工智能这样一种技术会给我们的生活带来更多更美好的东西。
05 Q&A
李刚 腾讯研究院副院长
科技是中性还是本身就有自己的价值观?
朱劲松:我一直认为科技应该是有温度的,应该是要有价值观的。虽然从技术的角度看有中性的特点,但是背后用科技,包括算法其实是人在背后推动的,从整个实际应用层面,科技一定是有价值观的。在科技使用的时候,如何规制这一块,比如说作为政府的监管部门,它可以对这种科技的发展设立一些禁区和红线,我们所有人在规则之下去做这样一个科技的研发和应用的工作,就会更好的做一些引导。
黄飞跃:科技可以定义为发现一些规则或者是一些原理,这些可能是世界中客观已经存在的。在客观存在的规律中,我们发现了它,在这个基础上,我们把这些技术,规则原理设计出来成为人类服务的系统,是向善的系统,把它用的更好。
陈楸帆:我顺着黄总这个往下说,我比较赞同黄总的意思,科学是对客观世界规律的一种探寻和发现,它是一个中性的存在。但是技术是对于这种规律的一个应用,它是根据人的需求来量体裁衣。但是对于某些人可以说是正面的科技对于另一些人来说不一定,就是我们从AI这件事上可以看到特别明显的,因为是一个非常中性的筛选简历的AI,但是在使用过程中,您会发现它变得越来越具有某种倾向性,比如说性别上的,比如说种族上的,比如说背景上的倾向性,后面还是由于目标函数最大化的设置,让它不断的自我强化。
我们现在所谓的科学都是一个启蒙于工业革命,一直一路到现在的产物,它对于人类来说有正向的,比如说出生率、存活率,人的平均寿命,包括人的物质生活的水平,它其实提升的。但你从另一个角度,从整体的生物圈,生态多样性,气候变化,有可能是一个负面的科技。因为我们从去年可以感受到,为什么野猪在成都街头,高速公路狂奔,很多野生动物开始在城市里嬉戏,北京的雾霾没有那么严重了,这是对于原来工业文明,人类主导的加速主义视角下的一个拨乱反正,在我看来,包括病毒同样也是这样一种存在。这样的视角下,我们应该用更宏观,更大,更多元的甚至是去人类中心化的视角讨论科技这件事情。如果人类想让自己的文明延续的更久远一些,我们必须去深刻的考虑什么是可持续发展,是针对谁的可持续发展。
苏文颖:我同意几位老师分享的。我们都在提到对于青少年做科学素养的普及,这理念有一个开宗明义就是科学和技术,黄总也提到,科学是发现客观规律,技术是怎么样应用这些客观规律。技术,人是在应用,肯定还是会有一个尺度或者价值观在后面的。科技向善这个术语,我觉得最关键的,是在“向”字上,这是一个动态词,是主观能动性,是一个主动的选择。我非常的赞同已经升级到可持续社会价值,因为“善”的尺度其实在不同的人,不同的群体,不同的历史阶段和社会发展阶段会有一些不同的解读。当然最核心的人之为人,最基本的价值,是非常可持续的。可持续社会价值的提法,一方面借鉴了联合国2030年可持续发展目标的宏伟的体系,这个可持续发展目标,其实也是拆分成了很多具体的领域,每个里面是有很多的小目标和衡量的指标。社会价值更是从经济、社会、文化各个维度设立一些标准衡量的。所以可持续社会价值这个提法是对科技向善的一个非常及时的升级,同时也是一个更加好衡量,和实现的东西。
回到这个问题上来,之前还跟陈楸帆老师谈到我最近看的科幻小说印象非常深的,还是陈楸帆老师翻译的刘宇昆的《拜占庭同情》。这本小说为什么印象深,因为它关注的就是我关注的公益慈善行业,设计了一个思想实验,探讨了虚拟现实技术,VR和区块链技术如何可能会重构我们传统的主流的公益慈善行业。当然像很多科幻小说的思想实验一样,并没有一个确定的结论,只是促使我们思考,同样的技术其实在两种,二元对立的价值体系之下,其实能够发展出完全不一样的应用,甚至是在平常谈论技术上比较少去思考的,怎么重塑慈善这样一个行业。其实我觉得目前来说,我们更多的不是说科技是是否向善,而是在互联网或者技术的下半场,我们应该去做什么,能够解决什么问题,这些问题肯定是要植根于真实的社会需求的,这个可能也是可持续社会价值这样一个事业要探索的。
站在个人的专业角度上看,未来五年您对于人工智能的发展有一个什么样的展望?有什么样的期待?展望和期待是两回事,您觉得他能发展到什么样的程度,如果没有现实的限制,它期待它是什么样子?
苏文颖:谈不上展望,因为不了解技术的很多细节包括它发展的速度,我也没有能力做出预测。从我的角度来讲,我非常希望AI技术能去解决一些之前人类科技进步史中尚未能够更深入地触及和帮助的群体,更关注一些现在并没有纳入到很多技术应用场景中的人群,比如说残障群体,特别是更复杂的心智障碍群体。另外一方面,AI赋能其实远远不止我们平时常说的青少年群体或者是老年人群体。当下我们每一个人与数字科技及其应用的平台和场景,其实都是一个陪伴、共同成长和彼此赋能的关系,这个人与技术互相影响的终极命题,我觉得也是值得从不同学科视角去探索和思考的。
陈楸帆:五年说长不长,说短不短,技术不是线速匀速发展的东西,它有自己的生命曲线,所以很难预测。对于我来说,有几个趋势,我希望在深度学习算法的底层的逻辑能有一些突破。因为我们不知道它为什么能有效的解决一些问题,这其实是最基础的一个研究。在这基础上,我们应该去把AI把大数据往小数据去迁移,因为我们知道人其实是小数据学习的一个认知的模式。只有这样的基础上,才能期待一个通用人工智能的到来。在这个基础上,我觉得可能,希望五年之内AI能够以一个更自然的NLP包括种种的多模态的交互的能力能变得更加的易用,更加贴近我们普通人交流的习惯。因为在疫情之后,你可以看到这样的需求非常的大量,包括远程在线学习,工作,甚至一些家居的娱乐都会加速往线上往虚拟化、数字化去发展。我觉得其实这是在五年之内比较可期待的一个发展的目标。
黄飞跃:过往的近十年,比如说人工智能发展的趋势来说,人工智能后续的发展可能是有两种方式,一种是在技术上有比较大的突破,就像之前的深度学习网络快速,基础研究层面巨大的突破,我们会把新的突破的技术应用在各个场景,各个领域,寻找更多机会点。第二种人工智能发展的路径,某些行业,某些领域,某些产业,像下一代移动互联网或者自动驾驶汽车或者是可能其他的一些行业里面,这些行业取得特别大的发展,这个时候人工智能在这个行业里能够有进一步的发展。
实际上,我们很难预测未来五年到底AI在哪里取得特别大的突破。从我个人期待的角度来说,我希望人工智能能够给人类带来更多真正的便利,现在来讲AI还是更多的偏向生活体验,应用层面用的更多,那么未来是不是能够给我们提供更多真实的指导和建议,譬如像气候,医学这些方面,能够帮助人类能够更好的应对自然变化和生理变化。
朱劲松:信息技术其实以加速的方式往前推进。从现在往后推五年是什么样子,实际上用过去尺度衡量,可能是十年二十年,五年内会发生什么真的很难预料。现在整体来讲,全球人工智能还处于弱人工智能的时代,五年之后如果当强人工智能到来的时候,它对整个世界的颠覆到什么样的程度,我们都很难现在有明确的判断。有一点是很明确的,我们这些人工智能的技术发展,现在更多的围绕不同的社会痛点去解决一个社会问题,从这样一点一点事情出发,慢慢往先演化、推进。
如果再看强人工智能到来以后,人类该怎么办?我们要建这样一些基本的准则,人工智能原则的时候,我觉得应该要放弃现在传统社会治理里面因为地域,因为政治观点,因为文化宗教冲突所带来的局限性,我们应该放在一个全球化的视角。因为信息社会是没有地域限制,整个世界是一体的,从人类未来的角度,我们应该规范人工智能应该遵从的原则,在这样大的原则下,整个全球不同的国家推进这样一个科技的发展,才会有更美好的未来。