人工智能的风险讨论已经不再是新话题。在过去几年中,很多研究者提及了人工智能(以及与之紧密相关的技术,尤其是机器学习和大数据技术)可能带来的危害与风险。值得注意的现象是:在公众话语空间中,所流行的关于智能技术伦理危害与风险的讨论,大多将“人类”整体视为潜在的被害对象,大量的叙事被构建为“机器VS人类”的形式。
人类VS机器的讨论层出不穷,相关的小说、电影等也被大量的创作出来。
关于智能技术如何被当前的社会权力结构所主导,并反过来强化该结构,从而加深对弱势边缘群体的压迫,相关的讨论数量较少,且缺乏系统性。本文将展开关于智能技术伦理危害与风险的介绍,并着重讨论其如何强化社会与经济的不公正。
想象未来世界:全人类被毁灭的讨论
有关智能技术伦理危害与风险,部分讨论已进入流行文化空间,引起了大众的兴趣。通常,其以未来学的形式示人:试图推测人工智能技术成熟、尤其具备了自我完善的能力之后的未来图景。如超级智能、人工智能毁灭人类、技术奇点等讨论,引发了大众对其中伦理问题的广泛关注。
相关的讨论占据畅销行列,大众对人工智能的伦理问题也开始关注。
比起事关人类存亡、略带科幻感的宏大叙事,另一些相关的伦理危害与风险,正在更加现实中发生。例如智能技术对就业的影响,是一个经常被提及的主题。Kevin Kelly认为,机器在工作中对人的取代是一个不可逆的过程,有一些工作暂时只有人类能做或做得比机器更好,但机器终将胜过人类,绝大多数人类在几十年后,将不再需要从事生产工作。麦肯锡的一个研究,具体地列出了各种职业被机器取代的可能性,其中生产线工作、准备食物、包装物品等“可预测的物理工作”是最容易被机器取代的。
麦肯锡的报告更近一步,分析了哪些职业将被替代。
除了造成大面积结构性失业外,人们还担忧,赛博空间和物理空间的战争:控制了大量资源甚至自动化武器的人工智能,是否会攻击它们本不应该攻击的对象?这种危险甚至不必以战争的形式出现:考虑到它们已经在社会经济中扮演如此重要的角色,其错误行为(甚至只是不恰当的优化)是否会造成极端恶劣的结果?可以注意到,以上几类常见的讨论,总体上强调人工智能对人类整体的影响,并不凸显其对当前社会不同人群所造成的不同影响。
同样的趋势,也出现在对智能技术风险的分析中。众多此类分析聚焦于技术层面,而并未将社会和政治因素纳入考虑。例如斯坦福大学的研究者认为,通过机器学习尤其是深度学习得到的统计学模型,具有以下特征及安全隐患:
不透明:很难、甚至根本无法看懂其中的逻辑;
整体不可分:无法通过局部分拆理解输入输出之间的关系;
脆弱:输入的微小变化可能引起输出的重大且无法预测的变化;
不被充分理解。
作为对比,Weapons of Math Destruction一书作者Cathy O’Neil也提到了众多智能算法工具的危险的特征,其广泛影响着人们的日常工作与生活:
它们是秘密的,经常是某家公司的商业秘密;
它们是不透明的,被它们影响的人群不了解这些算法如何运行;
它们应用的范围很广;
它们对“成功”的定义值得置疑,被它们影响的人们未必赞同;
它们制造了有害的反馈环。
未来世界也在折叠?
相比前一组特征,O’Neil识别的特征具有一个值得注意的要点:特定的人群。她指出了一个极其重要、但绝非总是明显的问题:智能技术对人的影响是有区别的,同一个技术可能让一部分人受益、同时让另一部分人受损。2010年在伊利诺伊州开始实施的教师绩效评估算法,引发了芝加哥教师的广泛反对乃至游行抗议,这就是一个实例。
芝加哥教师反对教师绩效评估的算法
正如Linnet Taylor不无洞见地指出,在进行伦理评估时,人们倾向于抽象地谈论智能技术可能造成的伤害,而具体地谈论它带来的收益,于是实在的收益总能压倒模糊未知的伤害,从而使项目通过评估。通过将社会和政治因素纳入讨论范围,O’Neil所提出的对具体人群的关注,给了我们一个重要的视角,来重新审视智能技术可能带来的损害和风险。
自此,我们首先可以注意到,智能技术对劳动力市场的影响并非均质。Erik Brynjolfsson和Andrew McAfee在《与机器赛跑》中指出,教育程度较低、薪酬较低的劳动者更易被智能技术取代,同时他们也更难以获得新的职业技能,因而这群劳动者在结构性失业中受到的损害被加重;Paul Krugman一针见血地指出,全能且高效的工作机器人(workbot)的出现,未必会让世界变得美好,因为没有能力拥有机器人的那些人,处境将非常悲惨。尽管这方面的研究还很少,但现有的一些研究显示:在高度自动化、智能化的工作环境下,教育和技能水平较低的劳动者,正在面临劳动环境恶化、劳动强度增大、收入降低、缺乏劳动和社会保障等挑战,此种现象在“分享经济”形态中普遍可见。在一些极端的情况下,劳动者被异化成“数字机器上的幽灵”和“生产线上的奴隶”。
作者邱林川讨论了新形势下的奴隶—i奴
另外,智能技术可能正在加深对社会弱势群体的偏见和歧视。Wendy Chun认为“机器学习就像偏见的洗钱”,通过机器学习,偏见和歧视被包装成模型和算法,使不公正变得更加隐秘而影响深远:职场社交网站LinkedIn的搜索引擎更青睐男性求职者,Google的广告平台Adsense存在种族偏见,饱受争议的“预测性执法”(predictive policing)对非裔美国人和穆斯林形成结构性歧视,低收入人群会因为智能技术更难从贫困中逃脱。性别、种族、宗教信仰、收入……现实中的各种偏见与歧视,似乎都在智能技术中找到了落脚点。
除此以外,智能技术还被用于控制大众情绪。通过操控用户从新闻订阅渠道看到的信息,Facebook成功地调节了用户发帖的情绪,从而证明情绪可以在大量在线用户之间传染。一份曝光的材料显示,JTRIG(联合威胁研究智能小组,隶属于英国情报和国家安全机关政府通信总部)已经在通过Youtube、Facebook、Twitter、博客、论坛、电子邮件、短信、自建网站等渠道操纵大众情绪,从而消除“犯罪、安全和国防威胁”。在政治领域,智能技术可以诱导选民做出片面的判断(Cathy O’Neil在2015年的发言);而在商业领域,其向消费者灌输消费理念,使他们成为对不断更新换代的消费品上瘾的“被制造的奴隶”(manufactured slave)。
JTRIG(Joint Threat Research Intelligence Group)是GCHQ(Government Communications Headquarters政府通讯总部)的一部分,图片来源:网络
早在1980年代中期,研究者们就围绕“计算机伦理是否具有独特性”这一问题展开讨论。Johnson认为,计算机伦理只是把标准的道德问题以新形式呈现,逼迫我们在新的领域中延续旧的道德规范,它本身不是一个独特的新题目。而James Moor则认为,计算机会大幅度转化/强化现有的伦理问题,并且造成过去未曾出现过的新伦理问题,因此计算机伦理本身就是一个独特的新题目。
这两种观点,对于我们全面认识智能技术的伦理问题,有着重要的启发意义。我们既需要充分了解智能技术的独特性,及其对伦理问题带来的独特影响,又必须认清新技术背后潜藏的旧有冲突、斗争和伦理准则,这样才能准确把握智能技术的伦理方向,使其向着对广大民众有益的方向发展。