谷歌近日对其生成式人工智能工具的使用政策进行了重要更新,明确放宽了在“高风险”领域,如医疗保健中,客户利用这些工具进行“自动决策”的限制,但前提是需要有人工监督。
根据谷歌周二发布的《生成式AI禁止使用政策》最新版本,客户在特定条件下,可以使用谷歌的生成式AI技术来做出可能对个人权利产生重大影响的“自动化决策”。这些领域包括就业、住房、保险以及社会福利等。只要这些决策过程中包含某种形式的人类监督,谷歌便允许其实施。
自动化决策在人工智能领域指的是AI系统基于数据或推断来作出的决策。例如,AI系统可能会根据申请人的数据来决定是否批准贷款,或者在招聘过程中筛选求职者。
值得注意的是,谷歌此前在条款草案中曾表示,涉及生成式AI的高风险自动化决策应全面禁止。然而,谷歌向外媒TechCrunch透露,实际上,只要有人工监督,高风险领域的自动化决策从未被完全禁止。
谷歌发言人对此解释称:“人工监督的要求一直存在,并且适用于所有高风险领域。我们只是重新分类了条款,并更清晰地列举了一些具体例子,以便用户更好地理解。”
监管机构对影响个人的自动化决策表示了关切,特别是担心AI系统可能存在的潜在偏见。研究表明,用于信用和抵押贷款审批的AI系统可能会加剧历史上存在的歧视问题。例如,某些AI系统可能会基于历史数据,对某些群体做出不公平的贷款审批决定。
谷歌此次的政策更新,无疑是在平衡技术进步与监管要求之间做出的努力。尽管放宽了在某些高风险领域使用生成式AI的限制,但谷歌依然强调了人工监督的重要性,以确保决策过程的公正性和准确性。