近日,美国一家颇具声望的个人伤害律师事务所Morgan & Morgan向其庞大的律师团队发出了紧急警示。这封邮件的内容直指一个新兴的技术风险:人工智能(AI)能够创造出虚假的判例信息。若律师在法庭文件中不慎使用了这些虚假内容,将面临被解雇的严重后果。
这一警告的背景是,怀俄明州的一名联邦法官曾对Morgan & Morgan的两名律师提出制裁威胁。原因在于,他们在起诉沃尔玛的一起案件中,错误地引用了并不存在的判例。其中一名律师后来承认,他使用了一款能够“创造”案件的AI程序,并为此表示歉意。
据路透社的调查,全美多个法院在过去两年内已对至少七起案件中的律师进行了质疑或纪律处分,原因都与AI在法律文件中生成虚假信息有关。这一趋势给诉讼双方和法官都带来了不小的困扰。
然而,尽管存在这样的风险,许多律师事务所仍然选择与AI供应商合作,或自行开发AI工具,以缩短律师的研究和撰写时间。汤森路透的调查数据显示,去年有63%的律师在工作中使用了AI,其中12%的律师更是定期使用。
但问题在于,生成式AI以“自信地编造事实”而闻名。法律专家指出,律师在使用AI时必须格外谨慎。AI有时会像产生“幻觉”一样生成虚假信息,这是因为它们是基于从大量数据中学习到的统计模式进行生成的,而不是通过验证事实的准确性。
律师道德规范要求律师对其提交的法庭文件负责,并进行核实。美国律师协会去年曾向全体会员发出通知,即使是AI生成的“无意错误”,也必须遵守这一义务。萨福克大学法学院院长Andrew Perlman对此表示:“尽管法律研究工具发生了变化,但后果并没有改变。当律师在没有核实的情况下使用ChatGPT或任何生成式AI工具来编造引用时,这就是不称职。”
Perlman不仅是这一观点的倡导者,还是利用AI提升法律工作效率的专家。他强调,律师在使用AI时,必须保持高度的警觉性和责任感,以确保法庭文件的真实性和准确性。
Perlman还建议,律师事务所应加强对律师的培训和指导,提高他们对AI技术的认知和使用能力,以避免因技术风险而引发的法律纠纷和职业道德问题。