美国律师使用 ChatGPT 进行案例研究,最终在法律摘要中引用了虚假案件
5 月 26 日,美国纽约南区法院向律师 Peter LoDuca 和 Steven A. Schwartz 以及他们所在的律师事务所 Levidow, Levidow & Oberman, PC发出了一份说明原因通知,原因是该律师事务所目前正在代理的 Robert Mata 诉 Avianca Airline Inc 案中收到了由人工智能生成的虚假案件作为辩护。这两位律师和他们的律师事务所必须在 6 月 8 日出庭说明原因,并说明为什么不应根据《联邦民事诉讼法》第 11(b)(2) 和 (c) 条、(2) 28 USC § 1927(要求律师在向法院提交诉讼之前审查诉讼的是非曲直)和引用欺诈性案件对他们实施制裁。虽然已经向 LoDuca、Schwartz 和律师事务所发出了说明原因通知,但负责添加虚假案件的人正是 Schwartz。施瓦茨表示,洛杜卡没有参与这项研究,也不知道这项研究是如何进行的。
为什么重要:
人工智能生成的案件似乎足够可信,以至于Schwartz 引用了它们,这一事实告诉我们,人们对生成人工智能产生错误信息/虚假信息的能力存在严重担忧。虽然这些虚假案件最终被发现,但值得注意的是,对这些案件进行事实核查的过程会占用案件审理的时间。正如法律格言“迟来的正义就是否定正义”所暗示的那样,在严重案件中,花在事实核查上的时间可能会导致解决方案无效。
ChatGPT中文网页版
本月初,纽约大学教授 Gary Marcus分享了人工智能如何在美国参议院隐私、司法和法律小组委员会举行的听证会上作为证人时生成虚假证据,这一话题甚至引发了人们对人工智能生成法律错误信息问题的讨论。随着这一事件的曝光,人们不禁要问,ChatGPT 和其他人工智能模型将对世界各地的法院造成多大的破坏。
请给我一些背景信息:
2022 年,罗伯特·马塔 (Robert Mata) 起诉哥伦比亚航空 (Avianca Airline),要求赔偿他在 2019 年乘坐哥伦比亚航空航班时所受的人身伤害。他的律师提交了一份长达十页的辩护状(据《纽约时报》报道)来支持该案件,其中引用了六个有相关法院判决的案件。
Avianca 航空公司的法律顾问审查了这份简报,并写信给负责此案的法官 P. Kevin Castel,指出简报中列出的许多案件都很难找到和核实。它们之所以如此难以核实,是因为它们并不真实。准备这份简报的律师 Steven A. Schwartz提交了一份宣誓书,称他使用 ChatGPT 来补充他的法律研究。他表示,简报中使用的以下法院案件并不存在:
- Varghese 诉中国南方航空有限公司,925 F.3d 1339(第 11 巡回法院,2019 年)
- 沙布恩夫。埃及 2013 IL 应用程序(第一)1112
- 彼得森诉伊朗航空 905 F. Supp 2d 121 (DDC 2012)
- 马丁内斯诉达美航空公司,2019 WL 4639462(德克萨斯州上诉法院,2019 年 9 月 25 日)
- Durden 遗产诉荷兰皇家航空公司,2017 WL 2418825(佐治亚州上诉法院,2017 年 6 月 5 日)
- 米勒诉美国联合航空公司案,174 F.3d 366(第二巡回法院 1999 年)
施瓦茨对使用虚假信息的辩护:
Schwartz 表示,ChatGPT 为所有这些案件提供了法律来源和引证。他表示,他之前从未使用过该 AI 工具进行法律研究,因此不知道内容可能是虚假的。但他对未核实 ChatGPT 提供的来源负有全部责任。