当前位置:首页|资讯|ChatGPT|法律

AI当律师?30年律师使用AI偷懒,遭法官质疑引用虚假案例

作者:科技时坛发布时间:2023-05-31

原标题:AI当律师?30年律师使用AI偷懒,遭法官质疑引用虚假案例

每日更新海内外科技资讯,关注我,不迷路!

在一起涉及航空公司的个人伤害诉讼案中,一名纽约律师使用了AI工具ChatGPT进行法律研究,并引用了一些并不存在的案例。这一行为引起了法官的怀疑和不满,要求其作出解释。

据英国广播公司(BBC)报道,ChatGPT是一种能够根据请求生成原创文本的AI工具,但它也有一个警告说明,它有时可能提供不准确的信息。

在原告诉讼团队提交的法律文件中,他们引用了多个过去的法院判例,试图建立先例并证明该案应该继续进行。然而,代表航空公司的对方律师后来致信法官,表示他们无法找到文件中提到的一些案例。

法官卡斯特尔(Castel)在一份命令中写道:“提交的案例中有六个似乎是虚假的司法决定,带有虚假的引用和虚假的内部引证。”此外,法官还要求原告诉讼团队作出解释。

经过多次提交,法庭发现,有问题的法律研究并非由原告律师彼得·洛杜卡(Peter LoDuca)进行,而是由他在同一律师事务所的一位同事进行的。史蒂文·A·施瓦茨(Steven A Schwartz)是一名有着30多年经验的律师,他使用了ChatGPT来搜索类似的先例。

在他的书面声明中,施瓦茨澄清说,洛杜卡并没有参与研究过程,也不知道它是如何进行的。他还表示,他不知道使用这种AI工具可能会产生不真实的信息的可能性。

法庭在一份宣誓书中承认,以下案例是不存在的:

  1. Varghese v. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)
  2. Shaboon v. Egyptair 2013 IL App (1st) 111279-U (Il App. Ct. 2013)
  3. Petersen v. Iran Air 905 F. Supp 2d 121 (D.D.C. 2012)
  4. Martinez v. Delta Airlines, Inc, 2019 WL 4639462 (Tex. App. Sept. 25, 2019)
  5. Estate of Durden v. KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. June 5, 2017)
  6. Miller v. United Airlines, Inc, 174 F.3d 366 (2d Cir. 1999)

这起诉讼案件目前仍在进行中,法庭将于6月1日举行听证会,审理原告诉讼团队的解释。

AI工具是否可靠?

这起案件引发了人们对AI工具可靠性和合法性的质疑。一些人认为,AI工具可以帮助律师提高效率和准确性,节省时间和成本。但另一些人则担心,AI工具可能会产生错误或误导性的信息,损害律师的职业道德和责任。

事实上,AI工具在法律领域的应用并不是什么新鲜事。根据《法律时报》(Law Times)的报道,加拿大已经有一些律师事务所使用了AI工具来进行法律研究、合同审查、预测案件结果等。

例如,ROSS Intelligence是一种基于自然语言处理的AI工具,可以帮助律师搜索相关的法律文件和判例。该工具声称可以提供比传统搜索引擎更精确和快速的结果。

然而,AI工具也不是万能的。它们仍然需要人类的监督和指导,以确保它们的输出符合法律标准和道德规范。

此外,AI工具也可能存在偏见或歧视的问题,因为它们的算法是基于人类编写的数据和规则。因此,使用AI工具的律师应该对其进行充分的审查和验证,以避免可能的风险和后果。

你认为AI工具在法律领域的应用有哪些优势和劣势?你是否会信任一个使用AI工具的律师?欢迎在评论区留言分享你的看法!


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1