每日更新海内外科技资讯,关注我,不迷路!
在一起涉及航空公司的个人伤害诉讼案中,一名纽约律师使用了AI工具ChatGPT进行法律研究,并引用了一些并不存在的案例。这一行为引起了法官的怀疑和不满,要求其作出解释。
据英国广播公司(BBC)报道,ChatGPT是一种能够根据请求生成原创文本的AI工具,但它也有一个警告说明,它有时可能提供不准确的信息。
在原告诉讼团队提交的法律文件中,他们引用了多个过去的法院判例,试图建立先例并证明该案应该继续进行。然而,代表航空公司的对方律师后来致信法官,表示他们无法找到文件中提到的一些案例。
法官卡斯特尔(Castel)在一份命令中写道:“提交的案例中有六个似乎是虚假的司法决定,带有虚假的引用和虚假的内部引证。”此外,法官还要求原告诉讼团队作出解释。
经过多次提交,法庭发现,有问题的法律研究并非由原告律师彼得·洛杜卡(Peter LoDuca)进行,而是由他在同一律师事务所的一位同事进行的。史蒂文·A·施瓦茨(Steven A Schwartz)是一名有着30多年经验的律师,他使用了ChatGPT来搜索类似的先例。
在他的书面声明中,施瓦茨澄清说,洛杜卡并没有参与研究过程,也不知道它是如何进行的。他还表示,他不知道使用这种AI工具可能会产生不真实的信息的可能性。
法庭在一份宣誓书中承认,以下案例是不存在的:
这起诉讼案件目前仍在进行中,法庭将于6月1日举行听证会,审理原告诉讼团队的解释。
AI工具是否可靠?
这起案件引发了人们对AI工具可靠性和合法性的质疑。一些人认为,AI工具可以帮助律师提高效率和准确性,节省时间和成本。但另一些人则担心,AI工具可能会产生错误或误导性的信息,损害律师的职业道德和责任。
事实上,AI工具在法律领域的应用并不是什么新鲜事。根据《法律时报》(Law Times)的报道,加拿大已经有一些律师事务所使用了AI工具来进行法律研究、合同审查、预测案件结果等。
例如,ROSS Intelligence是一种基于自然语言处理的AI工具,可以帮助律师搜索相关的法律文件和判例。该工具声称可以提供比传统搜索引擎更精确和快速的结果。
然而,AI工具也不是万能的。它们仍然需要人类的监督和指导,以确保它们的输出符合法律标准和道德规范。
此外,AI工具也可能存在偏见或歧视的问题,因为它们的算法是基于人类编写的数据和规则。因此,使用AI工具的律师应该对其进行充分的审查和验证,以避免可能的风险和后果。
你认为AI工具在法律领域的应用有哪些优势和劣势?你是否会信任一个使用AI工具的律师?欢迎在评论区留言分享你的看法!