2023-05-28 14:10:56 作者:姚立伟
一名律师在法庭案件中使用聊天机器人 ChatGPT 进行法律文献检索,导致提交了错误的信息。该案件涉及一名男子因个人受伤而起诉一家航空公司,原告的法律团队提交了一份简短的诉讼文件,引用了几个先前的法院案例来支持他们的论点。
[#zolsplit_eca_zolecjd电商推广区域分隔符开始#]
[经销商]
[产品售价]
[#zolsplit_ecb电商推广区域分隔符结束#]
然而,航空公司的律师发现其中一些引用的案例并不存在,并立即通知了主审法官。原告律师承认自己使用了 ChatGPT 来搜索类似的法律先例,在调查后发现 ChatGPT 捏造了 6 个不存在的案例。事件引发了法律界对于人工智能工具在法律研究中适当使用的讨论,以及制定全面指导方针以防止类似情况发生的需求。