【新智元导读】ChatGPT又有什么错呢?美国律师向法院提交的文件中,竟引用了6个底子不存在的事例,反倒惹祸上身被制裁。

ChatGPT,真的不可信!

在美国近来的一申述讼案子中,一位律师帮原告打官司,引用了ChatGPT伪造的6个不存在的事例。

法官当庭指出,律师的辩解状是一个彻头彻尾的谎言,几乎离了大谱。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

可是,律师为自己辩解中,乃至提交了和ChatGPT谈天截图的依据。

明显,ChatGPT称「这些事例都是真实存在的」。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

本为原告打的官司,自己竟惹祸上身,将受到制裁,这波操作瞬间在网上引起轩然大波。

毕竟,GPT-4刚诞生时,OpenAI放出它在律师资格考试(UBE)的成果,还拿到了90分。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

网友正告,千万不要用ChatGPT进行法律研讨!!!

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

还有人戏称,要怪就怪你的prompt不可。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

律师供认运用ChatGPT

这申述讼的起始和其他许多案子一样。

一位名叫Roberto Mata的男人在飞往纽约肯尼迪国际机场的航班上,不幸被一辆餐车撞到膝盖,导致受伤。

由此,他便要申述这架航班的「哥伦比亚航空公司」(Avianca)。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

Mata聘请了Levidow,Levidow & Oberman律所的一位律师来替自己打这个官司。

接手案子后,律师Steven A. Schwartz向法院提交了一份10页的辩解状。其中,引用了6个相关的法院判定:

Varghese V. 中国南方航空公司

Shaboon V. 埃及航空公司

Petersen V. 伊朗航空公司

Martinez 达美航空公司

Estate of Durden V. 荷兰皇家航空公司

Miller V. 美国联合航空公司

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

原文件:

storage.courtlistener.com/recap/gov.u…

可是,让所有人震惊的是,从案子本身,到司法判定,再到内部引文,满是假的!

为什么假?因为是ChatGPT生成的。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

这不,麻烦就来了。

目前,对方律师考虑举行听证会,对原告律师进行制裁。

Schwartz律师,可以说现已非常资深,在纽约从事法律工作已有30年。

从他的话中得知,自己吃了大亏,竟是历来没用过ChatGPT,由此没有意识到它生成的内容是假的。说来,仍是太离谱

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

原告律师Steven A. Schwartz在一份宣誓书中供认,他的确用了ChatGPT进行相关研讨。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

为了验证这些案子的真实性,他做了仅有一件合理的事:让ChatGPT验证这些案子的真实性。

他告诉法官,「自己无意欺骗法庭或航空公司」。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄
GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

当他问询ChatGPT这些案子的来历时,ChatGPT先是为之前的表述不清道歉,但仍是坚称这些案子都是真实的,可以在Westlaw和LexisNexis上找到。

而对方律师也相同坚持,来自Levidow & Oberman律师事务所的原告律师是多么荒唐可笑,由此才引发了法庭对这个细节的重视。

在其中一个事例中,有个叫Varghese的人申述中国南方航空有限公司。可是这件事压根不存在。

ChatGPT好像引用了另一个案子——Zicherman申述大韩航空有限公司。而ChatGPT把日期、案子细节什么的都搞错了。

Schwartz此时才懊悔地表明,他没有意识到ChatGPT或许供给假案子,现在他非常懊悔用生成式AI来进行法律研讨。

法官表明,这种情况前所未见,并将于6月8日举行听证会,评论或许的制裁措施。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

这件事情再次体现了一个很重要的现实,那就是用完ChatGPT必须用其它来历进行两层,乃至三重查验。

而AI模型在信息输入上呈现重大现实错误现已不是第一次了,谷歌的Bard也遇到过这种问题。

90分?GPT-4成果被夸张

还记得GPT-4刚刚发布那天,「小镇做题家」在各项考试指标上挨近满分的水平。

特别,在美国统一律师资格考试(UBE)中,GPT-4可以拿到90%水平,而ChatGPT(GPT-3.5)也仅拿到10%的分数。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

可是,没过多久,来自MIT的研讨人员Eric Martnez发了一篇论文,重新评估了GPT-4在Bar考试中的体现。

论文直言,GPT-4的律师考试成果被夸张了。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

论文地址:papers.ssrn.com/sol3/papers…

作者在文中提出了4组发现,表明OpenAI对GPT-4在UBE的体现,虽然明显比GPT-3.5有令人形象深刻的飞跃,但似乎过于夸张。

特别是,假如被当作代表「百分位数下限范围」的保存估计。更不用说,意在反映一位执业律师的实践才能了。

首要,GPT-4的律师考试成果,是与2月份伊利诺伊州律师考试的应试者相比较的。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

值得注意的是,这些考生都是复读生,不难了解,他们的分数或许会更差。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

其次,最近一次七月份考试的数据表明,GPT-4的UBE成果为68%。

第三,经过查看官方NCBE数据,并运用若干保存的统计假设,估计GPT-4在所有初次考试中实现63%。

最后,当只考虑那些经过考试的人(即已获得答应或待答应的律师)时,估计GPT-4的体现将下降到48%。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

网友称,更精确来说,GPT-4应该只有63分,或许68分。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

文中,作者还供给了深刻的见解,探讨了将法律使命外包给AI模型的可取性和可行性。

乃至,人工智能开发人员施行严厉和透明的才能评估,以帮助确保安全和可靠的人工智能的重要性。

要是,原告的那位律师看过这项研讨后,说不定就不会吃大亏了。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

ChatGPT胡言乱语

归根到底,ChatGPT可以编造出6个不在的事例,仍是因为它固有的「错觉」问题。

直白来讲,就是张口胡言乱语的天性所造成的。

就连马斯克都想拯救这个致命的问题,官宣推出了名为TruthGPT的AI渠道。

马斯克曾表明,TruthGPT将是一个「最大的求真人工智能」,它将企图了解世界的实质。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

可是,别管什么GPT,错觉很难搞定。

前段时间,OpenAI联合创始人兼研讨员John Schulman在演讲「RL and Truthfulness – Towards TruthGPT」中,评论了错觉发生的原因以及解决方案

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

依据Schulman的说法,错觉大致可以分为两种类型:

1 模式完结行为,即言语模型无法表达自己的不确定性,无法质疑提示中的前提,或许继续之前犯的错误

2 模型猜测错误

言语模型代表一种常识图谱,该图谱将练习数据中的现实存储在自己的网络中。而微调可以了解为「学习一个函数」,可以在常识图谱上操作并输出token猜测。

比方,微调数据会集,假如有包括「星球大战是什么片?」这个问题,以及「科幻」这个答案。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

要是这一信息在原始练习数据中存在,那么模型就不会学习新信息,而是学习一种行为——输出答案。而这种微调也被称为「行为克隆」。

假如「星球大战是什么片?」这一问题的答案不是原始练习数据的一部分。即便不知道,模型也会学习正确答案。

但问题是,运用这些不在常识图谱中的答案进行微调,就会让模型学会编造答案,即发生所谓的「错觉」。

相反,要是用不正确的答案去练习模型,就会导致模型常识网络隐瞒信息。

网友热评

此事一出,各位网友也是各抒己见。

Kim表明,不光是ChatGPT,其实人类也爱用想象来弥补常识盲区。只不过ChatGPT能装的更传神。关键在于,要搞清楚ChatGPT知道什么、不知道什么。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

Zero提出了一个很有建设性的提议,那就是:以后ChatGPT再举事例,后面得附上来历链接。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

Francis表明,早说过了,ChatGPT是一种生成式人工智能。意味着它会依据输入的问题生成答复。无论它有多能模仿人类在了解问题后的精彩答复,也改动不了ChatGPT本身并不了解这个问题的现实。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

Tricorn认为,这位原告律师不应该把锅扔给ChatGPT,是他自己用错了。应该是把事例当作prompt的一部分输入进去,然后让ChatGPT填补中间缺环的证明部分。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

还有网友称,用ChatGPT要上点心,要不下一个超级碗就是你了。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

这就是活灵活现的依据。ChatGPT等人工智能工具做人类的工作,真的是或许直接导致咱们的大灾难。

GPT-4考90分全假!30年资深律师用ChatGPT打官司,6个虚假案例成笑柄

对于ChatGPT这个体现,你怎么看?

参考资料:

www.theverge.com/2023/5/27/2…

www.nytimes.com/2023/05/27/…