Nature:为什么生成式AI要开源?纽约大学教授发文,“科学发展的道德之路”

来源:Nature

作者:Arthur Spirling,纽约大学政治与数据科学教授

似乎每天都会有一个新的大型语言模型(LLM)诞生,其创造者和学术界也都会对其呼应人类提示的非凡才能进行疯狂般的评论。它能够修正代码!它能够写一封引荐信!它能快速总结一篇文章!

我是一名正在运用和教授此类模型的政治和数据科学家,从我的视点来看,学者们需求对 LLM 持慎重态度。最广受吹捧的 LLMs 是专有的和关闭的:由商业公司运营,不揭露其基础模型,无法供别人独立查看或验证,研讨人员和公众不知道这些模型是在哪些文件上练习的。

急于将此类人工智能(AI)模型纳入研讨是一个问题。它们的运用威胁着来之不易的研讨伦理学进展和成果的可重复性。

相反,研讨人员需求通力协作,开发通明的、不依赖公司的开源 LLM。

固然,专有模型很方便,“开箱即用”。可是,当务之急是投资于开源的 LLM,既要协助树立它们,又要将它们用于研讨。我很达观地以为,它们将被广泛采用,就像开源计算软件相同,专有的计算程序在最初会很受欢迎,但现在社区大多运用的是 R 或 Python 等开源渠道

一个开源的 LLM,BLOOM,已于去年 7 月发布,其他树立开源 LLM 的尽力也在进行中。这类项目很好,但我以为我们需求更多的协作,并汇集世界资源和专业知识。开源的 LLM 的资金通常不如大公司足够。并且,他们还需求在奔驰中站稳脚跟:这个范畴的发展如此之快,以至于 LLM 的一个版别在几周或几个月内就变得过时了。参加这些尽力的学者,越多越好。

并且,运用开源的 LLM 对可重复性至关重要。关闭式 LLM 的所有者能够在任何时候改变他们的产品或其练习数据——这能够改变科学研讨的成果。

例如,一个研讨小组或许会宣布一篇论文,测试一个专有的 LLM 给出的主张是否能够协助临床医师更有效地与患者交流。**假如另一个小组企图仿制这项研讨,他们不知道模型的基础练习数据是否相同,甚至该技能是否仍然得到支撑。**OpenAI 的 GPT-3 现已被 GPT-4 所替代,支撑早期版别的 LLM 将不再是该公司的首要优先事项。

相比之下,对于开源的 LLM,研讨人员能够查看模型的很多细节,以了解它是怎么工作的,定制它的代码并标记错误。这些细节包括模型的可调整参数和它所练习的数据。社区的参与和监督有助于使这些模型长期保持稳定。

此外,**在科学研讨中运用专有的 LLM 对研讨伦理也有令人不安的影响。**用于练习这些模型的文本是不知道的:它们或许包括交际媒体渠道上用户之间的直接消息,或由在法律上无法赞同共享其数据的儿童编写的内容。尽管制造揭露文本的人们或许现已赞同了渠道的服务条款,但这或许不是研讨人员期望看到的知情赞同标准。

在我看来,科学家应尽或许在自己的工作中不再运用这些模型。我们应该转而运用开放的 LLM,并尽力推行它们。此外,学者们,尤其是那些具有很多交际媒体粉丝的学者,不应该告知别人运用专有模型。假如价格飙升,或许公司关闭,研讨人员或许会懊悔推行了那些让同事被困在昂贵合同中的技能。

目前,研讨人员能够求助于私人安排制造的开放式 LLM。例如,我和我的同事们正在运用 Meta 公司的开放式 LLM OPT-175B。LLaMA 和 OPT-175B 都是免费运用的。但从久远来看,这样做的坏处是使科学依赖于企业的 “仁慈”,这是一个充满不稳定性的局面。

因此,应该有与 LLM 协作的学术行为准则,以及监管。但这些都需求时刻。我估计,这种规则最初会很笨拙,并且收效缓慢。

一起,大规模的协作项目迫切需求支撑,为研讨练习开源模型。政府应该经过拨款添加资金。该范畴正在以闪电般的速度发展,现在需求开始协调国家和世界的尽力。科学界最适合评价由此发生的模型的危险,且需求慎重向公众引荐这些模型**。**

可是很明显,开放的环境才是正确的。

原文链接:

www.nature.com/articles/d4…

|点击重视我 记得标星|