梦晨 发自 凹非寺 量子位 | 公众号 QbitAI

主动测验分数到达ChatGPT的99.3%人类难以分辨两者的答复……

这是开源大模型最新成果,来自羊驼家族的又一重磅成员——华盛顿大学原驼(Guanaco)。

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

关键的是,与原驼一同提出的新办法QLoRA把微调大模型的显存需求从>780GB降低到<48GB

开源社区直接开端狂欢,相关论文成为24小时内重视度最高的AI论文。

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

以Meta的美洲驼LLaMA为基础,得到原驼650亿参数版只需要48GB显存单卡微调24小时330亿参数版只需要24GB显存单卡微调12小时

24GB显存,也就是一块消费级RTX3090或RTX4090显卡足以。

不少网友在测验后也表明,更喜爱它而不是ChatGPT。

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

英伟达科学家Jim Fan博士对此点评为:大模型小型化的又一里程碑。

先扩展规划再缩小,将成为开源AI社区的节奏。

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

而新的高效微调办法QLoRA迅速被开源社区承受,HuggingFace也在第一时间整合上线了相关代码。

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

GPT-4做裁判,原驼得分到达ChatGPT的99.3%

论文中,团队对原驼总共做了三项测验,主动评价、随机匹配和人类评价。

测验数据来自羊羔驼Vicuna和Open Assistant。

主动评价由大模型天花板GPT-4当裁判,对不同模型的答复进行打分,以ChatGPT(GPT3.5)的成绩作为100%。

终究原驼650亿版得分到达ChatGPT的99.3%,而GPT-4自己的得分是114.5%,谷歌Bard是94.8%。

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

随机匹配,采用棋类专业比赛和电子竞技同款的Elo记分机制,由GPT-4和人类一起做裁判。

原驼650亿和330亿版终究得分超越ChatGPT(GPT3.5)。

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

人类评价,则是把原驼650亿版的答复和ChatGPT的答复匿名乱序放在一同,人类来盲选哪个最好。

论文一起一作表明,研讨团队里的人都很难分辨出来,并把测验做成了一个小游戏放在Colab上,开放给我们应战。

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

这儿节选其间一个问题(附中文翻译),你能分辨出哪个是ChatGPT答复的吗?

问题:How can I improve my time management skills?(如何进步时间管理技术?)

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

(完好测验地址在文末)

总的来说,原驼的优势在于不容易被问题中的错误信息误导,比如能指出地球从来没有被科学界认为是平的。

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

以及拿手心智理论(Theory of Mind),也就是能推测理解别人的心理状态

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

但原驼也并非没有缺点,团队发发现它不太拿手数学,以及容易用提示注入攻击把要求保密的信息从它嘴里套出来。

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

也有网友表明,尽管一个模型能在某个数据集上无限挨近ChatGPT,但像ChatGPT那样通用仍是很难的。

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

全新办法QLoRA,iPhone都能微调大模型了

原驼论文的中心贡献是提出新的微调办法QLoRA

其间Q代表量化(Quantization),用低精度数据类型去逼近神经网络中的高精度浮点数,以进步运算功率。

LoRA是微软团队在2021年提出的低秩适应(Low-Rank Adaptation)高效微调办法,LoRA后来被移植到AI绘画范畴更被大众熟知,但最早其实就是用于大语言模型的。

通常来说,LoRA微调与全量微调比较作用会更差,但团队将LoRA添加到一切的线性层处理了这个问题。

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

具体来说,QLoRA结合了4-bit量化和LoRA,以及团队新创的三个技巧:新数据类型4-bit NormalFloat分页优化器(Paged Optimizers)和双重量化(Double Quantization)。

终究QLoRA让4-bit的原驼在一切场景和规划的测验中匹配16-bit的功能

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

QLoRA的高功率,让团队在华盛顿大学的小型GPU集群上每天能够微调LLaMA 100屡次……

终究运用Open Assistant数据集微调的版别功能胜出,成为原驼大模型。

Open Assistant数据集来自非盈利研讨安排LAION(练习Stable Diffusion的数据集也来自这儿),尽管只要9000个样本但质量很高,通过开源社区的人工仔细验证。

这9000条样本用于微调大模型,比100万条指令微调(Instruction Finetune)样本的谷歌FLAN v2作用还好。

研讨团队也据此提出两个关键结论:

  • 数据质量 >> 数据数量
  • 指令微调有利于推理,但不利于聊天

最后,QLoRA的高功率,还意味着能够用在手机上,论文一起一作Tim Dettmers估量以iPhone 12 Plus的算力每个晚上能微调300万个单词的数据量。

这意味着,很快手机上的每个App都能用上专用大模型。

跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了

论文:
arxiv.org/abs/2305.14…

GitHub:
github.com/artidoro/ql…

与ChatGPT对比测验:
colab.research.google.com/drive/1kK6x…

330亿参数版在线试玩:
huggingface.co/spaces/uwnl…

参考链接:
[1]twitter.com/Tim_Dettmer…
[2]huggingface.co/blog/4bit-t…