前言 具有自己的 AI 大模型!开源项目 LMFlow 支撑上千种模型,供给全流程高效练习方案。

本文转载自机器之心

仅用于学术共享,若侵权请联系删去

欢迎重视大众号CV技能攻略,专注于核算机视觉的技能总结、最新技能跟踪、经典论文解读、CV招聘信息。

CV各大方向专栏与各个布置结构最全教程整理

核算机视觉入门1v3辅导班

2022 年 11 月 30 日,OpenAI 推出 ChatGPT,令人没想到的是,这个对话模型在 AI 圈掀起一股又一股评论狂潮。英伟达 CEO 黄仁勋将其比方为人工智能范畴的 iPhone 时刻;比尔・盖茨盛赞 ChatGPT 在人工智能历史上的含义不亚于 PC 或互联网的诞生。

虽然 ChatGPT 在各个方面体现惊人,但其高昂的练习本钱以及海量的练习数据等,都给想要进入该范畴的人设下层层关卡。就拿算力来说,ChatGPT 经由微软专门建设的 AI 核算体系练习,总算力耗费约为 3640 PF-days。而在推理阶段,以本年 1 月份独立访客平均数 1300 万核算,ChatGPT 对应的芯片需求为 3 万多块英伟达 A100 GPU,初始投入本钱约为 8 亿美元,每天光是花掉的电费就要 5 万美元。就连科技巨头微软在帮 OpenAI 打造 ChatGPT 时都因为算力缺乏而被逼暂停了一些其他项目。

科技大厂尚且如此,关于一般人来说更是难上加难。

因而在 ChatGPT 问世的这段时刻里,许多人开端对科研的方向和未来感到苍茫:如何能够参加通用人工智能研讨,在这个新的年代找到自己的优势?很多人都期望有能力练习一个只归于自己的 AI 大模型,但虽然国内外已有许多类 GPT 产品,关于一般的学者、研讨者和程序员来说,这样的产品仍缺乏以习惯每一个人的需求。一方面,从头预练习的本钱是咱们一般人和小规划公司所无法接受的。另一方面,根据 API 的黑盒封装不是完美的解决方案。虽然咱们能够很容易地根据 API 开发自己的运用,但运用作用和自定义程度往往不尽人意。因而,从头预练习和根据 API 开发都不是最佳办法。

接下来咱们为我们介绍的开源项目 LMFlow,不需要从头预练习,只需要以 finetune 作为切入点即可。

3090单卡5小时,每个人都能训练专属ChatGPT,港科大开源LMFlow

项目地址:github.com/OptimalScal…

项目介绍

该项目由香港科技大学统计和机器学习实验室团队建议,致力于建立一个全开放的大模型研讨渠道,支撑有限机器资源下的各类实验,并且在渠道上提高现有的数据运用办法和优化算法功率,让渠道发展成一个比之前办法更高效的大模型练习体系。

此外,该项意图最终意图是协助每个人都能够用尽量少的资源来练习一个专有范畴的、个性化的大模型,以此来推进大模型的研讨和运用落地。

在 LMFlow 的加持下,即便是有限的核算资源,也能让运用者针对专有范畴支撑个性化练习。根据 70 亿参数的 LLaMA,只需 1 张 3090、耗时 5 个小时,就能够练习一个专归于自己的个性化 GPT,并完结网页端布置。开源库作者们已经运用这个结构单机练习 330 亿参数的 LLaMA 中文版,并开源了模型权重用于学术研讨。练习得到的模型权重能够经过该网页端立刻体会问答服务 (lmflow.com)。

lmflow.com 地址:lmflow.com/运用 LMFlow,你也有能力练习一个只归于自己的模型!每个人能够根据自己的资源合理选择练习的模型,用于问答、陪伴、写作、翻译、专家范畴咨询等各种任务。模型和数据量越大,练习时刻越长,作用越佳。现在该研讨也在练习更大参数量(650 亿)和更大数据量的中文版模型,作用还会继续提高。

其实,很早之前 LMFlow 的作者们就已认识到 finetune 的重要性。InstructGPT [1] 中就涵盖了 supervised fine-tuning 和 alignment(比方 RLHF)这两种 finetune 技能。然而,现在的开源代码库要么聚集于某个模型(比方 LLaMA [2]),要么聚集于某种特定的技能(比方 instruction tuning)。还没有一个库能够支撑在海量模型上快速运用多种 finetune 技能。

现在,LMFlow 迈出了这个方向的第一步。通常,ChatGPT 的练习包括至少以下几个过程:pretrain → supervised tuning → instruction tuning → alignment。LMFlow 库运用现有的开源大模型,支撑这套流程的一切环节和灵敏组合。这意味着 LMFlow 库为咱们建立了一条通向完好练习链的桥梁。

3090单卡5小时,每个人都能训练专属ChatGPT,港科大开源LMFlow

接下来咱们来了解一下实际运用 LMFlow 的体会。运用体会

据作者介绍,LMFlow 具有四大特性:可扩展、轻量级、定制化和完全开源。根据此,用户能够很快地练习自己的模型并继续进行二次迭代。这些模型不仅限于最近盛行的 LLaMA,也包括 GPT-2、Galactica 等模型。

3090单卡5小时,每个人都能训练专属ChatGPT,港科大开源LMFlow

前面咱们已经说到:根据该开源库,用户只需运用单卡 3090,就能对 LLaMA-7b 模型进行微调,用时 5 个小时练习得到一个能够流通对话的问答模型。进一步,如果运用更多资源对更大的 LLaMA-33b 模型进行微调,即可大大提高答复的质量!

3090单卡5小时,每个人都能训练专属ChatGPT,港科大开源LMFlow

不仅如此,在特定的专家范畴(以医疗为例),只需微调 6 个 A100 * 天,就能够取得和 ChatGPT 相当甚至更好的作用。值得注意的是,ChatGPT 则具有 1750 亿的参数量,而这儿功能相当的最小模型规划只要不到二十分之一,大大节省核算资源。

3090单卡5小时,每个人都能训练专属ChatGPT,港科大开源LMFlow

接下来是真正的上手实验。运用 conda 装置必要的依赖后,即可上手体会。

3090单卡5小时,每个人都能训练专属ChatGPT,港科大开源LMFlow

装置和预备数据集的过程十分顺利,如此便捷是因为作者们贴心肠供给了一键下载数据集的办法。只需要运转一个 bash 脚本就能下载所需的数据集,十分便利!

3090单卡5小时,每个人都能训练专属ChatGPT,港科大开源LMFlow

预备好了数据集之后,接下来就是模型练习。练习过程也大大简化,一般用户只需要执行一次 bash 脚本,即可轻松完结(十分适合小白入坑)。作者们还开放了练习好的模型下载,如果你不想自己练习模型,能够下载作者供给的 checkpoint 并进行推理。

3090单卡5小时,每个人都能训练专属ChatGPT,港科大开源LMFlow

在此基础上,作者们还供给了根据 huggingface 模型或本地 checkpoint 的问答机器人脚本。一键运转即可与你练习的模型开端对话:

3090单卡5小时,每个人都能训练专属ChatGPT,港科大开源LMFlow

如果在运用过程中遇到任何问题,欢迎经过 github issue 或 github 主页的微信群联系作者团队。

在当下我们都纷繁投入到预练习大模型的比赛中时,LMFlow 供给了一个很好的启示:大多数一般玩家没有预练习大模型的资源,但仍旧能够参加到这场运用和研讨大模型的浪潮中来。正如他们的口号所说:「让每个人都能训得起大模型(Large Language Model for All)。」

参考文献

[1] Ouyang, Long, et al. “Training language models to follow instructions with human feedback.” Advances in Neural Information Processing Systems 35 (2022): 27730-27744.

[2] Touvron, Hugo, et al. “Llama: Open and efficient foundation language models.” arXiv preprint arXiv:2302.13971 (2023).

欢迎重视大众号CV技能攻略,专注于核算机视觉的技能总结、最新技能跟踪、经典论文解读、CV招聘信息。

核算机视觉入门1v3辅导班

【技能文档】《从零建立pytorch模型教程》122页PDF下载

QQ沟通群:470899183。群内有大佬担任解答我们的日常学习、科研、代码问题。

其它文章

上线一天,4k star | Facebook:Segment Anything

Efficient-HRNet | EfficientNet思想+HRNet技能会不会更强更快呢?

实践教程|GPU 运用率低常见原因剖析及优化

ICLR 2023 | SoftMatch: 完成半监督学习中伪标签的质量和数量的trade-off

方针检测立异:一种根据区域的半监督办法,部分标签即可(附原论文下载)

CNN的反击!InceptionNeXt: 当 Inception 遇上 ConvNeXt

神经网络的可解释性剖析:14种归因算法

无痛涨点:方针检测优化的有用Trick

详解PyTorch编译并调用自定义CUDA算子的三种办法

深度学习练习模型时,GPU显存不行怎么办?

deepInsight:一种将非图画数据转换图画的办法

ICLR2023|根据数据增广和知识蒸馏的单一样本练习算法

解救脂肪肝第一步!自主确诊脂肪肝:3D医疗印象切割方案MedicalSeg​

AI最全资料汇总 | 基础入门、技能前沿、工业运用、布置结构、实战教程学习

改动几行代码,PyTorch炼丹速度狂飙、模型优化时刻大减

AAAI 2023 | 轻量级语义切割新范式: Head-Free 的线性 Transformer 结构

TSCD:弱监督语义切割新办法,中科院自动化所和北邮等联合提出

如何用单个GPU在不到24小时的时刻内从零开端练习ViT模型?

CVPR 2023 | 根据Token比照的弱监督语义切割新方案!

比MobileOne还秀,Apple将重参数与ViT相结合提出FastViT

CVPR 2023 | One-to-Few:没有NMS检测也能够很强很快

ICLR 2023 | Specformer: Spectral GNNs Meet Transformers

从头审视Dropout

核算机视觉入门1v3辅导班

核算机视觉沟通群

聊聊核算机视觉入门