1.写在前面

就在7月19日,MetaAI开源了LLama2大模型,Meta 首席科学家、图灵奖获得者 Yann LeCun在推特上表示Meta 此举可能将改变大模型职业的竞赛格式。一夜之间,大模型格式再次发生巨变。

Meta开源大模型LLama2部署使用保姆级教程,附模型对话效果

推文上列了Llama2的网站和论文,小卷给咱们贴一下,感兴趣的友友能够自己看看

站点:ai.meta.com/llama/

论文:ai.meta.com/research/pu…

Github页:github.com/facebookres…

2.LLama2是什么

Llama官网的阐明是Llama2下一代开源大言语模型,可免费用于学术研究或商业用途。

现在模型有7B、13B、70B三种规格,预练习阶段运用了2万亿Token,SFT阶段运用了超越10w数据,人类偏好数据超越100w。

Meta开源大模型LLama2部署使用保姆级教程,附模型对话效果

别的咱们最关心的Llama2和ChatGPT模型的作用比照,在论文里也有提到,

比照GPT-4,Llama2评价成果更优,绿色部分表示Llama2优于GPT4的比例

Meta开源大模型LLama2部署使用保姆级教程,附模型对话效果

尽管中文的占比只要0.13%,但后续会有一大推中文扩大词表预练习&范畴数据微调的模型被国人放出。这不才开源几天罢了,GIthub上就已经有基于Llama2的中文大模型了。。。

3.部署运用

关于LLama2的技术细节就不再多说了,咱们能够自行查阅。接下来就教咱们怎么自己玩一玩LLama2对话大模型。

大部分人都是没有本地GPU算力的,咱们挑选在云服务器上部署运用。我这儿用的是揽睿星舟渠道的GPU服务器(便宜好用,3090只要1.9/小时,且已在渠道上预设了模型文件,无需再次下载)

新用户注册还送2小时的3090算力,揽睿星舟渠道注册

3.1新建空间

登录:www.lanrui-ai.com/console/wor…

创立一个作业空间,运转环境镜像挂载公有镜像:pytorch: official-torch2.0-cu1117。挑选预练习模型:llama-2-7b 和 llama-2-7b-chat。然后创立实例

Meta开源大模型LLama2部署使用保姆级教程,附模型对话效果

3.2下载代码

实例创立完成后,以jupyterLab方法登录服务器,新建一个Terminal,然后进入到data目录下

cd data

下载代码

履行下面的命令从GIthub上拉取llama的代码

sudo git clone https://github.com/facebookresearch/llama.git

下载完成后,会多一个llama目录

Meta开源大模型LLama2部署使用保姆级教程,附模型对话效果

3.3运转脚本

进入llama目录

cd llama

装置依靠

sudo pip install -e .

测验llama-2-7b模型的文本补全才能

命令行履行:

torchrun --nproc_per_node 1 example_text_completion.py \
     --ckpt_dir ../../imported_models/llama-2-7b/Llama-2-7b \
     --tokenizer_path ../../imported_models/llama-2-7b/Llama-2-7b/tokenizer.model \
     --max_seq_len 128 --max_batch_size 4

文本补齐作用示例:

Meta开源大模型LLama2部署使用保姆级教程,附模型对话效果

上面的例子是在python脚本里写了一段话,让模型补全后边的内容。

测验llama-2-7b模型的对话才能

修正llama目录权限为777,再修正example_chat_completion.py文件中的ckpt_dirtokenizer_path路径为你的llama-2-7b-chat模型的绝对路径

// 1.修正目录权限为可写入
chmod 777 llama
//2.修正example_chat_completion.py文件里的参数
ckpt_dir: str = "/home/user/imported_models/llama-2-7b-chat/Llama-2-7b-chat/",
tokenizer_path: str = "/home/user/imported_models/llama-2-7b-chat/Llama-2-7b-chat/tokenizer.model"
//3.运转对话脚本
torchrun --nproc_per_node 1 example_chat_completion.py

Meta开源大模型LLama2部署使用保姆级教程,附模型对话效果

这儿我修正提示语让它用中文回答,履行对话脚本后,对话作用如下:

torchrun --nproc_per_node 1 example_chat_completion.py

Meta开源大模型LLama2部署使用保姆级教程,附模型对话效果

阐明:现在官方还没有提供UI界面或是API脚本代码给咱运用,还没法进行对话交互,如果有懂python的友友,能够自行加个UI界面,欢迎咱们留言评论。

4.下载更多模型

llama代码里有download.sh脚本能够下载其他模型,可是下载需求的URL需求自行获取。下载步骤如下:

1.Meta AI网站获取下载URL

MetaAI下载模型页地址:ai.meta.com/llama/#down…

Meta开源大模型LLama2部署使用保姆级教程,附模型对话效果

点击Download后,要求填入一些信息和邮箱,提交后会给你的邮箱发一个下载URL,留意这个是你自己的下载链接哦~

下图是小卷邮箱里收到的模型下载链接

Meta开源大模型LLama2部署使用保姆级教程,附模型对话效果

2.下载模型

服务器上命令行履行

sudo bash download.sh

接着按照提示张贴下载URL和挑选要下载的模型

Meta开源大模型LLama2部署使用保姆级教程,附模型对话效果

总结

关于国内大模型运用来说,随着开源可商用的模型越来越多,国内大模型肯定会再次迎来开展机遇。

文章原创不易,欢迎多多转发,点赞,重视

也欢迎重视我的公众号卷福同学,技术问题都可在号内沟通