跑大语言模型的门槛,现已降低到一部iPhone了。

当然安卓版别也有,只要手机RAM够6G,听上去是不是比用2060还要震慑?

而且这次仍是开箱即用的版别!

我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果

这个项目名为MLC LLM,与之前的WebLLM同出自知名学者陈天奇团队。

截止现在已在GitHub上斩获超6800星。

我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果

现在能够测验的模型有羊驼宗族(根据LLaMA)的RedPajama和Vicuna。

可选模型参数分别为30亿和70亿,与很多在线Demo规模也相当了。

我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果

RedPajama团队表示,这一成果打开了大模型私有化布置的可能性。

我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果

话不多说,快来看看体验如何。

文字功底尚可,但理科是短板

咱们挑选了其间的Vicuna模型进行测验。

首要测验一下它的文学造就,所以让它为四个时节分别写了一首诗。

韵律吗,基本上是两三句一押。

我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果

除了诗篇,故事也能创造,乃至还能写出内心戏来。

我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果

不只是爱情,其他类型的故事也难不倒它。

我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果

除了文学上的使用,咱们不妨再来试试它的实用功用。

咱们让它生成了一道夏威夷披萨的菜谱,看上去还蛮不错。

我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果

旅游计划也能够让它来安排。

我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果

咱们再来看看它在理工科上的体现怎么样。

首当其冲的是代码,咱们让它尝试用Python写了一段寻找最大数的代码。

我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果

想不到上来便是一通枚举……不过结果倒也是符合要求。

defmax_of_three(num1,num2,num3):
ifnum1>num2andnum1>num3:
returnnum1
elifnum2>num1andnum2>num3:
returnnum2
elifnum3>num1andnum3>num2:
returnnum3
returnNone
num1=11
num2=45
num3=14
max_value=max_of_three(num1,num2,num3)
print("Themaximumvalueis:",max_value)

我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果

不过遇到稍难的问题,它的编程才能就有些绰绰有余了。

我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果

至于数学和逻辑推理则一言难尽,不过毕竟为适配手机参数有限,倒也情有可原。

我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果

咱们还试了试用中文进行发问,但发现现在对中文的适配还有些问题。

我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果

别的,移动APP现在还不具有保存聊天记录功用,切出界面时一定要小心小心再小心。

尽管现在能在手机上跑的大模型才能还有限,但团队也展现了未来更多发展方向。

比如为用户定制模型并与云端公共基础模型交互、提供离线支撑、App嵌入、去中心化等等。

我在iPhone上装了70亿参数大模型,来自陈天奇团队最新成果

如何装置

这款大模型支撑iOS、安卓移动设备,以及Windows和Mac

iOS用户能够先装置好TestFlight,然后从下面的传送门申请测验:

传送门:testflight.apple.com/join/57zd7o…

如果名额已满,也能够用GitHub上的代码自行编译装置

传送门:github.com/mlc-ai/mlc-…

安卓用户直接下载apk装置即可,第一次运行时需联网下载数据包。

传送门:github.com/mlc-ai/bina…

桌面用户请参阅官方教程:

传送门:mlc.ai/mlc-llm/