专栏目录

耗时一下午,我完成了 GPT Terminal,真实具有了专归于我的 GPT 终端!

怎样用 GPT 在 5 分钟内 ”调教“ 出一个专归于你的 ”小黑子“?

怎样丝滑完成 GPT 打字机流式回复?Server-Sent Events!

我是怎样让我的 GPT Terminal “长记忆” 的?仍是老配方!

一个合格的类 GPT 使用需求具备什么?一文带你打通 GPT 产品功用!

开发一个 ChatGPT 真的只是当 “接口侠” 吗?GPT Terminal 细节分享!

怎样借助于 OpenAI 以指令的方法在 GPT 终端上画一只 “坤”?

项目地址:github.com/ltyzzzxxx/g…

欢迎咱们Star、提出PR,一起快乐地用 GPT Terminal 玩耍吧~

前言

ChatGPT 面世现已过去半年多啦,咱们必定有些审美疲劳了,不满足于 ChatGPT 提供的对话服务,而是想真实练习出自己的言语模型。

而作为非 LLM 专业研究人员,练习一个言语模型的难度是很大的。

今日我要给咱们介绍的,是一个可视化模型练习渠道,这意味着你不需求任何专业知识,只需求会简单的操作,即可快速建立出依据自己内容的言语模型!

听到这儿,咱们是不是有些激动。废话少说,咱们快速进入正题吧!

Fine-tuning 介绍

在介绍这个可视化模型练习渠道之前,我需求给咱们弥补点儿 Fine-tuning 的基础知识。

Fine-tuning 意思是 “微调”,即在预练习模型的基础上,进行进一步的微调,然后使得模型到达更好的作用,输出更理想的结果。在这个过程中,通常会运用更小的学习率,然后避免呈现 过拟合 的状况。

咱们今日要做的工作,其实便是在依据 GPT-3.5GPT-4 这样强壮的模型上,做 Fine-tuning,练习微调出咱们想要的言语模型。

Dify 介绍

Dify 是今日文章的主角,咱们正是依托于该渠道强壮的才能,建立出归于咱们的言语模型!

Dify 是一个可视化、可运营、可改善的 LLM 练习渠道,它提供了强壮的 LLMOps 才能。此外,它还提供了建立 Web App 的才能。这些意味着你能够用它快速开发一个专归于你的 ChatGPT 使用,你能够依据此进行练习、微调,直到它变成你喜欢的模样!

LLMOps(Large Language Model Operations)是一种依据机器学习模型的运维(Operations)实践,是一个涵盖了大型言语模型(如GPT系列)开发、布置、保护和优化 的一整套实践和流程。

LLMOps 的方针是确保高效、可扩展和安全地运用这些强壮的 AI 模型来构建和运行实践使用程序。它涉及到模型练习、布置、监控、更新、安全性和合规性等方面。

Dify 快速开端

今日,咱们就借助于 Dify 强壮的才能,动手练习一个模型!

咱们的意图便是想让练习出来的言语模型所输出的内容,均符合咱们的预期,而且它不会胡编乱造,捏造事实。

注册 Dify & 创立使用

进入 Dify 官方页面,注册并填写 API Key 后,点击创立使用。

不满足当 ChatGPT “接口侠”?轻松可视化 Fine-tuning 训练你的模型!

接着,咱们为即将诞生的模型,起一个炫酷的名字 真IKun,给它设置一个贴切的头像,并挑选使用类型为 对话型使用

  • 之前咱们做的 IKun 上下文信息太少,数据量不够,导致其只能回答有限的问题,远远达不到 的程度。

不满足当 ChatGPT “接口侠”?轻松可视化 Fine-tuning 训练你的模型!

点击创立后,咱们便能够得到如下界面:

不满足当 ChatGPT “接口侠”?轻松可视化 Fine-tuning 训练你的模型!

假如咱们要求不高的话,其完成在就现已得到了一个一般的 ChatGPT 使用啦,咱们能够与它进行根本的 GPT 对话。但咱们又怎样满足于此呢?速速进入下一步 – Fine-tuning

提示词编排

咱们进入界面后,能够看到左边侧边栏有 提示词编排 按钮,咱们在这儿能够输入对话前的提示词,然后必定程度上调整模型的输出内容。如下图所示:

不满足当 ChatGPT “接口侠”?轻松可视化 Fine-tuning 训练你的模型!

在这儿,我将 IKun 的根本素质作为提示词传输给言语模型,并顺次点击 承认发布 按钮。接下来,让咱们测验一下,它能否到达咱们预期的作用!

不满足当 ChatGPT “接口侠”?轻松可视化 Fine-tuning 训练你的模型!

它确实理解了咱们输入给它的上下文,而且能够依据问题,输出相对理想的内容。但假如 Dify 真的只是这样,那么它并没有多么强壮,由于在 OpenAI 提供的接口中,咱们通过设置上下文参数,也能够完成这样的作用(详情请参阅 GPT Terminal 专栏)。接下来,让咱们看看 Dify 真实强壮的地方。

构建并填充数据集

咱们点击导航栏的 数据集 按钮,并点击 创立数据集 按钮,开端创立。

不满足当 ChatGPT “接口侠”?轻松可视化 Fine-tuning 训练你的模型!

咱们能够看到,需求通过导入已有的文本内容,创立咱们自己的数据集。

不满足当 ChatGPT “接口侠”?轻松可视化 Fine-tuning 训练你的模型!

这些数据其实仍是比较容易获取啦,咱们能够准备两个文件:关于哥的个人资料(从 某基百科某度百科 中获取)、哥的梗(从 某乎某音 中获取)

不满足当 ChatGPT “接口侠”?轻松可视化 Fine-tuning 训练你的模型!

接着,咱们进入下一步 – 文本分段与清洗

不满足当 ChatGPT “接口侠”?轻松可视化 Fine-tuning 训练你的模型!

保存默认选项,直接点击 保存并处理 进入下一步即可。

不满足当 ChatGPT “接口侠”?轻松可视化 Fine-tuning 训练你的模型!

功德圆满!接下来咱们去填充数据集!

返回到之前构建使用的界面,点击上下文的 添加 按钮,将咱们的数据集导入,并点击 发布 按钮,生成新的模型。

不满足当 ChatGPT “接口侠”?轻松可视化 Fine-tuning 训练你的模型!

作用展示

不满足当 ChatGPT “接口侠”?轻松可视化 Fine-tuning 训练你的模型!

最终生成的 IKun 似乎能够回答一些问题,可是感觉没有那么活灵活现,没有到达资深 小黑子 的程度。可能是咱们的数据集仍是太少,也可能是咱们的 梗文明 太深奥啦,言语模型难以理解。不过当咱们 Feed 的数据量越来越大、越来越精确时,信任它必定能够到达咱们想要的作用!

总结

今日通过借助于 Dify 渠道,咱们体会了一把自己练习模型是什么感觉!虽然它还没有到达真实能够理解言语文明的程度,可是随着 LLM 的开展,这一功用必定能够在不远的将来完成。

咱们有兴趣的能够自己去玩一玩,制造一个自己的言语模型!