本文正在参与 人工智能创作者扶持计划

大家好,我是小寒。

原文链接

今日清晨,OpenAI 发布了多模态预练习大模型 GPT-4。

GPT-4 是一个大型多模态模型(承受图画和文本输入,宣布文本输出)。

虽然在许多现实世界场景中的能力不如人类,但在各种专业和学术基准上表现出人类水平。

例如,它经过模拟律师考试,分数在应试者的前 10% 左右;相比之下,GPT-3.5 的得分在倒数 10% 左右。

能力

GPT-3.5 和 GPT-4 之间的差异或许很微妙。当任务的复杂性达到满足的阈值时,差异就会出现,GPT-4 比 GPT-3.5 更牢靠、更有构思,而且能够处理更细微的指令。为了了解这两种模型之间的差异,OpenAI 在各种基准测验中进行了测验,包括开端为人类设计的模拟考试。

GPT-4震撼发布,这次引入了图像输入

GPT-4震撼发布,这次引入了图像输入

OpenAi 还在为机器学习模型设计的传统基准上评价了 GPT-4。

GPT-4 大大优于现有的大型言语模型,以及大多数最先进的 (SOTA) 模型。

GPT-4震撼发布,这次引入了图像输入

视觉输入

GPT-4 能够承受文本和图画 prompt。

具体来说,它在给定由文本和图画组成的输入的情况下生成文本输出

比方问:这张照片有什么不寻常之处?

GPT4 的回答是:这张照片的不同寻常之处在于,一名男人正在移动的出租车车顶上的熨衣板上熨烫衣服。

能够看到,GPT4 回到的还真的是不错。

GPT-4震撼发布,这次引入了图像输入

不过 OpenAI 在这儿说了,图画输入是研讨预览,仍不揭露,这儿只能惋惜的期待一波了。。。

操纵性

与具有固定冗长、口气和风格的经典 ChatGPT 特性不同,开发人员(以及 ChatGPT 用户)现在能够经过在 “system” 音讯中描述这些方历来规则他们的 AI 的风格和任务。

体系音讯 允许 API 用户在一定范围内明显定制他们的用户体会。

GPT-4震撼发布,这次引入了图像输入

约束

虽然功能强大,但 GPT-4 与早期的 GPT 模型具有相似的局限性。最重要的是,它依然不完全牢靠(它 “幻觉” 事实并出现推理错误)。

在运用言语模型输出时应格外小心,特别是在高风险上下文中。

但 GPT-4 相对于以前的模型明显减少了幻觉。在 OpenAI 内部对抗性真实性评价中,GPT-4 的得分比最新的 GPT-3.5 高 40%。

GPT-4震撼发布,这次引入了图像输入

ChatGPT Plus 直接 升级 GPT-4 版本

ChatGPT Plus 订阅者将在 chat.openai.com 上获得具有运用上限的 GPT-4 拜访权限。

OpenAI 依据实践中的需求和体系功能调整切当的运用上限,但预计会受到严重的容量约束(虽然 OpenAi 将在未来几个月内扩大规划和优化)。

要经过 **API 拜访 GPT-4 **,能够经过 openai.com/waitlist/gp… 进行注册,等候 OpenAI 的审阅经过。OpenAi 将开端约请一些开发人员,并逐步扩大规划以平衡容量与需求。

GPT-4震撼发布,这次引入了图像输入

GPT-4震撼发布,这次引入了图像输入

获得拜访权限后,你能够向 gpt-4 模型宣布纯文本请求(图画输入仍处于有限的 alpha 阶段)。

最终,明日就是百度 文心一言 的发布时刻,然我们一同来期待一下吧。

随后,我会带大家一同测验一下 GPT-4,如果有想一同加入的,能够联系我

本文正在参与 人工智能创作者扶持计划