根据广大网友的反应,GPT-4 如同真的变笨了。

距离 OpenAI 开端发布 GPT-4 已经曩昔差不多 4 个月的时刻了。但是,随着时刻的推移,近期,网上开端出现了一些质疑声,他们以为世界上最强壮的 GPT-4 变得不那么强壮了。

有些业内人士以为,这可能和 OpenAI 对该系统的严重从头规划有关。

大家都在吐槽GPT-4变「笨」了,可能是架构重新设计惹的祸

其实,最近几周,咱们或多或少的在网上看到 GPT-4 的用户们对其功能下降怨声载道,有用户称这个模型与其先前的推理才能以及其他输出比较变得「懒散(lazier)」和「愚笨(dumber)」。

不仅如此,在 Twitter 和 OpenAI 的在线开发者论坛的评论中,用户们表达了对这一问题的不满,例如 GPT-4 的逻辑才能削弱、错误回答增多、对供给的信息失掉追寻才能……

GPT-4 到底变得如何了,咱们看看网友反应。

GPT-4「变笨」,抱怨声不断

一位运用 GPT-4 进行网站开发的网友写道:「现在的 GPT-4 非常令人绝望。那感觉就像你开了一个月的法拉利,它突然变成了一辆寒酸的皮卡车。照这样下去,我不确定我是否愿意为此付费。」

还有用户表示:「我运用 ChatGPT 已经有一段时刻了,自从 GPT-4 发布以来,我一直是 GPT Plus 的付费用户。曩昔几天里,GPT-4 似乎在之前做得很好的事情上遇到了困难。我在运用 GPT-4 时,曩昔,它似乎能很好地理解我的恳求。现在,它对信息的追寻才能下降了,给我供给的信息有误,并且经常误解我的问题。」

大家都在吐槽GPT-4变「笨」了,可能是架构重新设计惹的祸

Roblox 的产品负责人 Peter Yang 在 Twitter 上声称,GPT-4 的输出速度变快了,但输出质量却更差了。例如一些简单的问题,比方让它输出更清晰简练、更有创意的文字使命上。GPT-4 给出的成果在我看来,质量下降了:

大家都在吐槽GPT-4变「笨」了,可能是架构重新设计惹的祸

「GPT-4 开端一遍又一遍地循环输出代码和其他信息。与之前比较,它就像脑死亡了一样。假如你没有真正才智过它之前的才能,你可能不会留意到。但假如你之前充分运用了 GPT-4,你会显着感觉到它变得更愚笨。」另一位用户抱怨道。

大家都在吐槽GPT-4变「笨」了,可能是架构重新设计惹的祸

「我对 GPT-4 的反应质量也有同样的问题,有谁知道一种办法来排除或纠正这种状况?」

大家都在吐槽GPT-4变「笨」了,可能是架构重新设计惹的祸

「我确实留意到了这一点。在一天中的某些时候,它似乎只记得最近的提示。但在一整天的运用中,GPT-4 功能似乎有动摇,不一起刻进行尝试,感觉功能不一样。」

大家都在吐槽GPT-4变「笨」了,可能是架构重新设计惹的祸

通过网友的反应,看来咱们都感触到了 GPT-4 变笨的现实。

早年是又慢又贵,现在是快但不精确

去年年底,OpenAI 发布 ChatGPT 震动整个 AI 界,开端 ChatGPT 运转在 GPT-3 和 GPT-3.5 之上。3 月中旬,GPT-4 发布,并迅速成为开发者和其他科技职业人士的首选模型。

GPT-4 被以为是广泛可用的最强壮的 AI 模型,具备多模态功能,能够理解图画和文本输入。根据 Lamini 创业公司首席执行官 Sharon Zhou 的说法,它尽管慢但非常精确。

但是,几周前,状况开端发生改变,尽管 GPT-4 变得更快,但功能显着下降了,这引发了整个 AI 社区的讨论,根据 Sharon Zhou 和其他专家的说法,这意味着一个严重的改变正在进行中。

他们以为 OpenAI 正在创立几个较小的 GPT-4 模型,这些模型的功能类似于大型模型,但运转本钱更低。

几天前 SemiAnalysis 发布的一篇付费订阅内容也谈到这一点。文中说到了 OpenAI 能够通过运用混合专家(MoE)模型来保持合理本钱。他们在模型中运用了 16 个专家模型,每个专家模型大约有 111B 个参数。这些专家模型中的 2 个被路由到每个前向传递。

「这些较小的专家模型分别针对不同的使命和范畴进行了练习。可能会有一个针对生物学的迷你 GPT-4,以及其他可用于物理学、化学等的小模型。当一个 GPT-4 用户提出问题时,新系统会知道将该查询发送给哪个专家模型。新系统可能会决定将查询发送给两个或多个专家模型,然后将成果合并起来。」Sharon Zhou 表示。

开发人员兼黑客 George Hotz 在最近的播客中描述了 GPT-4 是 8 路混合模型。

大家都在吐槽GPT-4变「笨」了,可能是架构重新设计惹的祸

值得一提的是,艾伦人工智能研究所开创 CEO Oren Etzioni 在网络上看到这些信息后,给 Business Insider 发了一封电子邮件写道:「我『推测』这些猜想大致精确,但我没有依据。」

Oren Etzioni 以为:运用 MoE 办法主要是为了让生成式模型输出质量更高、本钱更低、呼应更快。

eEtzioni 补充道:「正确运用混合模型确实能够一起满意上述需求,但一般需要在本钱和质量之间进行权衡。在这种状况下,有传闻称 OpenAI 正在献身一些质量来降低本钱,但这只是传闻。」

实际上,2022 年 OpenAI 总裁 Greg Brockman 曾与几位同事共同撰写了一篇关于 MoE 办法的文章。

这篇文章中说到:「选用 MoE 办法,模型能够在不增加计算本钱的状况下支持更多参数。」

Sharon Zhou 表示:「GPT-4 最近几周的功能下降很可能与练习和 OpenAI 推出的小型专家 GPT-4 模型有关。当用户测试它时,咱们会问很多不同的问题。它不会回答得很好,但它会从咱们那里搜集数据,并且会改善和学习。」

关于 GPT-4 的更多爆料内容,请检查:

终极「揭秘」:GPT-4 模型架构、练习本钱、数据集信息都被扒出来了

原文链接:

www.businessinsider.com/openai-gpt4…