从 ChatGPT 横空出世到最近的环比增量计算,环比访问增加仅 2.8%, 在加上前阵子杨立昆一顿输出,投资界对 AI 大模型的看法也开始发生分歧,结合我个人运用 ChatGPT 的经历,我预感人们对 AI 大模型正在从不切实际的希望回归理性。

前不久,李彦宏说到本轮 AI 的竞争力并不是说拥有多少大模型,而是能发生多少根据大模型的 AI 原生使用,但从实际情况看,目前根据大模型的 AI 使用并没有呈现出投资界预期的所谓 iPhone 时刻。

而这一切只能说是成也大模型,败也大模型

众所周知,ChatGPT 的原理可以简单解释为对字符的预测,在 openai 的课程上你可以重复的听到这样的教导,清晰的指令,不要让 AI 猜测你的目的,关于复杂的问题,需求拆解成小的问题,然后逐步引导 AI 了解问题的整体处理进程诸如此类,现实上归根结底包括 ChatGPT 的设置参数背后都透露出一个不争的现实

大模型所表现出的能力并不是大众所了解的智能,更多是一种玄学,咱们经过提示词对大模型进行编程,引导大模型回答出咱们想要的答案,但在很多现实范畴,尤其是需求准确回答的范畴,即便咱们使出浑身解数,大模型仍然可能像个叛逆的孩子给你来一段 freestyle。

对此,咱们称之为错觉,至少在编程范畴,我从来没遇到过错觉,最多便是个 BUG,但 BUG 遵循因果律,只是可能链条很复杂,可是错觉就上升到精神范畴了,ChatGPT 胡言乱语那可是出了名的,现实上假如你只要一个聊天目标,那错觉也可以了解成诙谐,可是假如把 ChatGPT 放到准确处理的范畴,有时候未必比某些专属的小模型强到哪去,重点是这些范畴本来就已经比较成熟了。

至少大众对大模型的希望是,人工智能应该比人强,可是比人强这个工作,你要分隔来看,是全面比人强,仍是说部分比人强,目前看来大模型的优势是数据优势,相比人类而言,大模型的知识总量更加庞大,假如把大模型比做人,那么这个人就有这么几个特征

  1. 博闻强记,你问啥他都知道
  2. 不懂装懂,说谎不打草稿
  3. 不管 GPT 到几代都没有知识可严,由于知识是不变的,可是大模型的回答是不可能不变的。

因而 openai 一直尽力在给大模型增加东西以处理知识问题,openai 的文档上清晰说到,假如某项工作已经有东西可以做得很好,那么就应该交给东西来做,而不是大模型,然后发挥两者的长处,这也是整个 plugin 规划的由来,但关于人类而言,发明东西,改善东西,才促使咱们不断改善咱们的技术,从这个角度看大模型也很难比人强,由于他永远不会有动力去改善这些 plugin。

由于在 ChatGPT 之前并没有出现过能给人带来杰出体验的聊天机器人,ChatGPT 的出现扩大了人们对人工智能的希望,就好像

“看,他都能跟我这么流通的对话,可比一些人强多了!”

或许这便是大模型带给人们的错觉,其实生活中也存在这类人,特别能说,夸夸其谈,可是一旦干点啥,就特别不靠谱。

大模型是否能转变成真正的人工智能?从 ChatGPT 到 AGI 会是人类的错觉么,或许答案已经不远了。