没想到时至今日,ChatGPT竟还会犯低级过错?

吴恩达大神最新开课就指出来了:

ChatGPT不会回转单词

比方让它回转下lollipop这个词,输出是pilollol,彻底紊乱。

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

哦豁,这确实有点大跌眼镜啊。

以至于听课网友在Reddit上发帖后,立马引来许多围观,帖子热度火速冲到6k

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

而且这不是偶尔bug,网友们发现ChatGPT确实无法完成这个使命,我们亲测成果也同样如此。

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界
实测ChatGPT(GPT-3.5)

乃至包含Bard、Bing、文心一言在内等一众产品都不行。

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界
实测Bard
吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界
实测文心一言

还有人紧跟着吐槽, ChatGPT在处理这些简略的单词使命便是很糟糕。

比方玩此前曾爆火的文字游戏Wordle几乎便是一场灾难,从来没有做对过。

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

诶?这究竟是为啥?

要害在于token

之所以有这样的现象,要害在于token。token是文本中最常见的字符序列,而大模型都是用token来处理文本。

它可所以整个单词,也可所以单词一个片段。大模型了解这些token之间的计算联系,而且拿手生成下一个token。

因而在处理单词回转这个小使命时,它或许只是将每个token翻转过来,而不是字母。

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

这点放在中文语境下体现就更为明显:一个词是一个token,也或许是一个字是一个token。

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

针对最初的例子,有人测验了解了下ChatGPT的推理过程。

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

为了更直观的了解,OpenAI乃至还出了个GPT-3的Tokenizer

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

比方像lollipop这个词,GPT-3会将其了解成I、oll、ipop这三个部分。

根据经验总结,也就诞生出这样一些不成文规律。

  • 1个token≈4个英文字符≈四分之三个词;
  • 100个token≈75个单词;
  • 1-2句话≈30个token;
  • 一段话≈100个token,1500个单词≈2048个token;

单词怎么划分还取决于言语。此前有人计算过,中文要用的token数是英文数量的1.2到2.7倍

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

token-to-char(token到单词)份额越高,处理成本也就越高。因而处理中文tokenize要比英文更贵

能够这样了解,token是大模型知道了解人类现实国际的方式。它十分简略,还能大大降低内存和时间杂乱度。

但将单词token化存在一个问题,就会使模型很难学习到有意义的输入表明,最直观的表明便是不能了解单词的意义。

当时Transformers有做过相应优化,比方一个杂乱、不常见的单词分为一个有意义的token和一个独立token。

就像annoyingly就被分红 “annoying”和“ly” ,前者保留了其语义,后者则是频繁呈现。

这也成就了现在ChatGPT及其他大模型产品的冷艳效果,能很好地了解人类的言语。

至于无法处理单词回转这样一个小使命,天然也有解决之道。

最简略直接的,便是你先自己把单词给分隔喽~

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

或者也能够让ChatGPT一步一步来,先tokenize每个字母。

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

又或者让它写一个回转字母的程序,然后程序的成果对了。(狗头)

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

不过也能够运用GPT-4,实测没有这样的问题。

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界
实测GPT-4

总归,token便是AI了解天然言语的柱石。

而作为AI了解人类天然言语的桥梁,token的重要性也越来越明显。

它已经成为AI模型功能好坏的要害决议因素,仍是大模型的计费标准。

乃至有了token文学

正如前文所言,token能方便模型捕捉到更细粒度的语义信息,如词义、词序、语法结构等。其次序、位置在序列建模使命(如言语建模、机器翻译、文本生成等)中至关重要。

模型只有在准确了解每个token在序列中的位置和上下文状况,才能更好正确猜测内容,给出合理输出。

因而,token的质量、数量对模型效果有直接影响

本年开始,越来越多大模型发布时,都会着重强调token数量,比方谷歌PaLM 2曝光细节中说到,它练习用到了3.6万亿个token。

以及许多行业内大佬也纷纷表明,token真的很要害!

本年从特斯拉跳槽到OpenAI的AI科学家安德烈卡帕斯(Andrej Karpathy)就曾在讲演中表明:

更多token能让模型更好思考。

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

而且他强调,模型的功能并不只由参数规划来决议。

比方LLaMA的参数规划远小于GPT-3(65B vs 175B),但由于它用更多token进行练习(1.4T vs 300B),所以LLaMA更强大。

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

而凭借着对模型功能的直接影响,token仍是AI模型的计费标准

以OpenAI的定价标准为例,他们以1K个token为单位进行计费,不同模型、不同类型的token价格不同。

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

总归,踏进AI大模型领域的大门后,就会发现token是绕不开的知识点。

嗯,乃至衍生出了token文学……

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

不过值得一提的是,token在中文国际里究竟该翻译成啥,现在还没有彻底定下来。

直译“令牌”总是有点怪怪的。

GPT-4觉得叫“词元”或“标记”比较好,你觉得呢?

吴恩达ChatGPT课爆火:AI放弃了倒写单词,但理解了整个世界

参阅链接:
[1]www.reddit.com/r/ChatGPT/c…
[2]help.openai.com/en/articles…
[3]openai.com/pricing