ChatGPT 是自然语言之神。
——题记
ChatGPT = 语言大师
2023 年春节后的第 1 个月,随着 ChatGPT 的爆火,很多人开始用各种各样的方式玩起 ChatGPT 来。就像金毛狗看到小虫子就会用爪子抓来抓去,孩子发现新玩具就会忍不住摆弄和探索一样,人们开始“调戏”这个新鲜玩意儿。在各种详细测试中,ChatGPT 的本质逐渐被揭开。虽然知道 ChatGPT 的一些搞笑段子背后的原理,但我还是经常深受触动。
先看一个关于写作的例子,需要用到风格迁移,如图 2-1 所示。

图 2-1 ChatGPT 写作示例
这有些像鲁迅的文风了。我们再让 ChatGPT 写一首歌,如图 2-2 所示。

图 2-2 ChatGPT 歌词创作示例
这些说唱歌词详细、形象地描述了现代人刷短视频上瘾的感觉。对于普通大众来说,写出这样贴切主题、节奏感和韵律都不错的歌词并不容易。
接下来,我们让 ChatGPT 以“地球上只剩下了最后一个男人”为线索,续写科幻小说,如图 2-3 所示。结尾非常开放,续写难度非常大。

图 2-3 ChatGPT 科幻小说创作示例
可见,ChatGPT 的思路非常开阔。它不仅写到了平行宇宙,还写到了以发光的徽章作为外星语言翻译器。女主角居然来自另一个地球,故事线是拯救男主角。可以说,ChatGPT 的写作能力已经超越普通大学生了。
ChatGPT 不仅可以进行文学性写作,对于专业写作也不在话下。我们来看一下 ChatGPT 为文章起的标题,而且它给出了 10 个方案,如图 2-4 所示。实际上,你也可以要求 ChatGPT 给出 100 个标题方案,它照样可以写出来。

图 2-4 ChatGPT 标题创作示例
通过这 10 个标题就可以进行一场小型的头脑风暴。举例来说,ChatGPT 和教育的关系,可能就是很多人没有想到的话题。
可以发现,ChatGPT 的本质之一就是语言大师。作为一个自然语言模型,ChatGPT 最拿手的就是语言,它可以将自然语言的运用发挥到极致。从这一点出发,我们可以理解它的许多性质。
ChatGPT = 偏科天才
很多人严重偏科,比如擅长语文,但根本学不懂数学。ChatGPT 就是这样一个严重偏科的“孩子”。提到偏科,我想到了韩寒。韩寒不仅是著名作家,而且还有很多其他标签:顶级车手、知名导演、音乐家、社会活动家。令我印象深刻的一点是,他在学生时代不仅不擅长数学,而且对这门学科非常反感,经常因此感到挫败和自卑。高一的时候,他有七门功课不及格,被学校劝退。他写道:“七门功课红灯,照亮我的前程。”其实韩寒非常聪明,之所以数学不及格,只是因为他沉迷写作,没有时间学数学而已。ChatGPT 也是如此,刚诞生时,ChatGPT 就连最基本的加法也不会。这是因为,它是一个自然语言模型,不是数学模型。
图 2-5 展示了我在 ChatGPT 发布不久后所做的测试。
ChatGPT 知道猫和鸡分别有多少条腿,但简单地加在一起结果是多少,它就不会算了。打个比方,这相当于 ChatGPT 上过 100 亿节语文课,但是没有上过一节数学课。它只能凭印象回答,并不会真正地去计算。我们再看一个例子,如图 2-6 所示。

图 2-5 测试 ChatGPT 的数学能力

图 2-6 简单的算术测试
1346 乘以 364 的正确答案是 489 944,而 ChatGPT 回答 495 504,显然它不会算。看到这里,你可能还没明白这个答案从何而来。ChatGPT 具有一定的学习能力,它大概能看出来这两个数的乘积是一个以 4 结尾的 6 位数……这一点令人咋舌。
再来看一个搞笑的例子,如图 2-7 所示。

图 2-7 诚恳道歉的 ChatGPT
虽然 2 加 5 等于 7,但如果我们强调 7 是错误答案,那么 ChatGPT 会诚恳地道歉,并回答 8 是正确答案。
当然,这个错误太明显了,网友纷纷发现了这个 bug。ChatGPT 很快就进行了修复。
我们再看看改进后的效果,如图 2-8 所示。

图 2-8 改进后的效果
2023 年 1 月 30 日,OpenAI 宣布 ChatGPT 的数学能力升级,上述错误都被修正了。ChatGPT 只是一个基于概率的语言预测模型,它根据自己见过的所有文本对问题进行概率预测。因此,ChatGPT 最初本身是几乎没有数学能力的。
ChatGPT = 外语大师
在玩 ChatGPT 后,我发现了一个有趣的现象。在回答中文问题时,ChatGPT 偶尔会冒出英文单词,来看图 2-9 所示的例子。

图 2-9 在 ChatGPT 的回答中同时出现中英文
剧本杀是近年来流行的一种娱乐活动,通常由几位玩家共同完成一个虚构的故事情节,并在游戏过程中根据剧情展开角色扮演和推理等活动。玩过剧本杀的朋友都知道,好的剧本对于整体体验有多重要。产出好的剧本,门槛是很高的。这需要创作者兼顾很多元素的设计,比如人性故事、背景设定、剧情线索设计等。
使用 ChatGPT 可以快速产出一个故事框架,虽然故事不一定精彩、内容不一定丰富,但能为人物的角色设定和性格塑造等提供很多线索和灵感。
奇怪的是,这样一个关于宋朝故事的剧本中却出现了英文:Title(标题)、Introduction(介绍)、Characters(角色)、Plot(情节)。这是为什么呢?
图 2-10 展示了一段英文影评问题清单,其中就出现了这 4 个单词:Title、Introduction、Characters、Plot。ChatGPT 回答中文问题不仅用中文,而且知道英文世界的剧本要素是什么。对于 100 多种其他语言中的这 4 个概念,它也是清楚的。虽然它回答的内容基于宋朝故事线,但也可能包含来自好莱坞剧本的线索。因为好莱坞剧本大多采用英文,所以 ChatGPT 在回答时使用了这几个单词。这就像一个在美国待了 10 年的人,回到国内工作后,会本能地在说话时夹杂英文。

图 2-10 英文影评问题清单
比如,在外企里,可能会听到很多白领,尤其是留学回来的“海归”,说话中英混杂。
这个 project 的 schedule 有些问题,另外,budget 不高,cost 偏高。
目前我们没法 confirm 手上的 resource 能完全 take 得了,deadline 快到了,大家加油!
anyway,我们还是先 pilot 一下,再 follow up 最终的 output。
我们来问问 ChatGPT,这到底是怎么回事,如图 2-11 所示。

图 2-11 针对中英文混杂的现象,ChatGPT 给出的解释
看了 ChatGPT 的回答,我们便能理解原因了。ChatGPT 是以英文为主要语言进行编程和训练的自然语言模型,中文只占其中很小的比例。考虑到 ChatGPT 至少支持几十种语言,在每一种非英语语言的比例如此之小的情况下,效果还如此之好,这着实令人吃惊。ChatGPT 已经完全可以轻松地写文言文和对对联了。这也让很多人担心中文大模型使用中文训练出来的实际效果会比 ChatGPT 差。所有语料凝结了全人类的知识精华,即便是中文大模型,仅仅用中文进行训练也是远远不够的,因为还涉及学习很多其他语言世界的知识。其实完全不需要担心中文大模型的智能水平,理论上可以做到像英文大模型一样好。后文将对这部分内容进行详解。
作为一个自然语言模型,ChatGPT 的翻译能力极其出众,尤其在口语化翻译上,它已经超越专业翻译工具。我们来试试让 ChatGPT 将英文翻译成文言文,如图 2-12 所示。

图 2-12 测试 ChatGPT 的文言文翻译能力
显然,ChatGPT 深谙文言文。尝试利用 ChatGPT 执行各种翻译任务,你会有惊奇的发现。有一次,我让 ChatGPT 翻译 metaverse 这个单词,并给出 10 种译法。它给出的其中一种译法为“元届”,这可谓很有深度的译法了。
ChatGPT = 图书馆天才
2004 年,大导演周星驰的《功夫》上映。这是一部好片,里面的每个角色都令人难忘。还记得这部电影里的两个绝世高手吗?一个双目失明,一个双耳失聪。很多人不知道这两个角色其实有正式的江湖名号:“三洞琴魔天残地缺”,以琴声杀人于无形。最初的 ChatGPT,就像是又聋又盲的绝世高手。
为什么这么说呢?来看图 2-13 所示的例子。

图 2-13 ChatGPT 创作的七言绝句
我强调了要押韵,结果这四句话的末字“中、绕、乐、边”一点儿也不押韵。这是因为,GPT-3.5 版 ChatGPT 只是一个纯文本模型,它没有“见过”图片和视频,也没有“听过”音频。正因为如此,ChatGPT 不知道这些字的真正发音。但是,它肯定知道哪些字是押韵的,因为原始数据集里有大量的押韵资料。大模型肯定可以习得这个特征,只不过在作诗时,押韵这个机制没有生效而已。不信请看图 2-14 所示的例子。

图 2-14 ChatGPT 应该是懂押韵的
ChatGPT 是理解何谓“押韵”的,但是这里的“蕙”字与其他字不押韵。可见,ChatGPT 的押韵技能还有待提升。虽然 GPT-3.5 版 ChatGPT 没有“听过”任何声音,也没有“见过”任何图像,但它还是可以用语言描述生动的画面,如图 2-15 所示。

图 2-15 ChatGPT 可以用语言描述生动的画面
我还试过让 ChatGPT 猜脑筋急转弯,如图 2-16 所示。注意哦,这是我原创的,网上并没有答案。记住,ChatGPT 是没有“见过”桌子的,只不过它通过“道听途说”了解到桌子长什么样。

图 2-16 让 ChatGPT 猜脑筋急转弯
再看一个有些意想不到的例子,如图 2-17 所示。

图 2-17 ChatGPT 解释 Chocolate 如何发音
虽然 ChatGPT 没有“听过”声音,但它能够很好地解释巧克力的英文单词 Chocolate 如何发音。第一版的 ChatGPT 就像是一个在藏有 100 万册纯文本书的图书馆里孜孜不倦地读完了所有书的天才少年。这个图书馆没有窗户,没有喇叭,这个少年也从未见过图书馆外面的世界。尽管如此,它仍然能够解决如此多的问题。使用 GPT-3.5 版 ChatGPT 时,你可以把它当作隔壁黑屋里的天才,你只能通过给它递纸条来问问题,它也只能通过递纸条来给你答案。它阅读过一切,但从未看过世界。
GPT-3.5 版 ChatGPT 是一个纯文本模型,而在 2023 年 3 月 14 日发布的 GPT-4 版已经支持多模态了。也就是说,ChatGPT 这个少年已经开始“看世界”了。
多模态是 OpenAI 重点研发 ChatGPT 的新方向。接触超过目前文本千倍数据量的图片、音频、视频后,ChatGPT 将出现怎样的智能,我们很难想象。
ChatGPT = 绝世通才
金庸的小说《天龙八部》中有一段精彩的描写:
暖阁中一时寂静无声。过了半晌,黄眉僧缓缓地道:“老僧听说世间确有慕容博这一号人物,他取名为‘博’,武功当真渊博到了极处。似乎武林中不论哪一派、哪一家的绝技,他都无一不精、无一不会。更奇的是,他若要制人死命,必是使用那人的成名绝技。”
后续的 2000 字描述了大反派慕容博在年少时惊艳登场的故事。
ChatGPT 就是这样,无所不知,无所不晓。ChatGPT 的训练数据量高达 570 GB,共计约 3000 亿词(严格地说是 token),相当于几十万本《红楼梦》的数据量。所以,ChatGPT 总是能够知道我们很难发现的因果关系,这也是很多人非常喜欢用它的原因。
来看一个在社交网络上流传的例子,来自猎豹移动首席执行官傅盛,如图 2-18 所示。

图 2-18 ChatGPT 对“老鼠吃大象”问题的回答
大家都知道老鼠不能吃掉大象,但是 ChatGPT 在回答时居然考虑到了老鼠的食性,这是我没有想到的。不仅如此,ChatGPT 还能够推断出在大象死了之后,老鼠不可能先吃掉它,因为还有蝴蝶、苍蝇、白蚁等也可能吃掉大象。这也是我没有想到的。ChatGPT 拥有常人所没有的深度和视角。当然,蝴蝶、苍蝇、白蚁可能也不适合吃大象。虽然有些胡说八道,但是这完全可以通过更全的训练数据集来获得改进。
图 2-19 是一位网友对 ChatGPT 开的玩笑。

图 2-19 ChatGPT 为电视剧角色给出的鸡尾酒配方
鸡尾酒部分很有意思,显然 ChatGPT 不懂“口感”和“提神醒脑”真正意味着什么,也是“道听途说”学来的。我细看后发现,开头第二句有些令人细思极恐:“考虑到他曾经走上了错误的道路……”注意,ChatGPT 只了解 2021 年 9 月前的信息,但是《狂飙》是在 2023 年播出的!细想下来,我才发现 ChatGPT 是通过提问中的“劝他回头是岸”推断出了“他曾经走上了错误的道路”。很少有普通人具备这样微妙的提炼能力和扩展能力。
ChatGPT = 过家家的小朋友
ChatGPT 发布于 2022 年 11 月 30 日,第一个版本非常惊艳,但也出现了很多令人啼笑皆非的问题,“胡说八道”就是其中最典型的一个。来看图 2-20 所示的例子。

图 2-20 ChatGPT 回答“林黛玉为什么要倒拔垂杨柳”
很显然,林黛玉不是鲁智深,肯定没有做过“倒拔垂杨柳”这种事。我查了一下,网上确实有很多关于林黛玉倒拔垂杨柳的讨论。ChatGPT 很可能就学到了这些内容,它分不清事实和胡编乱造,因此会胡乱给出一些错误信息。
如图 2-21 所示,在知乎平台上,与“林黛玉倒拔垂杨柳”相关的问题下出现了 100 多个回答。

图 2-21 知乎平台上与“林黛玉倒拔垂杨柳”相关的问题
ChatGPT 胡说八道的问题不仅源于语料中的谬误,它也是真的分不清理想和现实。再来看一个例子,如图 2-22 所示。

图 2-22 ChatGPT 给出的人工智能领域的里程碑事件
我一下子就发现了第 3 条中的问题:AlphaGo 战胜李世石的年份应该是 2016 年。我之所以记得特别清楚,是因为我在 2016 年成功减肥,还赢了和朋友的 AlphaGo 赌注饭局。在因写书而需要寻找一些灵感和线索时,我经常会问 ChatGPT 类似的问题。显然,目前它给的一些答案不太可信,一些内容还需要进一步查证。
于是,我继续追问,如图 2-23 所示。

图 2-23 在我的继续追问下,ChatGPT 给出了正确答案
懂了装糊涂,还来糊弄我,我很不满意。于是,我抛出质问,如图 2-24 所示。

图 2-24 ChatGPT 为回答错误道歉
好歹 ChatGPT 态度很好,给我道了歉。我们再来看一个例子,如图 2-25 所示。

图 2-25 “AI 幻觉”示例
回答里的李志远这个人根本就不存在,这个名字就是 ChatGPT 瞎编的。ChatGPT 胡说八道的现象,就是著名的“AI 幻觉”问题。ChatGPT 是一个自然语言模型,它并不了解一些事实问题,无法分辨孰真孰假,只能根据概率涌现出它认为理想的答案。很多使用 ChatGPT 的人会发现,目前在很多问题上是不能信任 ChatGPT 的。可信度是所有大模型都要解决的问题。
这个问题也意外地让我们知道了 ChatGPT 的记忆边界,即它的语料库截至 2021 年 9 月。目前来说,大模型是不能实时更新的,这肯定也是未来要解决的问题。
ChatGPT 就像是过家家的小朋友,它分不清楚幻象和现实。不管家里有没有烟囱,小朋友都相信圣诞老人是从烟囱里爬进来的。但是,不管小朋友多么天真,我们都不能低估小朋友的潜力,因为小朋友终究会长大。

流浪的机器人 作者:歌特之城
精选留言