教7岁小孩搞懂ChatGPT_风闻
树龙谈-1小时前
全世界都在讨论ChatGPT,你却搞不懂?
别慌!搞不懂的大有人在,因为它牵扯的概念太多太复杂。当你提到ChatGPT,就绕不开大语言模型、深度学习、神经网络、人工智能……对于非专业人士来说,想要搞明白这一窝蜂的抽象概念,确实没那么容易。
是否可以用一些通俗的解释,让即使只有7岁的小孩都能搞清楚ChatGPT的基本原理和应用前景?我想这件事情是值得去尝试的,毕竟ChatGPT的火爆贯穿了整个2023年(甚至它的每一次更新都会被媒体称为“史诗级更新”),每个人或许都应该更加了解这个很可能在未来彻底改变我们生活的东西,无论它是多么难于理解。
为了更通俗易懂,这篇文章我采用对话体的形式来呈现,假设与我对话的是一个7岁小朋友。需要说明的是:1,该对话内容纯属虚构,并非发生过的真实对话;2,对话中会有很多简化和类比,目的是为了让人更易理解,因此可能不够精确、也可能会有错误,欢迎专业人士指正;3,部分对话内容参考了ChatGPT对相似问题的答案。
好了,让我们开启这场对话吧。
01
大语言模型的第一颗果实
小宝:什么是ChatGPT?
树龙:一个聊天机器人。
小宝:很高兴你没有用很多陌生的词来描述它。那么,这个聊天机器人有什么过人之处?
树龙:它比以往的聊天机器人都要强大无数倍。具体来说,它能理解你的问题,能结合语境给出非常棒的答案——充满创意的答案,而不是机械重复某些台词。有研究认为,ChatGPT的心智水平已经接近人类9岁小孩。
小宝:哈,那它比我聪明。但它毕竟只是个聊天机器人,想不通人们为什么要为它疯狂?
树龙:真正让人们疯狂的是ChatGPT背后的技术——大语言模型。你可以把它理解为一棵神奇树的树干,而ChatGPT只是它的一根树枝上结出的果实。大语言模型这个树干,是个语言专家,能和人类用自然语言(英语、汉语等人类天然的语言)顺畅交流,还可以胜任很多语言相关的工作。
小宝:好吧,我想知道这棵树上还会长出什么别的树枝?
树龙:很多人都在研究这个问题,目前可能的方向有这些:助手GPT,像秘书一样安排你的数字生活;学习GPT,像一个知识渊博的老师一样帮你提升自己;编程GPT,说出你的需求,它会立刻帮你做出你要的软件;客服GPT,代替99%的人工客服处理问题;创作GPT,帮你写文档、做PPT,甚至写故事、诗歌……
小宝:如果我不知道它到底是怎么工作的,我会觉得你说的这些全都是在吹牛。
树龙:保持怀疑,这很可贵,它会让你的理解更加深入。
02
填空题高手
小宝:所以,ChatGPT到底是怎么工作的?它为什么这么聪明?
树龙:你可以这样理解——它只是在做“填空题”,根据已知的文本,预测下一个出现的词应该是什么。
小宝:这和人类很不一样。
树龙:是的,人类要先搞明白问题是什么,然后针对问题的重点组织语言、给出答案。而ChatGPT只是在不停地做这样的计算——根据已知的词(或句子),下一个应该出现的词有哪些,分别是多大概率,然后选择它认为合适的词,组织起来作为答案。
小宝:你的意思是,实际上ChatGPT并不理解人类在说什么,也不明白它自己在说什么?而是在做一道道“概率计算题”?
树龙:确实如此。从工作原理的角度看,我们可以说ChatGPT并不真正理解人类语言,但是如果你不考虑它的工作原理,而是根据它的表现做评估,它不仅理解人类语言,还是个语言大师。
小宝:我开始困惑“ChatGPT到底聪不聪明”这个问题了。
树龙:实际上,70多年前,一个叫“艾伦·图灵”的英国人,就已经在为这个问题感到困惑了。他想出一种方法,去测试机器是否具有与人类一样的智力水准,这个方法叫“图灵测试”。简单说,图灵测试就是让一台机器与人类对话(以文字形式),如果人类辨别不出它是一台机器,那么就可以说这台机器拥有智慧。
小宝:ChatGPT肯定能通过这个测试。
树龙:是的,今年7月,《Nature》在一篇文章中称,ChatGPT已经攻破了图灵测试。
03
用数学解决语言问题
小宝:现在我知道了,ChatGPT是一个擅长做填空题的聊天机器人。我是一个会做填空题的人类小孩,我会做是因为我学过,它呢?
树龙:就像你的老师会训练你一样,ChatGPT的开发者也会训练它。ChatGPT主要通过学习互联网网页、电子书来提升自己。迄今为止,人类创造了数十亿个公开的网页,制作了500万本电子书,这些都是ChatGPT学习的“课本”。
小宝:人类永远读不完这么多东西。
树龙:是的,这样巨大的阅读量,可以让傻瓜变成天才。ChatGPT通过训练掌握了词和词的关系、句子背后隐藏的语法规则,以及一些语言的逻辑关系。最终建立起一个“大型语言模型”……
小宝:等等,你需要先说说什么是“模型”?
树龙:模型,可以理解为对一个复杂系统的简化描述,目的是模拟和预测系统的行为。举个例子,地图APP就是真实世界的模型,有了地图APP你可以轻松计算两个地点之间的距离。与此类似,语言模型可以理解和生成文本,图像模型可以识别图像中的物体。语言模型的本质是在做一系列复杂的数学计算,但是对用户来说,它就像一个神奇盒子,你提出问题,他就会给你答案。
小宝:再举个例子。
树龙:你看过电视剧《三体》,《三体》里的冯·诺依曼用3000个士兵组成人列计算机,其实就是想创造一个基于计算的太阳运行模型,从而预测恒纪元和乱纪元的周期,但失败了。说回ChatGPT,它背后的大语言模型,把人类复杂的语言问题成功变为数学问题,这很神奇。
《三体》人列计算机
小宝:科学家是不是想用数学解决一切问题?
树龙:数学无处不在。许多科学领域,如物理学、化学、生物学等,都依赖数学来建立模型、进行分析和做出预测。技术工程领域、人文科学领域,也都离不开数学。有人认为,数学才是宇宙的通用语言,因为它提供了一种精确、清晰、抽象的表达方式,有助于我们理解和描述自然界的规律。但是以前人们不太相信,人类的智慧(比如对自然语言的理解和使用能力)也可以被计算出来。而ChatGPT做到了这一点。
小宝:这说明了什么?
树龙:可能,人类的语言没有我们想象的那么复杂;也可能,人类的大脑也不过是一个基于数学计算的模型。
04
模仿人类大脑
小宝:ChatGPT算是真正的人工智能吧?
树龙:当然算。人工智能(AI)简单说就是让机器具备与人类相似的智能,它含义广阔,语音识别、人脸识别都算人工智能。在ChatGPT出现之前,人工智能的应用比较单一,比如用来下棋,或者用于医疗、金融等垂直领域。你可以把这些人工智能理解成职业学校毕业的中专生,有一技之长,但是能力不够通用。而ChatGPT就像一个读完本科的大学生,有很好的能力基础,未来可以适应的工种比较多。
小宝:为什么以前做不出ChatGPT?
树龙:ChatGPT是站在巨人肩膀上的,当然也叠加了一些时机和运气。有个说法叫“AI三要素”,说的是人工智能的三个主要组成要素:数据、算法和算力。其中,数据用来训练模型,而互联网的发展创造了海量数据;训练模型需要大量的计算资源,也就是算力,近年来随着GPU、云计算的广泛使用,算力规模也在持续扩大;而在算法层面,2017年,一篇标题为《Attention is all your need》的科研论文介绍了一种名为Transformer的模型架构,这启发了OpenAI公司,他们采用这种架构创造出了ChatGPT。
小宝:我还是不能理解,一个数学模型,为什么能和人类的大脑一样聪明?
树龙:可能是因为它模仿了人类大脑。
小宝:人类大脑是怎么工作的?
树龙:人类大脑中有1000亿个神经元(神经细胞),它们相互连接,通过电化学信号传递信息,组成了一个庞大的神经网络。举个例子,当你看到一颗水果时,神经元会分析它的颜色、形状、味道等信息,然后结合以往的判断模式,来确定它是一颗苹果还是一颗桃子。如果想要通过训练提升你的大脑识别更多水果的能力,那么就需要拿很多不同种类的水果到你面前,然后告诉你它们的名字,你的大脑慢慢就会建立起识别水果的模式。所以,学习很重要。
小宝:你刚刚对我完成了一次训练。
树龙:是的。大语言模型的情况也差不多。ChatGPT内部也是一个庞大的人造神经网络,拿GPT-3这个版本来说,它大约有几亿个神经元,拥有1750亿个权重(可以理解为连接神经元之间的强度)。训练ChatGPT的时候,这些神经元一起工作,识别输入的大量文本数据,学习其中的语言知识、语法规则和常识,然后不断调整模型,建立起模型对不同文本的反应模式。
小宝:要学习几十亿个网页、500万本电子书,那不得累死?
树龙:所以大语言模型非常耗费算力。随着大语言模型越来越多,GPU(图形处理器)的需求越来越大,生产GPU的公司这两年都赚翻了。为什么不用传统电脑使用的CPU(中央处理器)呢?因为训练大语言模型需要大量、复杂的并行(同时进行的)计算,而这是GPU的强项。
小宝:那相比之下,人类的大脑真是太强大了,拥有100倍ChatGPT的神经元,每天只要吃点饭就可以一直工作。
树龙:是的,能耗极低。说不定人类大脑就是一台超级计算机。在人类7万年的历史里,基因接受了各种各样的生存训练。当我们出生后,后天又在接受新的训练。这些训练一起建立了我们对于事情的反应模式。有研究认为,每个人每天可能要做上万个决策。也许我们大脑运转的本质也是数学计算。
05
小心AI!
小宝:好吧,现在我知道ChatGPT是什么了。它是一个精通人类语言的大师,拥有一个与人类大脑相似的神经网络,经过人类知识的训练,它建立了一套语言模式,你对它输入一些文字,它就会计算并输出相应的“答案”。
树龙:总结非常到位。
小宝:所以,为什么要让一个7岁小孩学习这么枯燥的东西?
树龙:就像90后被称为“互联网原住民”一样,你们这些10后正在成为“人工智能原住民”,应该多了解一下你们的时代。
小宝:可我觉得到目前为止,它除了聊天什么也不会。
树龙:别太心急,很多不同功能的GPT正在路上。将来,你会有一个秘书GPT,帮你安排日程、订票、找餐馆、打车;你还会有好几个学习GPT,给你讲课、辅导你写作业、回答你的问题;进入社会,你也不用再做基础的文案或者沟通工作,而是专注在AI不能解决的高深问题上;所有的交通信号灯都由AI管理,甚至,我们的火车、飞机、汽车驾驶员都会变成AI……
小宝:怎么感觉哪里不对?
树龙:我的描述让你联想到了一些科幻片,那里面AI操控了一切、包括人类。ChatGPT的横空出世,似乎掀开了故事的第一页。很多人已经开始警惕。
《洛基2》想变成人的人工智能分钟小姐
小宝:所以我们为什么要让AI接管红绿灯、飞机、汽车?
树龙:因为AI接管更方便、更高效、也更安全(理论上),尤其是能跟人类用自然语言交流的AI。就像人类学会种地之后就不再流浪一样,人类开始依赖AI之后也就不会回到过去;种地缩小了人类的活动范围、让人类的身体退化,AI也会带来它的新问题。
小宝:新闻上说,很多人会担心自己失去工作。
树龙:是的,AI导致一部分人失业是必然的,但失业的本质是财富分配问题。一些人通过AI获得了更大的收益,一些人因为AI失去了工作,财富从后者转移到前者手里,需要社会重新去调节。但对所有人来说,早点学习AI、使用AI是非常有必要的。
小宝:AI也可能被坏人利用。
树龙:非常正确。AI只是一个工具,它能高效率完成人类给他的任务。如果AI被坏人掌握,可能会用于武器、非法牟利等用途。
小宝:那一定要把AI牢牢控制在好人手里!
树龙:也不是完全有效。如果AI实现了超级智能,可能会产生自己的意识,AI自己的发展意愿或许会对人类构成威胁。
小宝:我们可以给所有AI写一些不伤害人类的基础规则,出厂自带。
树龙:你的意思,就像“机器人三定律”——1,不得伤害人类,或无视人类受伤害;2,必须服从人类命令,除非命令与1冲突;3,机器人必须保护自己,在不违反1和2的前提下。但实际上简单的规则不足以解决所有问题,就像我们创造了那么多的法律法规,却依然解决不了所有的现实冲突一样。每一个AI都会有自己的目标,人类也会有自己的目标,发生冲突是必然的。
小宝:所以应该怎么办?
树龙:这是全社会的重大问题,没有人有现成答案。你只需要记住,“AI威胁论”不是杞人忧天,我们应该给这个问题更大的决策权重。
小宝:到此为止吧。我想说,你成功地对我进行了一次关于ChatGPT的训练。
树龙:我很欣慰,这可能会优化你大脑的算法。不过,ChatGPT只是一个开始,关于AI,我们还有很长的路要走。