吴军讲ChatGPT
2024-03-06 17:36:16 0 举报
AI智能生成
通过对ChatGPT背后的技术原理的学习,更加理性、审慎地看待关于ChatGPT的能力边界、价值、以及对个人的影响
作者其他创作
大纲/内容
0、发刊词:“ChatGPT神话”的原理是什么
ChatGPT是一个被神化的语言模型的衍生品
语言模型的历史
1972年,贾里尼克在IBM沃森实验室建立人类的第一个语言模型,并且创造了语言模型这个专有名词
1991年,吴军、郭进最早构建了中文的语言模型,然后讲这个专有名词翻译成了中文,自此,“语言模型”开始出现在中国的会议刊物中
1996年,吴军在贾里尼克和库旦普的指导下,利用美国自然科学基金会(NSF)构建第二代语言模型
2010年,Google的杰夫·迪恩等人实现了第一个真正实用的深度学习系统——Google大脑,然后用它构建出第三代语言模型
今天,ChatGPT使用的语言模型是采用了深度学习算法进行训练的,但是这几十年发展下来,语言模型还是语言模型,而不是别的什么东西
媒体从来是扮演加速师的角色,在赞扬的同时贩卖恐惧。绝大部分赞誉是炒作,这并不可怕,因为20世纪技术的发展常常伴随着泡沫。但几乎所有的恐惧都是自己在吓唬自己,这才是可怕之处
ChatGPT神话
稍微了解一点宗教历史的人都知道,只有神具有让人们既赞誉,又恐惧的特点
例子:1503年,哥伦布利用天文年鉴记录的月食发生时间,成为土著眼中的神的代理人
世界上各种自然神,都是人创造出来的,但是人从此匍匐于它们的脚下。而人这么做,是因为不知道各种自然现象背后的原因,简单地说,就是不懂科学原理
1、第01讲:计算机答题和写作难吗
ChatGPT的神奇之处
为什么ChatGPT今天会这么火?因为它可以模仿人类对话。而且跟以前那些对话系统不一样的是,它不再是尽讲一些不着边际的话了,ChatGPT讲出来的话非常切题,而且看上去像是真人讲出来的
1、它能够回答复杂的问题
2、它能进行写作,你告诉它写什么,它就能给你写一篇能交差的公文
上个世纪五六十年代的科学家们认为,如果计算机能够很好地解决语音识别、语言翻译、回答复杂的问题、命题写作,或者对文章进行摘要,就表明它和人一样聪明。人们当时甚至觉得,这件事和治愈癌症、水变油一样难
到了2000年之后,虽然全面治愈癌症、水变油这两件事还是遥遥无期,但是计算机进行自然语言的处理有关的工作,已经被确认比想象得要容易得多
ChatGPT的能力
ChatGPT是科技发展顺理成章的结果
1、ChatGPT能做的事情,Google的产品和服务其实三年前就能做了,只是没有包装成ChatGPT这样的产品而已。公司认为,有更重要的事需要人工智能来做
2、提供不受限制的问答服务,对于Google这样的公司来讲,还有很多法律问题。比如,Google如果就法律问题给出建议,它会惹很多麻烦,搞不好会赔上百万美元。但是至少在今天,大家还不会为难OpenAl,因为和它这样的初创公司打官司挣不到多少钱的
当前使用ChatGPT的3个主要场景
1、信息查询:Google是给出有答案的网页链接,ChatGPT是直接给出答案
2、帮助写作业:这是很多大中学生使用它的原因,也是ChatGPT用户快速破亿的原因
3、应付差事的汇报:主要是职场人士使用
三个场景背后的两个核心
1、理解自然语言,明白人的意图
2、产生自然语言的文本,满足人的要求
ChatGPT的表现及背后原因
1、表现不稳定的原因,与它之前使用的训练数据有关,也和人对它提出的不同要求有关
2、虽然GPT自称是可以自己产生训练数据,但实际上,它要依赖人为产生的初始数据,才能产生新的数据。没有好的初始数据,它产生的数据也是乱七八糟的,当然,训练出的模型质量也就无法保证了
3、由于ChatGPT是一个新鲜玩意,人们常常会在它表现好的时候给它点赞,而那些不好的表现,就被不知不觉地给忽略了
4、ChatGPT是基于语言模型的自然语言处理系统,它的优势和局限性都来自语言模型本身。因此,要了解ChatGPT,就需要多少知道一些语言模型的原理
2、第02讲:ChatGPT的本质是什么
很多人喜欢说“某某技术横空出世”,渲染一种很神秘的氛围,但事实是:新技术往往不神秘,世界上很多爆红的产品和服务,其实使用的技术都是半个世纪之前的。而今天爆火的ChatGPT所依赖的语言模型技术,到今天也有50多年的历史了。换句话说,ChatGPT的底层技术是50年前的
技术发展了这么多年,不是应该早就超越了当时的极限吗?其实,无论是工业上,还是信息产业上,技术确实是可以改变的,但是物理学和信息论的原理和极限是无法改变的。虽然今天人工智能使用的语言模型和50年前在技术上有很大的不同,但是它们的底层原理都是一样的
语言模型
就是对人类语言建立的数学模型
语言模型不是逻辑框架,不是生物学的反馈系统,而是数学公式构建的模型
之所以采用数学模型,这是一条捷径,更容易在技术上实现
语言模型背后的原理
根据香农确立的现代通信原理,所谓通信,也被称为信道的编码和解码,无非就是信息源产生一个原始信息,然后在接收方还原一个和原始信息最接近的信息
通信系统会计算哪一种可能性的概率最大,然后将它选出来,只要传输中的噪音不是太大,而且传输的信息有冗余,我们就能复原原来的信息
让计算机来做这件事,不是让计算机学着人的做法去理解语言,而是最好能够让计算机计算出来哪一种可能得语句概率最大。这种计算自然语言每个句子概率的数学模型,就是语言模型
如何消除不确定性
也许我想要得到的就是概率小的那一句呢,用最大概率的来预测就出错了?
语言模型解决这个问题的办法就是利用更多的上下文信息,消除所有的不确定性
由于自然语言中又信息冗余,在这么多的上下文里,几乎就不存在不确定性了。这也是为什么今天ChatGPT产生的语句,已经很像人说的话了。但从本质上来说,它的原理依然是在很多候选中,选择一个概率或者可能性最大的句子。这一点是始终没有改变的
模型的概率的计算
统计在相同的上下文的条件下,每个词具体出现了多少次。因此,语言模型也被称为是统计语言模型,因为模型的参数,也就是用来计算各种概率的参数,都是靠统计得出来的
需要说明的是,今天对于语言模型参数的统计并不是简单的数数,而是要用到很复杂的机器学习方法反复计算
提高模型准确性的方法
增加数据量,以避免小概率事件带来的噪音
增加数据量的同时,还要保证数据的质量
3、第03讲:语言模型是如何进化的
了解自然语言处理的发展趋势和目前方法的局限性,可以帮我们更加理性看待ChatGPT,消除对人工智能的迷信
三个阶段
1、上个世纪90年代
贾里尼克等人在IBM用它解决了语音识别的问题
李开复决定抛弃卡内基梅隆大学所走的传统的人工智能道路,利用IBM的方法实现一个实用的语言识别系统,从而成为当时美国的科技新星
2、90年代后
单纯增加训练数据的做法并不是十分有效,贾里尼克做的统计发现,无论数据量如何增加,都会有大量的语言学现象覆盖不了
人们开始考虑用语言中更深的知识和信息建立语言模型
语法信息
语义信息
增加了语法和语义信息后,可以在保持原有数据量的情况下,大大提高语言模型的能力
但是,与此同时,训练模型的计算量变得特别大,虽然有摩尔定律的作用,但是,计算量的增长是超过计算能力的提升的
除了挖掘语言中更多的信息,科学家还提出了自适应的语言模型,也就是说,一个人使用语言模型的过程中,他个人的输入的信息和间接提供的反馈信息,能够用来改进语言模型
为了应对计算量的增加,2000年之后,很多语言模型的研究工作转向了提高算法的效率上
3、2010年前后
Google开发了深度学习的工具Google大脑,一方面能够更加有效利用计算资源,使得语言模型能够越做越大;另一方面,也让模型计算出的概率越来越准确
此前,无论是语音识别,还是机器翻译,都需要给它一个完整的句子,它给出一个具有同等信息量的句子,输入输出是1:1。但是,到了本世纪的第二个10年,计算机逐渐做到了从写一句话到写一个完整的段落
从信息论的原理出发,输入的信息量少、输出的信息量多,这中间的差异必须有办法给补回来,否则输出的内容里一定会充满不确定性
实际上,补充的信息都存在于语言模型中,需要先把信息输入到语言模型,这时的语言模型就是所谓生成式的了,GPT中的G,就是Generative,生成的意思
比如,GPT-3的训练数据就包括几十万本图书、几乎全部维基百科的内容。这么多的数据还只是它所用数据的五分之一不到。实际上,单是维基百科的内容,几乎就能回答今天绝大部分人提出的所有有意义的问题了。因此,ChatGPT的表现比很多人好并不奇怪,因为人一辈子学习的内容可能连它的千分之一都没有
4、第04讲:ChatGPT的能力边界在哪
ChatGPT被热炒的原因
ChatGPT真正可怕的地方在于,按照当前的速度发展下去,不断扩大应用领域,它可能可以解决很多原本需要人类才能解决的问题
ChatGPT的能力边界的根源
ChatGPT的基础是语言模型,因此,它的极限也被语言模型的极限所限制
语言模型能做的三类事情
1、信息形式转换
将信息从一种形式转换为另一种形式,无论是语音识别还是机器翻译,都是这一类
需要指出的是,任何形式的信息转换通常都会损失一些信息。比如,在机器翻译中,语言中所蕴含的文化常常就丢失了,学贯中西的翻译大家,会试图把文化的元素加回去,但是计算机做不到这一点
基因测序、自然语言翻译为为编程语言也是这一类的事情
2、根据要求生成文本
这一类的工作,输入的信息量明显少于输出的信息量,因此,需要补充额外的信息,额外的信息来源于语言模型
如果语言模型中包含了某个话题的很多相关信息,它就可以产生高质量的文本;否则,它给出的答案或者所写的内容就不着边际
这一类的工作,对于语言模型是最难的,倒不是语言模型做得不够好,而是从信息论的角度看,不可能通过少量信息得出更多的信息,因此,或多或少都需要人工干预
ChatGPT不能自己创造答案,答案基于已有的科学知识,但它的价值在于,可以减少人的工作量
3、信息精简
把更多的信息精简为较少的信息,比如,对长文的摘要、上市公司财报的分析
将信息由多变少,就会面临一个选择,选择保留哪些信息,删除哪些信息
对于这一类工作,最终计算机会比大部分人类做得更好,不仅仅因为更快,而是能够做到更加客观。人类会带着先入为主的偏见,选择数据,有意无意忽略那些重要但不符合自己看法的数据
计算机算法的问题在于,千篇一律,缺乏个性
5、第05讲:ChatGPT的回答从哪里来
对于计算机来说,除了“为什么”和“怎么做”的问题属于复杂问题,其他问题都属于简单问题
简单问题的回答
利用语言模型回答问题,不是一个问题对一个答案这样简单的匹配,而是对于问题给出多个答案,然后根据答案的概率排序,返回一个最可能的答案
复杂问题的回答
人类回答的三种方式
1、知道答案,直接给出
2、不知道答案,但是懂得找到答案的基本知识,利用基本知识推出了答案
3、不知道答案,现有的知识也无法直接推导出答案,需要做研究工作
语言模型
仅能做到人类的第一种方式:回答问题也好、写作短文也好,都基于它对现有事实的抽取和整合,或者说归纳总结
比如,我现在问一个复杂问题,计算机就会去找到几十上百个可能包含答案的文章,然后从这些文章中提取一些语句,构成可能的答案。当然,为了让这些句子凑在一起看上去像是一个有逻辑的、连贯的回答,就需要使用语言模型了
换句话说,这些候选的文章里有了原材料,而语言模型是一个厨师,将它做成一道菜。如果语言模型质量不高,提供的答案就是几个事实的堆砌,让人看了觉得毫无连贯性可言。ChatGPT之所以比之前的问答系统做得好,并不是它的原材料更多,而是菜做得更精致
6、第06讲:ChatGPT有哪些固有缺陷
结论
ChatGPT现在存在的问题,有些是可以通过改进解决的,有些则是ChatGPT固有的问题,甚至是今天机器学习方法固有的问题,要解决是很难的
可以改进的问题
1、由于信息量不够造成的问题,可以被解决。但是,取决于人类创造新知识的速度。网络上的文字更新虽然很多很快,但是新增加的知识并不多
2、回答不够生动、乏味的问题,随着语言模型的技术的进步,是可以被解决的
3、ChatGPT背后离不开大量的人工的问题,也是可以被解决的。比如:战胜李世石的那一版AlphaGo,需要消耗一栋十几层办公大楼的耗电量;两年后,战胜柯洁的那个版本,耗电量降低了两到三个数量级
无法解决的问题
1、垃圾输入,垃圾输出
已故的著名物理学家张首晟教授讲的一句话:很多人做了多年研究,结果把物理学的第一性原理都忘了
在信息领域,信息论所划定的边界,是不可逾越的,就如同光速和绝对零度不可逾越一样。语言模型进化到今天,虽然进步了很多,但依然是一个利用已有的信息预测其他信息的模型,这个性质没有改变。因此,如果你不给它提供足够多的信息,它就无法做事情。这就如同你不给汽车提供燃料,它就无法走一样
从原理上讲,今天几乎所有的人工智能产品都是复读机。先要有各种知识和信息,ChatGPT才能工作。你给它提供高质量的数据,它就会产生一个高质量的语言模型,然后给出高质量的答案,写出高质量的文章。相反,你用垃圾数据训练它,它就输出垃圾
2、正反馈可能会将ChatGPT引入歧途
自适应的正反馈是把双刃剑,如果有人刻意引导ChatGPT犯错误,这种正反馈机制会导致它错误百出。事实上,很多使用者已经发现,ChatGPT在回答很多问题时已经被人“教坏了"
ChatGPT像是一个厨师,你给它有营养的食材,它有可能做出一道既有营养、味道也还不错的菜。但你给它垃圾数据进行训练,它输出的也只能是垃圾。这是今天机器学习普遍的问题
3、人工干预的边界
事实上,今天的语言模型和上个世纪早期的语言模型已经有很大的不同了。早期的语言模型比较简单,通常是直接把上下文的概率存在里面。今天的语言模型,存储的是人工神经网络的参数,从那些参数,你完全看不出它们和概率的大小直接的关系。换句话说,你很难通过人为调高或者调低一些参数来控制ChatGPT的输出结果
人工干预还有一个很大的隐患,就是把人主观的好恶加进了一个原本应该客观的语言模型中,这可能导致更大的不公平
今天的ChatGPT已经是一家平台公司了,如果里面的人随意根据自己的好恶选择训练数据,控制结果。这个危害可能比操控推特更大
7、第07讲:搞ChatGPT需要什么资源
结论
全民大炼ChatGPT,既不必要,也不可能。因为,ChatGPT的核心是语言模型,而语言模型需要用大量的数据来训练,有了数据后,还需要强大的算力支持,然后还需要有足够高水平的并行计算和机器学习的算法支持。数据、算力、算法三道坎,只有极少的互联网大厂能够越过去
3个门槛
1、数据
训练ChatGPT所用到的数据,如整个维基百科的数据、自媒体上的数据和社交网络上的数据,数据量极其庞大。不是每个企业、个人都能得到所有的这些数据
2、算力
早期的算法就是对文本做一些统计,然后利用一些简单的数学公式,计算出一个词在不同上下文条件下的概率,实现保存下来。使用的时候,再根据这些概率,计算出各种语言现象的概率,比如一句话的概率,某个词是名词的概率,哥顶一个问题,某句话是它的答案的概率。即便如此,截止上个世纪90年代,这种简单的统计,消耗的算力也是惊人的,只有IBM这类的大公司才能办到
贾里尼克等人为了提高语言模型的准确度,开始深度挖掘语言中所蕴含的信息,包括语法信息和语义信息,这就需要更大的计算量了,增加100万倍到1亿倍是一个合理的估计
很多人觉得,摩尔定律可以让计算的成本不断下降,过去做不成的事情今天能做成了。其实,随着时间的推移,人们对人工智能的要求也在不断提高,需要的算力也在不断增加。算力,永远是一个瓶颈
开发GPT语言模型的公司OpenAl没有讲它使用了多少计算资源,但是它暗示,硬件成本超过一亿美元。如果我们按照1000美元一个GPU计算,它使用了10万个GPU。以32位运算为准,它能提供超100PFLOPS的算力,也就是每秒10亿亿次运算以上。这是整个特斯拉云计算集群计算能力的两倍,是Google最大的数据中心算力的1/3,是阿里云最大的数据中心算力的1/4。这还只是在它开发GPT-3时的花费。到了升级为GPT-4时,需要的计算资源就更多了,用到了微软云计算大量的计算资源
因此,如果你也想做一个ChatGPT,先要考虑一下自己的算力够不够。很多人一看到出了个新技术,就觉得机会来了,但是绝大部分时候,那些机会和大家无关,因为大家没有基本的能力实现它
3、算法
如果只看算力,似乎可以。但其实,算力也分“聪明的算力”和"笨的算力”,对于人工智能问题,只有前一种一一聪明的算力一一才有意义。所谓“聪明的算力”,就是说,光有算力还不够,你还得有配套的算法把算力的作用发挥到极致。如果没有配套的优质算法,算力就只能事倍功半。这就是笨的算力
也就是说,除了算力之外,基础的自然语言处理技术,也就是算法,也是实现ChatGPT这些产品必不可少的条件
8、第08讲:当前人工智能的边界在哪里
2016年,当Google 的 AlphaGo战胜李世石之后,很多人就开始担心,是否世界上所有的事情计算机都能做得比人好。今天,当ChatGPT再次引爆人工智能这颗炸弹时,很多人就更恐慌了。这种担心或多或少有点杞人忧天,因为无论是什么样的计算机,都只能解决世界上很小一部分问题。事实也证明,从2016年到现在,基本上大家该做什么还是在做什么,只是做事的方式有所改变而已。更具有讽刺意味的是,智能革命原本应该造就更多的和IT相关的工作,让很多所谓的低端劳动消失。但现实情况却是,从2022年到现在,全世界最有名的仃公司都在裁员,而且裁了不止一轮
ChatGPT的边界是人工智能的边界,而人工智能的边界是数学的边界,数学是有边界的
数学和计算机的边界
3个人从理论上划定了数学和计算机的边界
1、哥德尔
大数学家希尔伯特,就致力于构建一个既完备又一致的数学体系。通俗地讲,所谓“完备〞,就是数学的公理可以推导出所有合理的结论;所谓〞一致”,就是推导出的结论不矛盾
在1931年,年仅25岁的哥德尔证明了,数学体系不可能既完备又一致。也就是说,保证了完备性,结论就会矛盾;保证了一致性,就会有很多结论无法用逻辑推理的方法证明
从此,人们意识到,数学不是万能的,世界上很多问题不是数学问题。这个认识很重要,让人类少走了很多弯路
2、马季亚谢维奇
早在1900年的时候,希尔伯特就提出过一个疑问,也就是著名的希尔伯特第十问题,简单说就是:对于某一类数学问题(不定方程整数解的问题),有没有一个方法,通过有限步,就能判断它有没有解?
注意,希尔伯特关心的只是判断一下它有没有解,还没有考虑如何解决它。当然,判断不清楚是否有解,就不可能解决它
这个问题困扰了很多数学家一辈子。最终在上个世纪60年代末,做大学毕业论文的马季亚谢维奇解决了这个问题,给出了否定的答案。也就是说,即便是对于一些看似很简单的数学问题,我们都可能不仅不知道如何解决它,而且都无法判定它是否有答案
马季亚谢维奇的结论对搞计算机的人来讲,既是一个坏消息,也是一个好消息:坏消息是,很多问题就不要想着如何编程去解决了。换句话说,很多数学问题压根无法用计算机一步步解决;好消息则是,避免了很多人在这里浪费时间。不过,并非所有搞技术的人都知道数学的边界在哪里,依然有无数人在犯错误,试图解决不应该用计算机解决的问题
3、图灵
图灵发明了一种叫作图灵机的装置,能够在有限时间内,判断出哪一类问题能够在有限的步骤内计算出来。简单地说,图灵不仅给出了可计算的问题,也就是有答案的问题的边界,而且告诉了人们实现计算的方法。这个方法就是图灵机,它能够在有限时间内,判断哪一类问题能够在有限的步骤内计算出来
人工智能的边界
首先,世界上很多问题都不是数学问题。
其次,根据希尔伯特和马季亚谢维奇给出的结论,很多数学问题有没有解是不知道的。在计算机和数学领域,知道一个问题有没有解,叫作”可判定〞,这样的问题叫作"可判定问题〞
再次,可判定的问题很多是无解的,只有少部分有答案
数学问题分类
在有答案的问题中,有一些是可以通过图灵机解决的问题,也就是所谓的可计算的问题
当然,图灵机是一种理想状态的计算机,它所谓的有限时间,可以是非常长的时间,比如1 万亿年,超过宇宙的年龄。再有,现实生活中计算机能解决的问题,又是可计算问题中一个更小的子集,称之为“工程上可计算的问题〞
最后,工程上可计算的问题并非都属于人工智能研究范畴的问题,人工智能可以解决的问题,又只是工程上可计算的问题的更小的子集而已
人工智能问题
而且,即便是这极少的人工智能可以解决的问题,也还必须找到算法才能计算!
在人工智能的边界内思考
今天,人工智能发展得比较快,解决了不少问题,就是因为过去没找到算法的问题,今天算法找到了。但是,这并不意味着现有的算法已经解决了所有人工智能的问题,更不要说解决全世界的所有问题了
讲到计算机能力的边界,还有一些人会有一个疑问,就是:量子计算出来之后,是否原来计算机解决不了的问题,今天就能解决了?这其实是混淆了计算能力和可计算性。计算能力增加,原来可以计算的问题会算得更快,瞬间解决,但是不可算的还是不可算
在人工智能的边界外胡思乱想的两类人
1、真的无知,没有做过人工智能的研究,甚至不知道人工智能为何物的人,就敢自称专家
2、人工智能领域的从业者,他们把自己做的贡献在无意中夸大
事实上,很多人是没有耐心了解原理的,也因为不了解原理,于是只能人云亦云的跟风
9、第09讲:ChatGPT为什么会被热炒
如果翻翻10年前的旧闻,你就会发现差不多的文章早就出现过,只不过现在是用ChatGPT替换了当时的一些词语。这几年,有差不多待遇的技术就有VR、量子计算、元宇宙、区块链、Web3,等等。 除了VR和量子计算在慢慢取得进展,区块链在一些行业开始得到一点应用,剩下的都还没有什么结果。ChatGPT不是第一个被热炒的话题,也不会是最后一个。热炒的背后一定有原因,有利益、有恐惧、有哗众取宠,也有无知
1、投资角度
当一家企业有了一个别人都没有的技术,特别是这项技术被认为有可能改变世界的时候,它的估值就会暴涨。如果它是一家上市公司,它的股价就会暴涨。背后都是利益
今天有人嘲笑苹果的Siri落后了,很多问题回答不了,但是我觉得,不给答案要远比给出一个错误的答案好。如果ChatGPT这样的服务将来真的很流行,你会看到一个苹果版的,但不是在今天
2、从业者角度
观点1:兴奋
大谈GPT的技术细节,认为自己的机会来了。很多人你还批评不得,因为他会说你不懂技术
背后其实也是利益
很多转行进入这个领域的人,其实是用自己的业余爱好,和很多接受了七八年训练的专业人士争饭碗,肯定不是明智之举。有些人觉得加入到了人工智能行业,就可以挣别人的钱,其实螳螂捕蝉黄雀在后,真正赚钱的另有其人
观点2:恐惧
之前还觉得自己和世界先进水平很接近了,怎么一下距离就被拉开了。生怕自己落伍了,因此一定要做点什么
如果ChatGPT这件事是一个方向,早一天、晚一天开始这方面的工作差别不大,毕竟追赶别人比自己在前面摸黑探索要快得多
消费电子展(CES)上,从一个概念原型到挣钱的产品,中间要间隔多久呢?通常要七年时间。而七年前展示原型的,和七年后展示挣钱产品的,常常是两家公司。如果一项技术只有一年的窗口期,不是说明它发展得太快,一年就把全部的问题解决了,而是说明它一年后不存在了
3、媒体角度
美国媒体
《大西洋月刊》的报道是,“ChatGPT远比你想得要笨一-它只是一个玩具,还称不上是工具”
《商业内幕》的报道是,“ChatGPT教人学坏一-谋杀,制造炸弹,反犹太…”
美国国家广播公司(NBC)的报道是,“ChatGPT会产生假新闻和误导信息〞
当然,也有赞誉它的报道,但总的来讲大家并没有把它当作神
国内媒体
国内有些媒体很有意思,它把赞誉ChatGPT的报道翻译了过来,然后根据自己有限的体验,增加了一些耸人听闻的报道,甚至对一些专家的评论断章取义
其实大家如果有心把那些媒体过去的十年里对热门技术的报道翻出来,就会发现当初炒VR的、区块链的、元宇宙的、自动驾驶汽车的,都是同一批人。当然,那些报道当时是非常吸引眼球的,但事后几乎没有人去深究
4、普通人角度
不客气地讲,很多人把ChatGPT看成了一尊新的神,认为它无所不能
对于一个新技术,特别是从名称无法理解其内容的新技术,一开始出现和原住民类似的反应是很正常的。但是今天几乎每一个人都接受了至少12年的教育,对一件新事物的反应依然如此狂热,这就有点过头了
实事求是地讲,ChatGPT既不像很多人讲的那么神奇,也没有那么可怕,但也不是毫无用途
10、第10讲:ChatGPT能够替代什么人
ChatGPT能取代人吗,或者说能抢人的饭碗么吗?简单的答案是一一“能”。但是它只会抢特定人的饭碗,而不是所有的人
什么人会被取代
会被ChatGPT取代的人有三个特点:从事不费体力的工作,不动脑子的工作,或者不产出信息的工作
纠正很多人的一个错误认知。有人可能会觉得,ChatGPT能“生成”信息,甚至一些从事自然语言处理工作的人也有这种错误的想法。这种想法其实违背了信息论的基本原理。技术是可以进步的,但是信息论最基本的原理是无法突破的,就如同物理学的规律不能违背一样。今天的语言模型比50年前强大得多,但是再强大,它依然不过是一个需要依靠信息的预测模型,这就如同没有翅膀的汽车,再发展也上不了天。总之,ChatGPT的特点是利用人喂给它的信息,再去产生信息,这有点像是复读机,或者鹦鹉学舌
可能会被取代的职业
1、金融分析师
2、大部分财经媒体记者
3、律师助理
4、普通文员
5、短视频制作人
6、大部分公众号写手
会被替代的工作的共同特点是:本身不产生信息
另外还有一类工作,在短期内可能收益还不错,但是前景会越来越暗淡,就是低端的IT从业者
与之相反的是,真正费脑力的工作当然不会被取代,因为知识和信息就是这些人创造的
为什么费体力的工作也不容易被替代呢?因为那些工作和ChatGPT无关,或许有些机器人能取代一部分体力工作。但事实证明,今天全世界所缺的反而是要费体力的所谓的蓝领工作,比如设备维修、送餐、保洁、酒店服务等等。10年前我们都觉得这些工作容易被取代,但事实却是,今天全世界这些工作并没有减少,而且招不到人,很多岗位还在增加,薪酬提高的幅度也很大
什么人不会被取代
越是到了各种智能工具不断涌现,做事情越来越便利的时候,从事创造性的工作也就越来越重要
很多人觉得,蓝领的工作具有重复性,白领的工作都是创造性的。这其实是一个误解。一个水管工,一年修的水管还真没有多少完全一样的。相反,今天很多实验室的工作,重复性反而很高
从招商银行的年度财富报告来看,前2%的优势甚至比我们想象得还要大,今后这个差距还会更大。这倒不是因为前2%的人掌握了新技术,而是因为他们掌握了正确的思维和做事的方式。相反,很多人的竞争力则相对下降了,因为思考问题的底层逻辑就是错的,而他们掌握的技能很快会变得毫无价值
比如过分迷信技术,就是一种错误的思维方式。很多人觉得有了新技术,我将来就省事了,不费脑筋就可以挣大钱。我给你介绍一个美国科学院院报(PNAS)的结论:正是因为全世界很多人都有这种想法,让现在的人变笨了
在历史上,科技越发达,人们受教育越多,会变得越来越聪明,也就是智商测试结果逐年增加。这也被称为弗林效应。但是,这个趋势在上个世纪70年代信息革命开始之后停滞了。随着机器智能越来越先进,智商测试分数反而在逐年降低
但凡觉得有了智能技术,自己就不需要努力的人,会首先成为智能时代的牺牲者。人工智能可以解决很多问题,但救不了思想上懒惰的人。相反,有了智能工具,反而更加勤奋的人,不仅不会被ChatGPT抢走工作,还会因此有更高的成就。这时,技术就不再是诅咒,而是祝福了
11、第11讲:理性地看待ChatGPT
1、投资人的角度
从投资人的角度,对新技术总是欢迎的,毕竟,没有技术发展,就没有投资的可能性。但是,当人们对一项技术炒得过热时,其实已经不是投资它的好机会了
从整体上讲,每一项技术都会带泡沫,泡沫是有好处的,它可以让资金在短时间里流向一个领域,加速它的进步。但是,如果条件尚未成熟,或者技术的影响力被过分夸大,那些投出去的资金就可能永远也回不来
很多人喜欢把巴菲特的一句话放在嘴边,“在别人恐惧时我贪婪,在别人贪婪时我恐惧”,但也仅仅是挂在嘴边而已
有人可能会说,不抓可惜啊!万一它将来成为趋势了怎么办?如果它真的成为了超势,等到趋势明显一点再投身进去也来得及。但凡能成为趋势的技术,都会有几十年的发展机会
相反,如果一项技术,或者一个新领域,只存在几年的时间,错过前两年就没有机会了,那这样的所谓机会不要也罢。毕竟大家用钱投资也好,都是希望有长期回报,而不是仅仅一两年的回报
2、从业者的角度
今天,很多人见到一点点新技术就言必称机会,其实是想多了,不妨看看最近十年真正的机会到底有多少
即便人工智能是一次新的技术革命,ChatGPT也只能算是其中的一个涟漪
对于从业者来讲,如果正好身在人工智能领域,恭喜你,把这碗饭好好端十年。如果不在这个领域,也不用刻意挤进来,毕竟拿业余爱好和别人的专业去竞争,很难有胜算。做好本职工作的回报一定是最高的
如果一定要说哪些从业者有机会,可能是像英伟达、AMD这些做GPU的公司,以及亚马逊和阿里巴巴这些卖算力的公司。毕竟,训练语言模型和提供ChatGPT之类的服务是非常消耗算力的,挤到人工智能领域的企业越多,这些公司的生意越好
同样的“工具”的逻辑
这就如同过去加州淘金热时,没有一个淘金者留下姓名,因为他们实际上大都没有挣到钱,只是勉强活下来了而已。但是,卖水、卖工具的人发了财,做牛仔裤的人发了财
中国团购“百团大战”时,广告公司赚到了钱
比特币热的时候,AMD、英伟达赚了钱
今天,如果你是做高端处理器或者智能化云计算的,也要恭喜你,你挣钱的机会可能比直接做人工智能的更多
3、普通人的角度
应当把新技术当作意外的惊喜,或者叫作意外的奖励 (Bonus)。如果它能对我的事业有帮助,固然好;如果没有帮助,也没有关系,因为当初没有给予太高的期望,也不会太失望
就算ChatGPT有点机会,之前那么多机会哪次你把握住了?事实上,把握住某些机会的人,是因为他们先学会了如何把握机会,然后才把握住机会的
具有把握机会的能力,任何时候都有机会。没有这个能力,试图搭顺风车,这种好事恐怕轮不到大多数人。因为参与的人太多,就不可能有利润了
众争勿往,这个道理对于ChatGPT依然成立
当然,今天还有相当多的人对ChatGPT恐惧,觉得天要塌下来了。这就有点像是被哥伦布蒙骗的原住民,完全没有必要
其实,比恐惧的结果更可怕的是恐惧本身。很多人因为不必要的恐惧把生活搅得一团糟
总结
对于绝大部分人来讲,有没有ChatGPT,他今后十年的生活轨迹不会有什么变化。因为在任何社会里,大环境都是最重要的
今天中国人的财富比祖辈、父辈增加了上百倍,是因为有四十多年和平发展的大环境,而不是大家的本事比父辈、祖辈大,或者把握机会的本事高
专业做股票交易的人都知道,即使交易非常频繁,而且成功率极高的交易员,80%以上的回报也来自于大盘,他自己做的那些努力只是微调而已
因此,大家将来的命运取决于大环境,而不是某一项现在还看不清的技术。如果大环境不好,技术再进步,红利也落不到大家身上。大家看看今天的拉美、俄罗斯和南非就知道了。相反,如果大环境好,任何技术进步都会变成新的就业机会
面对一个自己看不清楚的事情,不妨多观察一段时间,再做结论。对于自己不懂的事情,要搞清楚,不要和别人一同去造神。今天人们造了太多的神。对很多人来讲,过去乔布斯是神,今天马斯克是神,将来ChatGPT是神。但其实,造神是一种思想懒惰的表现,因为不用思考,一切归结为神就可以了
因此,越是别人狂热的时候,我们越需要冷静。未来不是给机会主义者的,而是给踏踏实实把本职工作做好的人的
至于有人担心ChatGPT会产生自主意识,提出对它进行道德约束,这更是对意识和人工智能的瞎担心,和有些人怕鬼没有什么差别。还有人说,ChatGPT会教人学坏,这是真的,但它只是一个复读机,它是从人那里学坏之后,又把坏想法还给了人类,仅此而已
12、第12讲:还有哪些AI技术值得关注
多任务人工智能
人工智能的两条技术路线
GPT-3是所谓以数量实现质量的代表,用英语的说法就是“brute force",翻译成中文就是"简单粗暴”,大数据,大计算量
而多任务的人工智能则是以质量取代数量,人其实就是多任务的智能生物
今天,几乎所有人工智能的成果都来自于以数量实现质量。数据、计算能力和数学模型,是当今人工智能的基础,ChatGPT便是如此
实现多任务的人工智能的条件
1、知其然还要知其所以然
今天,ChatGPT能够给出一个问题的答案,AlphaGo能够给出已知的最好行棋步骤,但是它们并不清楚为什么给出这些答案,这就是知其然而不知其所以然
想要做到知其所以然,需要真正的理解知识
2、具有对身边事物的好奇
其实就是主动学习
没有好奇心,就无法积攒普遍意义上的经验
3、具有常识
4、处理信息的能耗降低几个数量级
生物和医学应用
一个值得关注的应用领域,也就是深度学习在生物和医学上的应用
迄今为止,这方面最有意义的一项成果是DeepMind 公司(Google 的子公司)做的AlphaFold,也就是用深度学习解构蛋白质的结构,研究蛋白质的折叠问题
人的生命是靠新陈代谢完成的,而新陈代谢是由基因控制蛋白质的合成实现的。如果蛋白质的合成出了问题,人就会生病。而几乎所有和衰老有关的痪病,都和蛋白质的合成有关。因此,研究清楚这个问题,是解决衰老的关键
但是,蛋白质是一种非常复杂的有机分子,由很多氨基酸组成的链构成,而且这个结构还是三维的。今天,人类发现了很多种蛋白质,但是无法搞清楚它们的结构。解决这个问题是极具挑战性的
在过去的60多年里,人类大约只解构了千分之一的蛋白质。换句话说,现在已知的和生命有关的蛋白质超过2亿种,而人类只解构了17万种。前面说过,如果能预测蛋白质的结构,将极大地促进生命科学的研究。显然,光靠人力做这件事,我们是等不及的
是否需要防范人工智能
担心为时过早
事实上,我们今天要担心的,是那些人工智能背后的公司和控制它们的人
通过对技术原理的学习,能够不被周围的声音带偏,能够更加理性、审慎地看待ChatGPT
0 条评论
下一页