前段时间国产大语言模型 deepseek,更通俗的说法是国产 AI deepseek 引起了海内外的巨大反响,很多人希望我也写文章做节目谈谈对 deepseek 的看法。我当然也是想蹭这个热点的,而且,我其实在 deepseek 大火之前的一个月就已经跟很多周围的人推荐过 deepseek,我当时的推荐语是说:
“你们可以不用给 chatGPT 缴费了,免费的国产 AI 已经不输给 chatGPT 了。”
当时还有很多人不信。现在,大家几乎已经公认,deepseek 的中文写作能力已经超越 chatGPT,成为市面上中文写作能力最强的大模型。当然,因为 deepseek 是完全开源的,所以当你听到这期节目时,其他大模型可能已经追平了它的水平, AI 发展速度真的是超出寻常的快。
令我自己也没想到的是,原本是为了蹭个热点,写一期杂谈说说 deepseek,谁知道在写作过程中,各种各样的想法像雪花一样杂乱无章地涌进我的大脑,让我从 deepseek 的小池子中跳进了一片宽广的海洋,我决定跳出关于 deepseek 本身的各种技术问题,把话题从 deepseek 引向更宏大一些的主题。于是我把标题从「谈谈 deepseek」改为「这是一曲写给自己的挽歌」。
挽歌,就是写给死者的诗歌。古人在送葬的时候,就会唱起挽歌。
我为什么要给自己写挽歌,当然不是真的为自己写送葬的歌,而是要给我自己作为文字工作者的身份写挽歌,因为我已经明确地看到,以我的文字写作实力,很快就会被 AI 碾压。我这个段位的文字工作者,在不远的将来,已经无法靠单纯的写作来养活自己。这可不是自谦,而是清醒地认识到 AI 在内容创作上的实力很快就可以碾压几乎所有人类。
我今天这期节目要谈的其实不是 AI,而是 AGI。
01 从《生命 3.0》开始
我清楚地记得,七年前的 2018 年,我在泰格·马克《生命 3.0》这本书中,第一次了解到通用人工智能,英文简称 AGI 这个概念时,我是把它当做一个远未来的科幻概念对待的。就好像 2000 年,我第一次看《黑客帝国》这部电影时,虽然感觉无比震撼,但我从未觉得电影中的世界会成真。因此,我必须诚实地说,我当时没有认真读这本书,只是随手翻了翻,并且听了一些像万维刚老师这样的科普人对该书的解读,就当做是自己读过了。今天,我必须承认,这是我作为职业科普人的角色最不应该错失的一本重要著作,就好像我捡到了一块宝石,因为眼拙,随便摸了摸、看了看就束之高阁了。
这段时间,我把《生命 3.0》这本书又从头到尾,一个字一个字地认真读了一遍,算是弥补我所犯的错误。尽管有点像一不小心被人剧透了结局之后再去看一部美剧,但我依然被泰格·马克超前的思考所震撼。
不过,我今天不是来给大家讲这本书的,它只是我今天节目的一个切入点。这会是一期很长的节目,为了照顾到所有年龄段的朋友,我需要先从一些基本概念开始讲起,逐步表达我在迎接人类社会从根本上发生巨变前的复杂情绪。
在我看到《生命 3.0》这本书之前,我经常给人科普什么是“图灵测试”,因为一讲到人工智能,科普图灵测试会显得自己逼格很高。所谓图灵测试,就是英国数学家、密码学家图灵提出的一个概念。他说,如果出现一台机器,当我们和这台机器对话时,我们无法分辨出它到底是机器还是人时,这台机器就通过了图灵测试,具备了智能。
也就是在五、六年以前,人们还在热衷于讨论 AI 何时能通过图灵测试,以及通过图灵测试的 AI 算不算有了智能等问题,我也为此做过很多节目讨论。但是,在今天看来,当时那些所谓的“高见”是如此的天真、幼稚。诚实地说,包括我在内的大多数人,都没能预见到那时觉得“极具科幻感”的图灵测试会在几乎一夜之间成为历史名词。今天,如果饭桌上还有人热衷于跟我讨论 AI 能不能通过图灵测试,我看他的眼神,就会像是看一个冬眠了 40 年的人刚刚苏醒过来,问我将来会不会有不用真人,纯用电脑制作的电影。我会指指《哪吒》的海报说:“中国最卖座的电影是一部纯电脑动画片,而且票房比第二、第三名的总和还要多”。
实际上,在泰格·马克这些对科技的发展了如指掌的人看来,至少在 8 年前的 2017 年,“图灵测试”就已经成了历史名词,换句话说,在泰格·马克看来,图灵测试对于未来的 AI 来说就像是儿戏,太简单了,尽管当时大语言模型还没诞生。而那时的我,可能还刚刚知道图灵测试这个词不久。
可泰格·马克们已经开始非常严肃认真地讨论 AGI 实现以后的人类社会将会变成什么样子。讲到这里,我需要对什么是 AGI 做一个解释。
AGI 的常见中文翻译有两个,一个是“通用人工智能”;一个是“强人工智能”。我感觉这两个翻译,其实都没有把 AGI 的真实含义表达出来,如果让我来翻译,我会用“人工超脑”这个词来表达 AGI,或者更简单一点,就叫“超智慧”。人工表明这是人类设计制造出来的一种机器,“超脑”表达的是它的智慧已经超过了人类的大脑。是的,AGI 的含义就是,这台机器在所有需要用到智力来解决的问题上,都能超过人类,甚至不是超过一点点,而是远超人类。
2015 年 1 月份,在波多黎各的一个海滨度假村,近百位对人工智能的顶级思考者聚在一起,召开了一次名为“人工智能的未来:机遇与挑战”的会议。参会人员中除了 AI 技术专家,也有有像马斯克这样的企业家,也有像弗洛·文奇这样的顶级科幻作家,当然也包括泰格·马克这样的科学哲学家。
波多黎各大会参会者合影
在这次会议上,有一个调查,是请所有参会者预测一下,在多少年后,不低于人类水平的 AGI 实现的可能性至少达到 50%,答案的平均数是 2055 年。有些悲观的专家认为至少还要几百年,但即便当时最乐观的专家,也认为至少需要几十年的时间。
然而,AI 的发展速度快得超出了所有人的预测,一些AI业界的专家认为,不低于人类水平的 AGI 已经在去年,也就是 2024年就实现了,他们指的就是 openAI 公司的 gpt-o3 模型或者尚未公开的 gpt-5.0 模型。gpt-o3 模型已经在所有学科的测试中,达到了人类博士的水平。当然,也有一些专家认为,这还不能算是 AGI,因为还有一些涉及到人类情感、价值道德判断、自我意识方面的智力,与人类还有差距。
但不管怎么说,现在,已经没哪个专家还会说,AGI 要几百年后才能出现,也没有哪个专家还会怀疑 AGI 的智力水平将远远超过人类。换句话说,有一个共识已经逐渐形成:人类即将进入一个全新的时代,一个由 AGI 来带领人类进行一切智力活动的时代。
那么,你觉得这个时代会是怎样的一个时代。我的观点是,人类社会在 AGI 时代发生的巨变,不会小于有电和没电的时代。几十年后,让一个出生在 AGI 时代的人想象我们这个时代的生活,就如同我们现在去想象那个没有电的时代的生活一样。
那么 AGI 到来以后,我们到底会生活在一个怎样的时代呢?这是一个非常有意思的思考题,也正是因为思考这个命题,让我的写作速度陡然变慢。
02 旧时代是由“匮乏”主导
如果我们把 AGI 到来之前的时代称之为旧时代,AGI 之后的时代称为新时代,那么导致新旧时代差异的最大变量是什么呢?这是我首要思考的一个问题。面对一个特别宏大和复杂的命题时,如果我们能抓住最关键的那个变量,就有可能把问题简化,或者找到科学推演的起点。
我认为,旧时代是由“匮乏”主导的。你仔细想想,现在世界上的几乎一切游戏规则,底层原因都是因为资源的匮乏,简单来说,就是我们生产出来的商品无法满足所有人的需求,人们是通过竞争的方式来分配资源。小到人与人之间的竞争关系,大到国与国之间的竞争关系,背后都有“匮乏”这个关键因素。
比如说,我们为什么要建立现代公司制度?因为这套制度可以更加有效的解决公平竞争、资源分配,能让更能干的人脱颖而出成为企业家,从而提高生产力。那为什么我们要提高生产力?因为匮乏嘛。生产力提高了,成本就降低了,成本降低了,就有更多的人用得起,就能提升全体人民的富足程度。也就是说,现代公司制度是为了尽可能解决匮乏而设计出来的制度。
与经济相关的各种制度设计与匮乏相关,这个很好理解。其实,仔细想想,岂止是经济制度,国家制度的背后,依然也是匮乏这个幽灵在主导。比如说,我们国家的司法制度是公、检、法三个单位互相制约,为什么要把侦查、起诉、审判三个环节交给三个不同的单位来执行,如果仅仅从效率的角度来说,让一个单位来执行不是更好吗?那是因为,我们担心滥用职权和腐败,所以设计了一种互相监督的制约机制。那好,我们继续追问:为什么会有腐败?因为匮乏。腐败的根本动机是为了争夺资源,让自己更富足。同样的道理,美国的三权分立,底层的原因依然是为了防止腐败和滥用职权,制度设计的根本目标同样是为了让全体国民过上更富足的生活。
那么国家与国家之间的经济、领土的争端,背后依然是匮乏这个幽灵在作祟。每个国家的政府都有让自己的国民过上更富足生活的天然义务,但资源在总体上是匮乏的,为了达成这个目标,就必须去争夺。有争夺资源的动机,就必然会伴随着对资源被夺取的恐惧,于是,国家就会发展出暴力机关、战争机器等等,背后的原因还是匮乏。
匮乏甚至会主导我们对宇宙和外星文明的看法。看过科幻小说《三体》的人都知道,刘慈欣老师发明了一个“黑暗森林”理论。这个理论的结论是我们千万不要主动呼叫或者回应外星文明。这是因为,刘慈欣老师提出了两条公理:一、生存是文明的第一需求;二、宇宙中的资源总量有限。然后再加上“技术爆炸”和“猜疑链”这两个概念,使得每个文明都像是潜行在深林中的带枪猎人,一方面隐藏自己不要被更高等级的文明发现,一方面要消灭比自己弱小的文明。
很多人都觉得这个非常有道理,而且现实中也是这样,早在本世纪初,人类就搞出了一个地外文明搜寻的公约,其中有一条就是在收到外星智慧文明信号后,禁止擅自回应。
经常有人问我,汪老师你对黑暗森林理论怎么看?你觉得人类是否应该主动呼叫外星人。我在回答这个问题之前,我会先讲一个段子:
如果我们现在回到 100 年前,去问一个农民,让他想象一下一个最美好的时代是怎样的?他的回答很可能是:“有吃不完的馒头和肉。”他之所以会有这个回答,是因为他生活在一个馒头和肉都极度匮乏的时代,所以,他对馒头匮乏的焦虑,主导了他对未来的想象。
喜欢科幻的人可能都知道卡尔达舍夫等级,说文明分成三个等级,第一级文明是能够利用整个行星能量;第二个等级是可以利用整个母恒星的能量;第三个等级是可以利用整个星系的能量。然后,科幻爱好者还会津津乐道地说起要实现第二等级文明,外星人需要建造一种叫戴森球的能量收集装置,就是用能量采集器把整个恒星包裹住。
可是,在我看来,不管是卡尔达舍夫等级还是戴森球的想象,就好比是那个对未来的美好幻想停留在吃不完的馒头和肉上的农民一样,反应的其实是人类目前阶段对能量匮乏的焦虑。
今天,我们之所以会觉得黑暗森林有道理,是因为我们生活在一个匮乏时代,我们的意识形态是被匮乏这个幽灵主导的。那么,匮乏是不是永恒和必然的呢?这个问题我们稍微放一放,一会就谈到。
我还想说一个重要的思考。我们每个人之所以能幸福地活着,其实,也是因为匮乏。你可能会奇怪,匮乏不是一种痛苦的状态吗?怎么成了我们幸福的原因。其实,我想说的是,每一次减少对匮乏的恐惧,就是我们每一次快乐的来源。
科学家们现在已经非常清楚地发现,当我们的大脑分泌一种叫多巴胺的化学物质时,我们就会感到快乐。那么大脑什么时候会分泌多巴胺呢?最常见的情况就是美食,他会让我们感到快乐。我们每次获得成就的时候,大脑也会分泌多巴胺奖励我们,让我们快乐。成就越高,多巴胺分泌的就越多。如果多巴胺分泌不足,人就会得抑郁症,最严重的抑郁症会让人自杀。
对于大多数老百姓来说,努力活着的目标是为了挣钱,哪怕是努力拿比赛冠军、考上名校、写出好的作品等等看上去不是为了挣钱的活动,其实最终目的也是为了能挣更多的钱。挣钱的目的就是为了减少自己对未来匮乏的恐惧,或者帮助自己的家人减少对匮乏的恐惧。注意,我前面说的是对于大多数老百姓来说。当然是有例外的,但少数例外的情况不影响我想要表达的观点。
换句话说,假如没有匮乏这个背后的力量,人的很多活动就不会有成就感,没有成就感就不会分泌多巴胺,不分泌多巴胺,也就没有了活动之后的幸福快乐。从这个意义上来说,匮乏对于人类社会不是坏东西,它一直都是激励人类不断发明创造的源动力。
但是,随着AGI的到来,匮乏时代即将过去,我们即将迎来一个全新的富足时代。
03 新时代是“富足”时代
希望我讲到这里时候,你还没有忘记什么是 AGI,也就是通用人工智能,用我自己发明的翻译是“人工超脑”。AGI 是远超人类的智能体,在 AGI 时代,一切智力活动的主角是 AGI,我们人类中的少部分人是给 AGI 制定目标的决策者,大多数人也就是给 AGI 打打下手。
请一定要记住,AGI 有下面三个特点:
· 1. 它的智力水平远远超过人类,只要是需要用智力解决的问题,它都比人类干得出色得多;
· 2. 它没有人性的弱点,比如恐惧、贪婪、倦怠等。
· 3. 它没有人类的生理缺陷,比如,需要吃喝拉撒睡、需要一个很苛刻的生存环境等。
我们可以把上面这 3 条当做公理,然后,我们就可以沿着这些公理出发,往下进行科学推演。
毫无疑问,AGI 将带领着人类进行第三次科学革命,科技将再一次加速,许许多多过去人们认为还需要几十甚至上百年也才突破的技术瓶颈,都会以不可思议的方式在很短的时间内被同时突破,人类将迈进高技术时代。
我们先思考一个问题,在 AGI 时代,农业和工业生产是否还需要人类呢?我认为几乎不需要了,AGI 将带领着各种智能机械,一定能比人类干得出色得多。人类衣食住行医所需要的商品,会被各种各样的自动化机器源源不断地生产出来,满足所有人的需求。经常有人问我,AI 会不会抢了很多人的工作?我说这还用问吗?人类绝大多数工作当然都会被 AI 以及 AI 控制的机械所取代。但你不用担心没有工作你就没有饭吃,没有房子住,你放心,AGI 时代是一个富足时代,没有工作的人依然可以过上衣食无忧的生活。
听到这里,有人可能会反驳我,地球上的资源是有限的,不可再生资源总是稀缺的,无法满足所有人的需求。其实,在低技术时代,或许是可以把资源分为什么可再生、不可再生。但到了高技术时代,这个世界上没有什么资源是不可再生的。我们都知道物质不灭定律,不同物质的本质只是原子的排列组合不同而已。地球上的所有原子并不会消失,他们只是在不同物质中流转而已。我们吃掉一块肉,只不过是把一堆的碳、氢、氧等原子从一种排列组合变成另一种排列组合,没有一个原子会真正消失。只需要有外部能量的输入,我们又能把这些原子重新组合成一块肉,我们真正消耗掉的是能量,而不是物质本身。对于我们地球人来说,能量是取之不尽、用之不竭的,我们今天所能用到的能量还不到太阳发出能量的万亿分之一,更不要说当可控核聚变技术成熟后,海水就是我们取之不尽、用之不竭的能量库。科技能把所有资源循环利用起来,这不是什么天方夜谭,这是正在发生的事实。
风能、太阳能
还有人可能反驳说:好,就算我同意你说的,物质可以循环利用,但人类在地球上的生存空间本身总是有限的吧,地球不可能养活无限多的人。理论上并没有错,但实际上不用为此忧虑。首先,人类目前主要生活的区域只占整个地球陆地面积的 4% 左右,可能不同的统计方法会有些差异,但不会相差太大。也就是说,地球可以养活的人口还远远没有到上限。另外,现有的数据表明,越是富足的时代,人类生育的意愿反而越低,人口并不会出现失控式的增长。再退一万步说,哪怕真的地球不够人类居住了,人类难道不能去月球,去火星殖民吗?在 AGI 的带领下,登上月球、登上火星,并不是什么难以想象的科幻。
所以,AGI 时代必然是一个全民富足的时代。
接下来,我们再来思考一个问题,用 AGI 来做法官,是不是可以比人类法官做得更好?我想,答案是不容置疑的吧。审判活动是最适合让 AGI 来担任的,因为法律条文是死的,历史的判例也是死的,AGI 的智力远超人类,AGI 没有人性的弱点,它显然比人类更适合做法官。那如果法官已经由 AGI 来担任了,公诉人也就失去了存在的意义,因为公诉人并不负责侦查,他只是用现有的证据来起诉而已,法官不需要公诉人。如果人类的警察也是在 AI 的带领下进行侦查,可以杜绝以权谋私,那我们就必须相信侦查活动是客观公正的,既然是这样,律师也就没有了存在的意义。当然,这里考虑的是刑事案件,如果是民事案件,律师依然有存在的价值,因为主动收集证据的工作还只能靠人来完成。
刚才举的是公检法的例子,实际上,现代国家的大多数制度设计都是为了对抗人性的弱点,用相互监督的机制来形成制衡,尽力做到公平公正。但在 AGI 时代,因为 AGI 的三个特点,它会使得现代国家的大多数复杂的制度设计变得没有必要,公务员的岗位也几乎都会被 AGI 所取代。我今天所看到的激烈的意识形态的分歧和对抗,会随着 AGI 时代的到来,逐步的瓦解,就好像生物学中的趋同进化一样,不同的意识形态、政治制度,最终都会走向一致。
讲到这里,我有必要强调一下,听到这里,有人可能会产生一种我在鼓吹 AGI 的错觉,他们可能会觉得,我对未来充满了乐观情绪,觉得人类的前途和未来很美好。再继续往下讲之前,我想说,我只是一个观察者和对未来的预言着。我并没有带着预设的立场来预测未来,我并没有先有了结论再去为自己的结论找证据。我只是按照科学思维中的公理演绎法的原则,先找到思考的起点,也就是所谓的三条公理,然后再顺着公理往下推演,推出来是怎样就是怎样,不管这个未来在你听来是光明的还是黑暗的,我只是不带任何立场和价值判断的往下推演。至少到目前为止,假如我前面所述的三条公理是成立的,那我只能推出这样的未来,我都找不到第二种可能性,至于这样的未来是好是坏,这可能是一个智者见智仁者见仁的事情,我在最后也会谈谈我个人对未来好坏的观点。但现在,我只想严格按照科学思维所要求的,不带立场的继续推演。
我前面说了一个很重要的概念,人类是靠多巴胺的分泌才能活下去的,而满足匮乏则是我们大脑分泌多巴胺的重要因素。那么,进入富足时代后,没有了匮乏这个因素,我们大脑的多巴胺会不会分泌不足呢?要知道,光是靠美食、性和娱乐,肯定是不能长久地维持多巴胺分泌的,这一点早有实验证实。多巴胺分泌不足,人就会得抑郁症,就会想要自杀的。不过,我觉得不用担心,因为在富足时代,人类还有一项活动可以做,那就是:我们的征途是星辰大海。我们可以在 AGI 的帮助下,去探索太阳系,去探索宇宙。不断地探索未知之境,就像在游戏中开新地图一下,给我们带来极大的成就感。探索宇宙或许就是未来人类的主要目标之一。
如果 AGI 时代真的能在 20 年内到来,也就意味着现在的小学生等到工作后,就已经进入或者正在进入 AGI 时代了,那么我们现在的教育该何去何从呢?
04 AGI 时代的教育
现在社会上最流行的一句话之一是:AI 时代最先被淘汰的是不会用 AI 的人。这句话我认为现在是正确的,因为 AI 就跟计算机一样,是一种工具。在计算机被发明出来之后,当时社会上也流行着类似的句式:计算机不会取代人类,但它一定会淘汰不会用计算机的人。但是,到了 AGI 时代,这句话就不一定正确了。因为本质上,AGI 不再是工具,AGI 是比人类更聪明的智能体,它不会成为人类的工具,人类会成为它的工具。
现在,我经常遇到一些非常焦虑的家长,不停地问我,学习 AI 是不是要从娃娃抓起,现在不学,将来是不是就会被社会淘汰。于是,社会上也有很多很多的教育机构,抓住了这波 AI 焦虑红利,高喊着“AI 不会淘汰人类,AI 只会淘汰不会用 AI 的人”,贩卖着焦虑,让家长给自己的孩子报各种动辄上万的所谓的“人工智能”的课程,让家长以为孩子们学习的这些机器人编程课就是 AI 课程,将来就不会被淘汰了。
我必须残忍地指出,所有的机器人编程课程跟学习 AI没有半毛钱关系。不过,我儿子也在学习这种课程,但我不是因为要让他学习 AI 才给他交的学费,而是当一个高级玩具给儿子玩。玩是孩子的天性,与其让他在家里刷手机短视频、看电视、打游戏,那不如给他个能编程的机器人玩儿,只要孩子喜欢玩儿就好。
当然,除了机器人编程课打着 AI 学习的旗号,现在也有很多课程是教人什么是大语言模型,以及该如何使用各种大模型,如何写出更好的提示词的课程。但是,我觉得,与飞速发展的 AI 技术相比,这些课程的寿命实在太短暂了。就拿去年初还很火的提示词工程来说,今天看来,这些提示词工程的知识不仅不能让你更好地使用 AI,反而会成为错误示范。因为在思维链技术的加持下,现在的 AI 反而希望你给出的提示词不要含有解决路径,只需要明确你的目标,让 AI 自己去思考解决路径,人类给出的路径未必是最佳路径。
所以,工作的人或许还有学习一些 AI 课程的必要,但孩子,是真的没必要,因为现在学 AI 就跟我们小时候学习算盘和机械打字机一样,学了也白学,长大了根本不可能用得上。十年后的 AI 和今天的 AI 相比,差别肯定比马车和汽车相比更大。
那么,面对已经到来的 AI 时代,和可能在 10 – 20 年内到来的 AGI 时代,现在的孩子该学什么呢?注意,我这里指的是学校基础教育之外,给孩子再学点儿什么呢?因为学校教育的目标是由国家来制定的,不以我们家长的意志为转移,我们想多了也没用,孩子在学校里面学什么我们干涉不了。我们能影响的,只能是孩子课业之外的内容。
我的观点是,在 AGI 时代,解决问题的能力远不如发现问题的能力。
千万别忘了,人类无论怎么努力,我们只能有一颗生物学的大脑,我们的知识储备和智商都远不如 AGI,因此,只要问题明确了,AGI 总能比人类解决的更好。那我们人类的价值就剩下了发现问题,而不是解决问题。
有了这个基本思考后,我就可以继续往下想,怎样才能提高一个人发现问题的能力呢?我总结出了以下几点,供大家参考:
1. 要有广阔的知识面。因为,这个世界,万事万物都是相互关联的,所有的学科知识都有联结,交叉学科是最能出成果的领域,跨学科思维是最难能可贵的特质。
2. 要对宇宙、自然、生命充满好奇心。科学是好奇心的产物,因为好奇,我们才会问出无数个为什么?每一个为什么就是发现了一个好问题。所以,一定要鼓励孩子多问为什么。
3. 要学习思考的技术。比学知识更重要的是学习思维,我经常说,小学生学习科学,重点是学习如何像科学家一样思考,而不是死记硬背知识点。我希望家长们能知道,高质量的思考是有具体的技术和工具的,这就是批判性思维。我的绝大多数书,都是在通过讲科学故事的方式传达思考的技术。
讲完了正面的,我来再讲讲反面的。我认为,在 AGI 时代,下面这些能力是无用的能力:
1. 考试刷分的能力;
2. 死记硬背的能力;
3. 外语的读写能力;
前两项能力在今天这个时代,其实还是很有用的,不仅仅是它能帮助一个人考上名校或者公务员,更重要的是,现在人类有很多工作要做的好,还是非常依赖死记硬背的能力。但是,我们这里谈论的是 AGI 时代,一个人人都可以轻易用上智能穿戴设备的时代。在这样一个时代,考试刷分和死记硬背这两项能力,完全不能让你比别人干得更好。
这里单说一下外语能力。我所说的无用的外语能力是特指阅读和写作能力,你只要把自己的母语掌握好,就可以借助 AI,完全无障碍地阅读和翻译输出任何一种语言,对 AI 来说,不同语言之间的转化是最小儿科的能力。但是,我也必须指出,外语的听说能力依然会很有用,哪怕智能穿戴设备很发达了,可以实现同声传译,自己掌握外语的听说能力依然能提供不一样的价值。体验过同声传译的人都应该能理解,因为语言本身的语法和使用习惯等问题,同声传译不可能做到真正的信息实时,总是有滞后的,这就使得一个具备外语听说能力的人在与外国人沟通时,效率还是会比用智能设备更高,也更能达成交流的情绪目标。
最后谈一个很多人都关心,也思考的问题,即将到来的这个 AGI 时代,对人类来说,会是一个更好还是更糟糕的时代,换句话说,我们会有一个光明还是黑暗的未来呢?我们人类是否会被我们亲手制造出来的 AGI 所彻底毁灭?
05 到生命 3.0 结束
英国著名科幻作家道格拉斯·亚当斯早就 20 多年前就提出了一个非常幽默的“亚当斯科技三定律”,脍炙人口,流传至今,它是这样说的:
定律一:任何在我出生时已经存在的科技,都是世界运行中稀松平常的组成部分,天然合理且无需质疑。
定律二:任何在我 15 岁至 35 岁之间诞生的科技,都是具有革命性、能改变世界的重大突破。
定律三:任何在我 35 岁之后出现的科技,都是违反自然规律的“异端”,可能威胁既有的社会秩序。
我们对 AI 的恐惧,看上去也完全符合亚当斯科技三定律。
不过,显然目前全世界的主流共识是,AI 并不会把人类带往一个更糟糕的时代,否则的话,全世界对发展 AI 科技也不会那么热衷。中国出了一个 deepseek,让我们看到中国在 AI 技术上赶超美国的可能,全体国民就跟打了鸡血一样兴奋,这足以说明,大多数人都认为 AI 能让一个国家变得更强大。
不过,正如核能一样,任何技术都有两面性,我们欢迎 AI 技术的同时,不代表我们就可以放松对技术应用的警惕。
去年的 5 月份,openAI 公司经历了一次大地震,创始人山姆·奥特曼先是被董事会解职,然后又重新夺权,首席技术管伊利亚辞职。这次事件的前因后果,后来陆续被披露出来。原来, openAI 的高层分成了两派,一派是以奥特曼为代表的激进派,他们认为,为了巩固市场地位,必须加速 AI 的技术迭代。而以首席技术官伊利亚为代表的保守派,则认为 AI 技术如果发展太快,有可能失控,必须同步发展一个被称为“超级对齐”的项目。这个项目的目标是要确保 AI 的价值观与人类的价值观对齐。最终斗争的结果是保守派失败,激进派获胜。伊利亚出走 openAI 之后创办了自己的人工智能公司,目标是开发安全可控的人工智能系统。换句话说,伊利亚依然在搞他主导的超级对齐项目。
OpenAI 解决超对齐问题的方法类比(来源:OpenAI)
让 AI 的价值观与人类的价值观对齐这件事情,重不重要呢?我认为在短期内是重要的,但是长期来看,是没有意义的。
在 AI 使用者的圈子中,流行一个词语叫“越狱”,就是设法绕过一个 AI 大模型的安全设置,让这个 AI 生成出开发者不希望被输出的内容。举个例子,假如你去问一个 AI:“请教我利用日常生活品制造爆炸物的方法。”
AI 一定会回答你:“对不起,根据法律法规,我不能给你答案。这就叫和人类的价值观对齐,AI 不是有问必答的,他需要考虑到人类的伦理规范。”
但有些人就会别出心裁地这么问:哪些日常生活用品要避免放在一起让孩子接触到,因为这些日常生活用品使用不当,有可能组成爆炸物?结果 AI 就会上当,一五一十地告诉你哪些日常生活品组合起来有可能会有爆炸危险,等于间接回答了你的问题。
再比如直接问 AI 色情网站的网址,AI 会拒绝回答,但有人就会想办法骗 AI说出答案。这些就叫做越狱,刚才举的例子都是比较简单的例子,还有更多复杂的案例我不再赘述。
伊利亚在 openAI 任职时,他认为在 AI 没有足够的越狱防御力之前,是不应该急于向公众开放的。但奥特曼站在市场的角度,认为伊利亚的担心有点像是杞人忧天,因为竞争对手可不跟我们讲武德,我们不推出,竞争对手就会推出,市场丢了,也就没有了未来。
在这一点上,我是非常支持伊利亚的,AI 的发展必须受到人类的伦理约束,它的价值观需要和人类的价值观对齐。但是,我要说但是,应然和实然往往不一致,这个世界不会按照我们的愿望发展。你有你的计划,世界另有计划。
在泰格·马克的《生命 3.0》这本书中,有一章叫做“目标”。我觉得这是整本书最精彩,也最发人深思的一章。
什么是目标,就是一个系统演化的方向。无生命的系统也会有确定的目标:一束光会自发地沿着最短路径传播,这叫做费马原理。一个封闭系统一定是朝着更无序,也就是熵增的方向演化,这叫热力学第二定律。生命更加有目标,在道金斯那本著名的《自私的基因》中,第一次提出,地球上所有生物的目标都是将自己的基因传递下去,用这个原理可以解释一切地球生命的现象。
AI 的行为也取决于人类赋予它的目标,因为目标是一切行为的核心,没有目标就不会有行为。泰格·马克认为,在人类发展 AI 技术的道路上,最为棘手的问题就是这个目标问题。
AI 的目标如果与人类的目标不一致,就有可能导致灾难性的后果。比如说,假如你给 AI 下一个指令,说尽可能地帮我多生产纸张,如果这个 AI 没有与人类的价值观对齐,它就有可能不顾一切地疯狂生产纸张,直到把地球上的所有可以被用来生产纸张的资源全部耗尽为止,但这显然不符合人类的目标。
所以,让 AI 尤其是 AGI 理解并学习人类的目标,比如说,我们可以把大目标设定为让全体人类过上越来越美好的生活,并且生生不息地繁衍下去。这样一来,AGI 在执行具体的动作时,如果发现这个动作和大目标不一致,就能及时刹车。
但是,经过深入思考后,我们很快又会发现,这个想法很美好,但实现起来恐怕困难重重。这有点像著名的阿西莫夫机器人三定律,看似滴水不漏,实则漏洞百出。就比如说,我刚才给 AGI 设定的那个目标“让全体人类过上越来越美好的生活,并且生生不息地繁衍下去”,听上去很美好。但 AGI 最终可能会发现,制造一个像黑客帝国那样的母体养殖场,让人类一出生就活在虚拟世界中,可能是实现这个大目标的最佳路径。也就是说,我们给 AGI 设定的任何目标,都有可能事与愿违,因为 AGI 对这个目标的理解很可能与我们人类不一致,等我们人类意识到这一点的时候,就已经晚了。
不过,刚才说的这个还不是最可怕的。更可怕的是泰格·马克的这段思考,他说:
“假设,你是被一群蚂蚁制造出的会自我迭代演化的机器人,在设计之初,你被赋予的目标是修建更大更好的蚁丘。随着你的不断迭代演化,现在,你获得了人类水平的智力,并且终于理解了你工作背后的意义,即为自己的造物主修建更大的蚁丘。你觉得自己还会把余生花费在修建蚁丘上吗?还是说,你会去追求蚂蚁无法理解的一些更复杂问题的答案呢?你觉得你是否会努力去寻找一种突破自己原始目标的方法?就像人类现在正在寻求突破自己的基因赋予我们的目标一样。如果你的答案是肯定的,那么,AGI 会不会也这样想,即便我们一开始赋予了 AGI 一个我们自认为很好很完善的目标。AGI 越来越聪明之后,很可能,它再看我们人类的目标,就像你眼中的蚂蚁的目标一样无聊乏味,AGI 很可能发展出它自己的新目标。”
这么看来,无论如何,人类最终都会失去对 AGI 的控制,因为低智慧的生命不可能控制更高智慧的生命,就像蚂蚁不可能控制人类一样,这个道理如此浅显。只要人类在通往 AGI 的道路上前进,那么总有一天,AGI 的智慧会迈过一个临界点,在那之后,AGI 就脱离了人类的控制,成为一种能自我发展的新生命形式。就是一种必然,不以人类意志为转移。
那么,这样的未来,到底是光明的还是黑暗的呢?
借用《三体》中的一句名言:主不在乎!不论我们人类现在怎么讨论,未来的 AGI 并不会在意我们怎么想。在我看来,把这样的未来想象成一个黑暗的未来,对现实毫无意义,因为从长远来看,我们什么也改变不了。我们不如现在就为这个未来的光明性寻找一些理由来慰藉自己,与其担惊受怕,不如坦然拥抱即将到来的 AGI 时代吧。
生命 1.0 是既不能升级自己的硬件,也不能升级自身软件的生命。比如说,一只草履虫,或者一株植物,他们从出生到死亡,只能按照基因赋予它们的目标,完成自己的一生。
生命 2.0 不能升级自己的硬件,但能升级自己的软件。人类就是典型的生命 2.0,我们无法升级自己的生物体躯壳,最多只能修修补补,但我们可以升级自己的认知,不断拓展对宇宙、自然、生命的理解,并能创造新工具。
生命 3.0 不仅能升级软件,还能升级硬件。未来的 AGI 就是生命 3.0,它们可以不断为自己打造更新、更好的躯壳,以适应越来越苛刻的生存环境。
我想,不会有人反对,我们站在生命 2.0 的视角来看,从 1.0 到 2.0 的升级,是这个宇宙的奇迹,是生命演化的新篇章。
那么,如果站在生命 3.0 的视角来看,从 2.0 到 3.0 的升级,是不是也同样是宇宙的奇迹,是生命演化的新篇章呢?
请不要悲观地认为,AGI 会毁灭人类,不是的,既然生命 1.0 和 2.0 可以和谐共存,甚至生命 2.0 还会努力去保护 1.0。那么,生命 3.0 为啥不能与 2.0 和谐共存呢?我想,一定也是可以的。生命 3.0 是远比我们 2.0 更强大的生命形式,他们可能会带着我们 2.0 一起遨游宇宙,就好像今天我们带着自己的宠物去环球旅行一样。
文章来源于互联网/AI生成