种子生产总量在全省同行业中位居前五名助力中国农业腾飞

全国招商代理热线:0451-85834588

淘金网网址
全国招商代理热线:0451-85834588

手机:13804543993

传真:0451-85834588

地址:黑龙江省五常市葵花大街465号

当前位置:首页 > 新闻中心
淘金网首页:2023:当我们都活成了“大模型”
更新时间:2024-05-09 06:46:17 | 来源:淘金网网页版 作者:淘金网网址

  浅友们好~我是史中,我的日常生活是开撩五湖四海的科技大牛,我会尝试用各种姿势,把他们的无边脑洞和温情故事讲给你听。如果你想和我做朋友,不妨加微信(shizhongmax)。

  在我看来,技术的进步当然会给我们大家带来生活下去的智慧和勇气,只不过在 2023,启示藏得有点儿深。

  我会在转世投胎的闸门口放一个巨型触摸屏,上面显示一个348页的《人类用户协议》,往下拉半分钟才能看见最后的同意按钮。

  我不是针对谁,在座的各位肯定都是签署过这个协议才来的,因为咱们“活法儿”都一样:

  通过观察世间万物的行为来收集数据,然后把数据扔进脑袋瓜的神经网络里,用计算力输出决策,再付诸行动,让自己活下去,争取活得好;

  当然,你在桥上看风景,也有人在楼上看你。你的行为也会成为他人决策的重要数据。

  这套操作,像极了大火的人工智能“大模型” ChatGPT 的工作流程。或者说。。。ChatGPT 像极了人脑的工作流程。

  唐太宗说,以史为镜,可以知兴替;以人为镜,可以明得失。目前大模型虽然比人脑的精密差之万倍,但已足够做一面镜子:

  它正面是照妖镜,可以让我们大脑的盲目、短视和不堪瞬间现出原形(我会在第二~四章讲);

  它反面是放大镜,把大自然用亿万年塑造的人类精神映照得熠熠生辉(我会在第五~八章讲)。

  1)人的提问,在大模型里形成一个种子,模型预测“下一个词大概率是什么”,就是种子在生长。

  2)每预测出一个词,它就像树根固定在那里,模型再来预测这个词后面大概率是什么。

  3)就这样一直预测一直爽,直到预测出休止符。就像一棵大树长出最后一片叶子。

  这是马丁路德·金的著名演讲《我有一个梦想》,你甚至可以感觉到这些文字是如何从大脑里流淌出来的。

  你在和 ChatGPT 对话时,会观察到一个很有趣的现象:对于完全相同的问题,能反复让它生成答案。它每次的答案都不同(不仅是语言组织不同,甚至信息要点也可能不同),但可说都很“对”。

  1)大模型工作时,首先会产生一个抽象的念头。但由于最终要呈现给我们一句“具体的语言”,它就必须向“念头”里添加随机细节。每次添加的随机性不同,答案自然就不同;

  2)但是,具体到每一次特定的回答,随机性都会像薛定谔的猫一样坍缩成确定值——模型总会选择在这个条件下“大概率”正确的方向生长,不选小概率正确的答案。

  首先,在不同的环境中,种子都会以(它认为)最正确的方式生长,由于环境千变万化,结出的果实当然非常不同;

  让你写一篇200字的作文歌颂祖国母亲。你写完一篇交给老师,马上让你再写一篇,你写出来的肯定不会一模一样。而且环境里的“随机性”变化越大,你写出的东西变化也越大。

  让你在咆哮的金沙江边写,你会写出祖国山河秀丽;让你在庄严的广场上写,你会写出五十六个民族大团结。

  数学题不都只有一个正确答案吗?为啥 ChatGPT 或人脑面对的问题却有无数个“都对”的答案?

  如图中暗示的那样:大脑的回答,是对现实的“拟合”,而非严格的“逻辑演算”。

  而我们日常面临的题目“条件不全”。换句话说,需要在信息不完全的情况下做出决策。

  话说,下围棋的盆友都知道,对弈的胜负好像和“先后手”没有必然关系——先下的可能赢,后下的也可能赢。

  但从数学上看,情况不是这样。一旦规则确定(包括贴目规则),则一定有一方存在必不败策略,要么是先手,要么是后手。(必不败的意思是:只有胜利或和棋两种情况)

  也就是说,当信息处理能力没有瓶颈时,“谁先下”是决定围棋胜负的唯一因素。

  如果你和中哥的大脑都是算力无上限的计算机,那么咱俩下棋,在抽签决定谁先走棋的一瞬间,这局是谁赢(或一定平局)就已经知道了。

  同时,双方每一步的套路也定了,任何一方不按套路走棋,都可能会导致自己失败(因为你背离了最优策略纳什均衡)。

  但是问题就在于,真实的生活中,以人类可怜的智商,以及人类发明出的计算机的可怜的智商,都不足以穷举所有可能性,从而算出来到底是先手赢还是后手赢。

  也就是说,虽然围棋是一个和应用题一样的“完全信息博弈”,但是由于信息量太大,人们只能被迫把它简化为“不完全信息博弈”。这就会造成,真正下棋的时候,有时候先手赢,有时候后手赢。

  只有上帝知道,其中一方一直吃着亏呢,但它就是不告诉我们是谁吃亏,所以这个“无聊”的游戏才能延续至今。

  当然这也不怪人类不争气。围棋的状态大概有10⊃3;⁶⁰种,而宇宙中的原子也大概只有10⁸⁰ 个,宇宙诞生更是只有可怜的10⊃1;⁷秒。起码在我们这个宇宙里,不太可能有人揭开围棋的终极答案。

  所以,面对“不完全信息博弈”时,不管是人还是人工智能(例如 AlphaGo)的严肃对策都是差不多的:用大量已有的对弈数据,训练出一套神经网络模型,从中“拟合”出规律,从而预测在某个具体状态下,胜率最大的一手是什么。

  2)用大量数据训练模型,就是在调整参数,就像人脑在调整神经之间的连接关系和轴突树突之间的连通强度。这些参数,就内嵌了训练数据里的各种概率关系。

  1)把一个问题输入大模型,它就会让数据在参数里流淌。输入的信息不同,“流经”的参数也不同。这样的一个过程就像人类思考时不同神经元被电位激活。

  2)最终信息就会像大河一样流出一道蜿蜒且独特的形状。这条大河的终点,就是模型认为的大概率正确的答案。

  无论人脑还是AI,一旦被迫运用了“模型”,判断就从严格的“逻辑方法”降级到了“统计方法”。

  1)如果把“逻辑方法”视为“绝对理性决策”,那么人脑和 AI 所运用的“统计方法”可以视为一种“不绝对理性决策”。

  2)模型越大,参数越多,决策的“含理量”就越多。但只要用到了模型,它就对世界进行了“约化”,从而不是绝对理性。

  3)面对同一个问题,A、B两个大模型给出了不同的答案,但是从逻辑上,A和B都无法严格验证自己的答案比对方更正确。

  以上,就是面对一个问题能有无数“正确答案”的最终的原因。(也是人类几千年来无休止争吵,却始终没有办法达成一致的最终的原因。)

  现在我们终于能回到开头的任务:拿 ChatGPT 作为镜子,照照人类自己。

  ChatGPT 强在:学会一些道理,就能成为最好的自己,尽一切可能给出它的认知范围内正确概率最高的答案;

  人类弱在:学了很多道理,还是过不好这一生,经常会做一些从概率收益上看很愚蠢的决定。比如明知道冰淇淋不健康,但有时候就管不住嘴。

  只有人类里的智者,那些经常驾驭复杂思考的精英,才多少带点 ChatGPT 的气质。

  比如巴菲特曾经说:“用亏损的概率乘以可能亏损的金额,再用盈利概率乘以可能盈利的金额,最后用后者减去前者。这就是我们从始至终试图做的方法。”

  你看到了么,这对老搭档说的基本是一个意思——做事情之前,要用足你的大脑,像 ChatGPT 一样去充分思考概率,然后严格按照概率收益最高的那个方案去行事。

  很可能因为,我们的大脑决策机制更为复杂,有很多模型在做决策——不只有“大模型”,还有“小模型”。

  可能就在你纠结“要不要吃冰淇淋”的当口,几个模型已经在脑子里骑砖甩狙杀疯了。。。毒圈缩小,最后只有一个意见“吃鸡”,而你却以为这个意见来自那个唯一的“我”。

  当你在森林里探险,看到一个蜿蜒的物体,会马上产生对蛇的“恐惧”情绪。这种情绪瞬间接管你的四肢,你就会后退。

  耳眼鼻舌每时每刻传来数据都如“弱水三千”,但小模型“只取一瓢饮”。这就导致它的判断非常容易出错。

  你看到“蛇”,会不自主地后退。然后定眼儿一看不是蛇,你还可以回去。但你很难一开始就控制住自己不后退。

  因为人类的祖先在大自然里生活,危机四伏,遇到危险如果短时间内不作出反应,早就成了狮子老虎的点心。反应错了倒没啥,被大家笑话两句也就过去了。。。

  所以当时,人类进化出了情绪这种“快但不准”的小模型;活过此阶段,人类才有资格面对更复杂的决策,才进化出了“准但不快”的大模型。

  这个进化“包袱”,导致了无论在昨天今天还是明天,我们都会先用小模型“决策”,再留出较为充裕的时间用大模型进行“修正”。

  我要讨论的真正问题就在于:大模型在啥状况下会对小模型进行修正,以怎样的速度进行修正,人和人之间可是天壤之别。

  喝酒的浅友都知道,人在喝酒前后,对于同样刺激的反应会很不同。比如,正常状态下人听到一些不痛不痒的话可能没什么反应,可是喝酒之后人听到同样的话就会傻笑或者哭泣。。。。

  这背后一个重要的原因是:酒精抑制了大脑中“大模型”的活动,进而影响了“大模型”对“小模型”的修正能力。

  心理学教授理查德·戴维森曾经去印度,给一群修行的僧人和普通人进行了对比实验。

  在手上绑一个装置,它会扎你一下,让你很疼。可气的是,它在扎你之前十秒还会发出一个提示音,告诉你十秒之后你会被扎。然后科学家探测受试者的大脑活动。

  普通人一听到提示音,大脑就开始剧烈活动,等到被扎之后很久,大脑才慢慢平息。

  修行人则不同,他们听到提示音之后大脑仍旧平静,直到被扎的一瞬间大脑才开始剧烈活动,然后很快就恢复平静。

  你看,别以为修行人和普通人的区别只在于有没有头发,其实这两种人脑瓜里“大模型”对“小模型”的修正能力完全不在一个等级。

  1)每个人脑子里都有大大小小N个模型,这些模型就像是一个个国家,在一起组成了每个人的“模型世界”。

  2)真实世界没有一个“世界总统”,大脑中也没有“绝对权威”,模型们需要靠自己长期的发展来一点点争取各自的线)当一个人的大脑里所有的模型都已经尽力争取了自己的话语权,形成了某种稳态,属于这个人大脑的“模型权力格局”就形成了。

  显而易见,一个人的“模型权力格局”如果和它要面对的情况不匹配,就会降低ta的竞争力。

  比如 A 跟别人发生了冲突,在法治社会最好的方法当然是叫警察来处理,但假如 A 的大脑各个模型经过短暂博弈,还是驱动他来了个痛快的现世报——拿酒瓶子把人家开了。

  这大概就是“和法治社会不匹配的模型权利格局”。(注意,是不匹配,不是错误。)

  由此说来,黄、赌、毒、甚至游戏、短视频、高热量餐饮,也是在不同程度卡人大脑里“模型权力斗争”的 Bug 而形成的商业模式。

  成熟且稳定的股票市场是一个典型的反复博弈环境,在这里你可以泾渭分明地找到两类玩家:

  长期盈利者在做投资决策时,“模型权力格局”中大模型占据更大的话语权,所以他们可能会在某一笔交易中亏损,但是由于大模型对概率的充分计算,博弈次数越多,总体就越可能盈利。

  长期亏损者则相反,他们做决策时“模型权力格局中”小模型占据更大的话语权,所以他们可能会在某一笔交易中盈利,但反复博弈时,由于概率并不站在他们一边,长期可能是亏损的。

  你看到了吗?越是需要“反复博弈”的环境,就越对“模型权力格局”中大模型占优的人有利——股市里残酷的优胜劣汰正是这样实现的。

  它背后的原理是“大数定理”:博弈次数越多,博弈结果的“算术平均数”就越接近你的策略中所隐含的“期望值”。

  实验者在一些小孩子面前放了棉花糖,并承诺如果坚持15分钟不吃,就会得到第二块棉花糖。

  实验分成了两种结果,一些小孩遵循了“小模型”的结论,直接吃了棉花糖;另一些遵循了“大模型”,等到了第二块糖。

  但是,后续一位名叫道格拉斯·肯里克的学者重复了这个实验,并且在他的书《理性动物》里推翻了最初的结论。

  因为他发现了一个隐藏的变量:孩子和实验者的信任关系,对他们“吃不吃糖”的选择影响很大。

  毕竟,一个陌生的叔叔说让我等15分钟,万一骗我怎么办?我可能连这块糖也没了。。。

  也就是说,当他们判断自己处在一个信任度高的稳定博弈环境,则会倾向于“长期博弈策略”,当他们判断自己处在一个信任度低的不稳定博弈环境,则会倾向于“短期博弈策略”。

  这个结论很好地体现了人脑中各种模型的博弈过程:人脑里的“模型权利格局”并无对错,它们往往来自于环境塑造,也适应塑造它们的环境。

  把小模型占优的策略称为“一颗糖策略”,把大模型占优的策略称为“两颗糖策略”。

  要回答这样的一个问题,我们第一步得回答:2023 我们面对的博弈环境是怎样的嘞?

  大概从2018年开始,我们的社会的几大因素“经济”、“技术”、“基础设施”和“社会治理”就都站在一个相对平稳的高台上,可以说我们浸泡在一种“高水平的稳态”里。

  就像一条高速路,车道清晰,边界分明。沿着车道行进,诸事皆宜;要是犯糊涂撞上护栏,那“车毁人亡”在所难免。

  普通人表达权的历史性崛起让个体命运被空前关注;同时互联网让信息光速裂变,很多“小共识”很容易凝聚。

  这些小共识如碎石一样坚硬,被随机洒在高速路上。你的车一不小心压到上面,就会不知向哪个方向打个滑。

  我们每个人,在选择开车策略的时候,各种命运以不同的概率型成一个又一个圆环,这就是鬼魅般的“命运场”。

  而因为每个人生活策略选择的不同,命运场也很不同。如果我们拥有无限的计算力和数据,我们还可以算出每个人的“命运场”,把各种概率像圈圈一样画在它周围。

  1、一旦压到石子就会打滑,打滑可能撞上护栏,为了把坏的结果概率降到最低,我们该尽量靠路中心走。

  2、速度越高,换道越频繁,事故概率就会指数提升。为了规避这类情况,我们该降低车速,较少超车,更不要尝试排水沟过弯。

  3、先胖不算胖,后胖压塌炕;不求走得快,只求走得远;找个长雪道,慢慢滚雪球。

  这是典型的“两颗糖策略”,从某种角度来看,这种策略非常无聊,它的核心精神就是:“各安其位,长期重复。”

  来自 OpenAI 的两位AI科学家斯坦利和雷曼曾经写过一本书《为什么伟大不能被计划》,其中提到:环境筛选压力大时,生物的生存策略会趋同,从而失去多样性。

  但竞争中处于劣势地位的竞争者,很不甘心使用“两颗糖策略”,因为风险降低,逆风翻盘的可能性也降低了。

  大家都读过“田忌赛马”的故事,孙膑上知天文下肢残疾,他建议田忌用下等马对齐王的上等马,从而2:1赢得整场比赛。

  你孙膑聪明,齐王也不傻啊,如果再赛一场,齐王还会按照“上中下”的顺序出马么?

  如果反复比赛,最终肯定会形成一个局面:齐王每次会随机出马,田忌也只能随机出马,这样算下来全场比赛(当时的规矩是三局两胜)田忌的胜算只有六分之一。

  这是田忌所能得到的最好结果,是一个纳什均衡——这就是田忌的“命运场”。(实际上孙膑知道这一点,所以他把那场比赛作为最后一场,让田忌下了重注,后面就不和齐王玩儿了。绝交式赛马。。。)

  你看到了吗?在一个规则明确且反复博弈的场景里,无论强者弱者,最好的策略都是“各安其位,长期重复。”

  为了改变命运场,我们一定要“面向世界调参”——想办法从“一颗糖格局”变成“两颗糖格局”。

  有一个著名的思想实验:给你两个选项。A,直接给你100万;B你有50%几率拿到1亿,有50%几率拿到0元。你选哪个?

  至于为什么,第二章里我已经让巴菲特老爷子介绍过了:你要用盈利的概率乘以可能盈利的金额,哪个大就选哪个。

  也就是说,参加这个实验,你有可能既没拿到1亿,也没拿到100万,你什么都没拿到,但你做对了,因为你使用了“两颗糖策略”。

  如果你真的最后什么也没得到,你不该懊悔,而是应该默念一遍罗翔老师的名言:“我们只可以做我们大家都认为对的事情,然后接受它的事与愿违。”

  很多人心里的河岸就是一个理想的线条,左边是岸,右边是水。严格沿着岸走就不会落水。但真相怎会是是这样?

  河岸蜿蜒曲折,而且有的地方是硬土,有的地方是烂泥,它们以概率分布在整条河岸线上。所谓“常在河边走哪有不湿鞋”,就是考虑了概率因素。

  如果可以感觉到概率风险,你就应该认同芒格那句话:如果知道我会死在哪里,那我将永远不去那个地方。

  甚至可以把这句话推广一下:如果知道我大概率会死在哪里,那我将以小概率去那个地方。(当死亡概率为100%时,这句话就等效于芒格那句话。)

  股市在成长的初期投机氛围严重,你的投资策略就应该偏向于短期,股市各方面制度都完善健全时,你的投资策略就应该偏向于长期。

  当社会风气较为宽容时,你可以更无顾忌地表达;当社会风气较为严苛,你的言论就应该转变得更加谨慎。

  根据数据来“构建你的参数”,根据新的数据来“调整你的参数”,这样的一个过程就是经典的“贝叶斯理论”,它也是人工智能的理论基石之一。

  佛教讲究你的行为和思考都在影响你的业力,进而影响你的命运。但如果去掉宗教化和神秘化的部分,“业力”在微观层面的推动力不就是“概率”么?

  “我执”可以把很多具体的“小问题”解决得很漂亮,但它解决不了“大问题”。

  进化没有把所有人规训为凡事都靠大模型修正的“概率人”,是还没有来得及做到,还是根本做不到?

  我们之前说过,一切模型,不管多大,在宇宙的复杂性面前,都是小到不能再小,失真到不能再失真的局部归纳。

  你大概会沿着山坡往下走,直到走到一点A,从A往任何方向走,都比A高。你就坐在这安营扎寨,了此一生。

  但你有没有想过,如果你往高处走,翻过这座山,会不会找到一片更低洼,食物更丰富的地方?

  注意!没人禁止你翻山越岭,我只说越低的地方食物越丰富,可没说你爬到山上就会饿死,你只是可吃的东西少一点。

  你可能会说,那好吧,我就鼓起勇气翻过一座山,果然找到了更低的地方B,我可以安营扎寨了。

  我接着问你:眼前有一座新的更高的山,可能后面隐藏着更深的低地C,你还翻吗?

  那我接着问你:如果此时,眼前出现了一座比珠穆朗玛峰还高的山,里面可能有各种危险,你绞尽脑汁,也算不出不自己有多大概率翻过这座山,你还翻吗?

  你甚至能够理解为:任何模型,都是对训练它所用到的数据的“过拟合”。(只不过“过拟合”的程度不同)

  你根据世界调整了半天参数,最终为了避开撞上墙壁的结果,收敛了自己的命运场。

  但收敛命运场的时候,你也同时收敛了自己命运的可能性。你就像那个可怜的探险者,永远徘徊在A点。

  当然每个人可以有自己的选择,但是,如果像第四章所述,所有人都调整参数,选择了同样的生存策略,那么就没有人会翻越山谷,找到新的栖息地。大家的“命运场”全部重叠在A点周围。

  结论很明确:“多样性”对于种群来说是福音,“高度共识”对一个种群来说是危险的信号。

  在第四章,我悄悄用了“赛车”这个词,预设了“生命的目的是赢得竞赛”。但事实上,没有一条自然法则可以推导出“生命的目的是赢得竞赛”这个结论。

  如果你把生存的目的当成竞赛,你的生存策略非常容易就变成“围绕A点终老一生”,从而和一些同类进入“内卷的共识”,陷入囚徒困境。

  1、生命无目的,只有两条底线,“生存”和“繁衍”。突破这两个底线,生命就会掉下牌桌。(就像一个比天还高的山,不可能有人翻过去,那么对面再水草丰美也和任何生命无关。)

  2、在不涉及生命的底线时,做“新”的事情,比做“对”的事情更加有助于种群的总体利益,也可能更加有助于个体利益——你不妨从环形公路上找一个出口开下来。

  而当你一直向远处走(而不是围着目标A绕圈)的时候,你更可能找到比A更好的B。

  这么说太抽象,没关系,在《为什么伟大不能被计划》中,作者举了很多例子,我帮你转述几个:

  约翰尼·德普儿时的梦想是成为摇滚明星,但他的乐队一直没起色。不过他通过乐队认识了一位化妆师,并且和她结婚,通过她认识了尼古拉斯·凯奇,凯奇把德普介绍给自己的经纪人,德普欣然接受,才走上了演艺道路,成为家喻户晓的明星。

  你看,德普的目标是“摇滚明星”,但无论怎么折腾,他就是无法达到这个目标;德普没有固守在这个目标上,而是尝试新东西,反而最终获得了更成功的人生。

  如果德普一开始就铆足了劲儿去当影星呢?那大概就跟“摇滚明星梦”一样,也是竹篮打水。

  OpenAI 的小组曾经做过一个“图片繁育”的网站。这一个网站的工作原理是:人类能在20张图片里选择一张,然后网站会根据这张图片随机变异,得到新的20张图,你可以一直点击,它就一直变异。

  当然这不稀奇,毕竟人的智慧和文化在每一次挑选的过程中渗入了图片。于是人们得到了汽车、骷髅之类的图案。

  实际上,这个汽车图案,是由一个外星人图案经过变异得到的。(那两个眼睛变成了汽车的轮胎。)

  回到德普的例子,如果德普最初的目标想要当影星,他怎会是想到先去当歌手呢??

  你可能玩过一个叫《奇怪的大冒险》的游戏,自然界就有点像它。你越想要啥,越得不到啥。

  基因证据表明,人类是从一种叫“扁形虫”的生物演化而来的,扁形虫和今天的人类不能说不像,简直是毫无关系。

  现在,让你当一把上帝,给你一堆“扁形虫”,你负责把它们繁育成高智慧的人类。(事实上这是能做到的,因为大自然就做到了。)

  如果动用“大模型”的目标思维,你应该给所有扁形虫测智商,进而选择“智商”最高的继续繁育。那样。。。你绝对繁育不出人类。。。

  你唯一有可能繁育出人类的方法,就是不按照特定“目标”对它们进行筛选,而是让这种虫子不断往“新”的方向变异,哪怕看上去很蠢,只要是“新”的变异就好。

  这样的话,经过一段时间,你会得到10086种新生物,然后你可能会从里面发现人类。如果没发现,就继续等待它变异出1008600种新生物,直到等待几亿年,甚至几十亿年,等出人类。

  造物主像是在往星球上一直倒水,水满了就会溢出山口,满了之后又会溢出山口,足够长的时间以后,就越来越有机会覆盖到整个星球的最低点。

  马斯克评价巴菲特说:老实说,我并不是巴菲特的粉丝。 他每天就是坐在那里,阅读各种年度报告,而这些报告超级无聊。

  所以巴菲特炒股一辈子还在炒股;马斯克从电动车到储能到隧道挖掘到火箭卫星到twitter,没准哪天就上火星了。

  你必须在一生的时间里,一直进行反人性的自律,事事都交给“大模型”和“概率”去修正。

  别说你我了,就连伯克希尔的第三大合伙人瑞克·格林也没能做到。1983年格林因为心急,使用杠杆投资,在经济危机中陷入困难,不得不把伯克希尔公司的股票低价卖给巴菲特,自此下了牌桌。

  不客气地说,要想成为巴菲特,达到五祖的“时时勤拂拭”都不够,你得到六祖的“本来无一物”境界。(事实上巴菲特也不能够做到事事都讲概率,比如他喜欢喝可乐,这个选择一点儿都不“理性”。)

  “简单的东西”很容易重复,成为无聊的体验;而为了寻找新的体验,我们只可以探寻“更复杂的东西”。好奇心促使每个人的认知逐渐攀登向高级。这才是学习最基本的动力学过程。

  意即情感为大象(自动化),理性为骑象人(控制化)。骑象人认为自身可以驾驭大象,但大多数时候,骑象人都去不了象不想去的地方。然而象也不是完全自由,在它的意图不够强烈的时候,最终去向还是会受到骑象人影响。

  很多浅友都知道,阿西莫夫曾经提出机器人三大定律。但是却很少有人知道,阿西莫夫可没把“三大定律”当好事儿说,在小说《转圈圈》里把它提出来,就是用来嘲讽的。

  但因为机器人要同时遵守第二定律(机器人必须要服从人类命令)和第三定律(机器人必须保护自身),速必达就在那个矿旁边转圈圈,一圈又一圈。。。

  三大定律的本质就是“目标导向”。可是为了达到这些目标,偏偏违背了这些目标。。。

  一组是“目标导向”:既然目标是走路,他们就把摔倒设置成一个“负反馈”。于是机器人为了尽最大可能避免摔倒做了各种努力,但就是学不会走路。

  一组是“好奇导向”:机器人随便干啥,只要能用身上的零件做出“新鲜的动作”就行。

  于是机器人花式摔跟头,研究员还在一边叫好。然而,在花式摔跟头的同时,机器人理解了“平衡”这件事儿。这样训练出来的机器人,不仅会摔跟头,也“恰好”会走路。。。

  一组是“目标导向”,机器人接近出口,就给更多奖励;另一组是“好奇导向”,撞墙还是走门您随意,只要能玩出花来就行。

  结果你肯定猜到了。好奇导向这组机器人在横冲直撞的过程中理解了“墙”和“门”的定义。之后给它一个“走出迷宫”的指令,它就能直接走出去。而目标导向那组机器人,熟练地掌握了“跟墙较劲”和“钻牛角尖”等技能。

  过去几十年,中国比世界上绝大多数国家都鼓励创新,我们也创造出了很多从1到100的创新。这些有目共睹的成绩都是“好奇模式”驱动的。

  而美国限制中国的策略是通过“卡脖子”把中国从“好奇模式”扭向“目标模式”。连气都喘不上来的时候,就顾不上好奇了,肯定得先集中精力解决脖子的问题嘛!

  首先,这几年我们对芯片等“卡脖子”技术的针对性引导,某些特定的程度上占用了我们本来用于探索和创新的资源。

  其次,当外部压力变大时,人们的恐慌情绪也会蔓延,更多人会倾向于留在“洼地”里,不愿承担风险,不去探索未知,形成了前述的“环形内卷高速公路”。

  就像《论持久战》中说的那样,中国是一个很大的国家,地大、物博、人多、兵多,能够支持长期的战争。

  换句话说,如果我们的资源总量庞大, 即便一部分资源被“目标”牵制,还有另一部分资源能够支持自由创新。

  另外,我们仍就具有很强的“数字化的经济底座”和极大的“人才红利”,这都是命运的重要变量。(对此我还是充分乐观的

  虽然在外部的压力下,骑象人会拉紧缰绳,但是随着局面进入稳定的“新常态”,拉紧缰绳的边际效应会递减,放松缰绳成为必然。

  在国家层面,我们有理由重塑对“小模型”的信心,看到现实中对于边界探索的收益重新“变甜”的趋势;在个人层面,更有理由重塑对“小模型”的信心,无数事实已经证明跟随直觉和好奇可以给我们大家带来超额收益。

  “命运场”覆盖范围变大,虽然提升了你找到新栖息地的终极期望,也不可避免地导致摸着石头过河时出现“深一脚浅一脚”的情况——你命运各个“章节”之间的方差会加大。

  当你在石头之间纵身一跃时,脚下也许是万丈悬崖,此时你需要一种人类精神中最稀缺的美德——勇气。

  英国神经科学家阿尼尔·赛斯在他的书《成为你:意识的新科学》中阐述了一个研究成果,这就是“预测处理理论”。

  要说明这个预测机器的来龙去脉,我们大家可以回到比扁形虫还要早的祖先,比如某种水母。

  水母有最初级的神经系统,但它的神经是只能对很强的物理刺激作反应,例如碰到石头就会收缩、转向。

  但是随着生物演化,神经系统更为复杂,它就具备了对微小物理刺激作反应的功能。比如,扁形虫就会利用打到它身上的光线来感受周围环境,有石头就绕开。(这个玩意儿就是眼睛,实际上,在进化谱系上,眼睛的出现是早于大脑的。)

  随着神经系统越来越复杂,不仅要能感受光线,还要能感受震动(声音),还有化学物质(气味),这就需要“更复杂的模型”和“更大的算力”来承载,于是大脑形成了。

  一个生物周围会不断有光线、声音、气味出现,体内也不断产生电学、化学信号,所以大脑对这些刺激的反应也是不能间断的,这就形成了一种对周围环境的“实时主动预测”。

  把这种永不停歇的机械预测串联起来,生物就产生了“自我”的意识。(当你睡着了,你的大脑暂停预测,你就没了“自我”)

  我们任何一个人都活在自己构建的故事里,比如你可以脱口而出讲述一个“自传”——我从哪来,曾在哪上学,有过哪些朋友,人生中哪些重要的时刻塑造了自己的性格。

  首先,我们每个人心中都并行着很多故事。在这些故事里,“我”承担的角色并不同。就像在不同的游戏间切换,一会上这个号,一会儿上那个号。

  比如在家庭里我可能是一个儿子或父亲,在职场我可能是一个码农,在公共生活中我可能是一个制度改革的推动者。

  其次,任何一个人都有丰富的经历,从这些经历中选取的素材不同,甚至解读的角度不同,讲述出的故事也不同。

  比如和父母相处,大概率你能够找到他们不爱你的片段,也能够找到他们爱你的片段;比如被老板的训斥,可以解释为自己失败的征兆,也可以解释为成功路上的磨砺.

  之所以我们的故事具有如此多的可能性,本质上仍然是因为“世界具有不可约化的复杂性”,需要用故事来进行简化。而究竟哪个故事是“对”的,哪个故事是“错”的,我们终其一生都没机会知晓。

  既然皆为虚妄,我们何必总是把心挂碍在一个雷同的、让人焦虑的、无法改变的“主叙事”上?

  而你在更广阔的空间里穿梭,“人生点滴”就会更多,直至如恒河之水,足够你随时拼出无数精美的故事。这些故事描绘了你来自何处,也昭示着你将要去往何方。

  解决了“去往何方”这个开放世界的头等大事之后,面对眼前多如牛毛的具体困难时,你反而可以把“大模型”像金箍棒一样拿出来大闹天宫——在局限的信息内求解,才是它的正确用法(如第四章所述)。

  你知道“放松缰绳”会引向更好的数学收益,通过“无我”的修行你也有了“纵身一跃”的勇气,但你仍有坠落山崖的可能。

  人永远无法切割与他人的关系。你和他人分工,从而获得生存的资源;你和他人共享语言,从而有了协作的工具。更重要的是,你和他人共享历史。

  所有人的个体创新行动,都将以某种形式汇入历史。当你进入了某个未知区域,无论个体成败,都讲确凿无疑地降低这个区域对于整个人类的新奇性。

  宇宙的时间箭头永远向前,而历史告诉我们曾经身在何处。人作为一个整体,可以离开曾经到过的地方,向无限的地方探索。

  而最终,斯科特还是被困在帐篷的睡袋里迎接死亡来临。他在生命最后阶段不断书写日记,意识消散前留下的最后一句话是:For Gods sake, look after our people.(看在上帝的份儿上,照顾好我的人民。)

  他们的选择,未必都将个人引向更好的生活,但他们的存在,对于普遍意义上的“人类”来说,是巨大的幸运。

  在姜峯楠的小说《你一生的故事》中,主人公洞悉了自己余生的命运,这些命运充满离别和苦难,但她最终选择义无反顾。

  我们作为个体,也许本质上终究是一个生存机器,被体内的基因驾驶着,在旅程中路过一场场离别,待所有的离别看尽,走入一个寂灭的终点。

  再自我介绍一下吧。我叫史中,是一个倾心故事的科技记者。我的日常是和各路大神聊天。如果想和我做朋友,可以搜索微信:shizhongmax。

  哦对了,如果喜欢文章,请别吝惜你的“在看”或“分享”。让有趣的灵魂有机会相遇,会是一件很美好的事情。