行业事件
LinkedIn联创Reid Hoffman:Web 2.0时代把钱赚得太容易了,硅谷已经不太会做「难而正确」的事
来源:Z Finance
作者:ZF编辑部
硅谷这些年最擅长的事,是把复杂世界压缩成几个好讲的故事。平台、网络效应、增长飞轮、订阅模型。故事讲久了,人就会产生一种错觉,好像只要把一个行业软件化,再配上足够的算力和融资,它就会像社交产品一样被重写,被迭代,被迅速占领。
Reid Hoffman 在最新的访谈中表示,AI 时代最值钱的机会,往往不在硅谷最熟练的那套工具箱里,而在它最容易轻视、最不愿投入、也最难用一页 PPT 讲清楚的地方。
他并不否认聊天机器人、生产力工具、编程助手能赚钱。问题在于,它们太显眼了。显眼的意思是,所有人都看得见,资本和人才会像潮水一样自动涌入。这样的赛道当然热闹,但热闹不等于结构性溢价。你更可能拿到的是同质化竞争、价格战和更短的窗口期,而不是长期的确定性优势。
真正的分水岭在第二层。哪些东西会变,哪些东西不会变。平台会换皮,叙事会换词,产品会换入口,但网络效应、企业集成、信任与分发这些硬逻辑不会消失。所谓新世界,最后依然要回到旧问题上来,只是整合会更残酷,集中会更明显,赢家通吃会更彻底。
硅谷当然不是看不到机会,而是本能地看不起某些机会。看不起慢,看不起脏,看不起那些被监管和现实反馈牢牢拽住的系统。
第一类就是生物与医疗。药物发现、医疗研发听起来像信息问题,但它的节拍器从来不在代码仓库里,而在实验室、伦理审查、临床试验和审批流程里。你可以把筛选、预测、设计做得更高效,却必须接受一个事实,这里的失败率是结构性的,验证成本是刚性的,周期也不是加班就能压缩到软件速度的。AI 能加速的是试错的效率,而不是取消试错本身。
第二类是原子世界的成本结构。机器人、自动化、供应链与劳动力,决定成败的往往不是能不能做到,而是值不值得做。叠衣服在人类看来几乎没有技术含量,但在机器面前充满了不确定性。材料的柔性、抓取的触觉、环境的变化,每一步都像在跟现实摔跤。于是出现一种反直觉的局面,白领世界里看上去更复杂的工作,反而更早被改造;物理世界里看上去更简单的动作,却因为资本开支、维护成本和场景不确定性,迟迟无法规模化。
硅谷过去靠数字世界的低摩擦红利赢得太容易了,而真正的新大陆反而会出现在高摩擦领域。医疗、药物、劳动力、自动化、政府治理、教育与儿童认知,这些地方不性感、不快、难以被模拟,还带着监管与伦理的硬门槛。但正因为如此,它们也更难被显而易见的创业者复制。
以下是全文翻译。
AI投资从“七宗罪”到硅谷盲点,医疗及劳动力的重构之路
Erik Torenberg:Reid,欢迎来到Face播客。
Reid Hoffman:很高兴能来这里。
Erik Torenberg:Reid,你是Web2.0时代最成功的投资者之一。你投资了Facebook、你联合创立的LinkedIn,还有AirBNB等众多企业,而且你有不少框架助力自己的投资决策,其中就包括“七宗罪”框架,我们也经常提到。如今你在做AI投资,会采用什么样的框架或世界观来指导这项工作呢?
Reid Hoffman:很明显,我们现在都像是透过昏暗的玻璃看世界,在充斥着闪光灯的迷雾中摸索,很难看清当下的局势。所以我们都在这片全新的领域里摸索前行。我不确定我提出的“七宗罪”框架是否还适用,因为这个框架探讨的是全球80多亿人共同的心理基础设施问题。不过我认为有几个关键点需要关注。首先,会有一系列显而易见的机会,比如一大批出色的聊天机器人,还有生产力工具、编程助手之类的产品。当然,这类领域依然值得投资,但正因为是“显而易见的机会”,意味着所有人都能看到,所以要做差异化投资会更难。
第二个值得关注的点是,AI究竟意味着什么?因为人们在面对颠覆性领域时,往往会说“一切都会改变”,但实际上只是重要的东西发生了改变。就像你提到的Web 2.0和LinkedIn,很明显,平台变革带来了新的可能,那现在会不会因为AI,诞生出下一个类似LinkedIn的平台?出于我与LinkedIn的渊源,我当然希望LinkedIn能抓住这个机会成为那样的平台,但我始终支持创新和创业,希望能为人类带来最好的结果。不过关键是,哪些是相对传统、始终未变的核心逻辑?比如网络效应、企业集成,还有其他一些领域——新平台虽然会打破现有的格局,但你终究还是要以某种方式重新整合这些格局,那具体该怎么做呢?
第三个点,也是我投入最多时间的领域,是我所说的”硅谷的盲点“。硅谷无疑是世界上最了不起的地方之一,这里有紧密的合作与竞争网络,有知识共享、技术发明和新事物的创造,这些都非常棒。但硅谷也有自己的固有准则和盲点,其中一个典型的盲点就是:认为所有事情都应该用计算机科学来解决,都应该靠软件实现,都应该在数字领域完成,因为这是最关键的方向——当然,这个领域确实是投资的好赛道。但问题是,AI革命中哪些领域会产生颠覆性的魔力,却又不在硅谷的认知盲点之内?这大概是我在联合创业、技术研发和投资等方面投入大部分时间的方向。因为我认为,对于一件极具潜力的大事而言,抓住其认知盲点所在,恰恰是打造下一个标志性企业的长期机遇。
Erik Torenberg:没错,我们再深入聊聊这个话题。我们之前也谈到,人们过于关注生产力和工作流程层面的AI应用,却忽略了其他维度。你可以再讲讲那些你觉得更有意思的方向吗?
Reid Hoffman:其实早在2015年,也就是十年前,我在Greylock就跟合伙人说过:AI在生产力领域肯定会催生出一大批相关产品,你们如果有相关企业需要我协助,我会尽力帮忙,你们做得很棒,企业级生产力工具这类领域也是Greylock的专长。但我当时也说,我认为挖掘硅谷的盲点,还能找到其他机会。比如你们都知道的maddi AI,我们要打造一个以软件速度运转的药物发现工厂,这就是其中一个方向。
显然,这里面涉及监管问题,也涉及生物数字技术,所以它不可能完全达到软件的运转速度,但我们该如何实现这个目标呢?有人问我,“你对生物学了解多少?”我的回答是“几乎为零”——当然也不是真的一点都不懂,我在Biohub董事会任职10年,也在Arc董事会任职,一直都在思考原子世界和数字世界的交叉领域。而生物数字技术,在很多方面都介于原子和数字之间。我对这个领域思考了很多,关注的重点并非某一家具体的公司,而是哪些事物能提升人类的生活质量。这也是我参与Biohub和Arc的部分原因。但后来我意识到,如今有了AI,发展速度会进一步加快。我先岔开话题讲个有趣的事吧。
大概也是十年前,我受邀给斯坦福长期规划委员会做演讲。我当时告诉他们,应该把所有精力转向为每个学科打造专属的AI工具。那时候ChatGPT还远未出现。我用搜索打了个比方:想象一下,每个学科都有一款定制化的搜索生产力工具。那时候我能想象到,除了理论数学和理论物理,我几乎能为所有学科打造这样的工具。而如今,就连理论数学和理论物理领域,或许也能实现了。没错,就是要通过这种方式改变知识的生成、传播和分析方式,道理其实是相通的。
现在有人认为,生物系统太过复杂,无法进行模拟。虽然LLMs已经带来了很多突破,但硅谷一个典型的盲点就是:“我们只要把一切都放进模拟系统,就能研发出药物。”可模拟的难度其实极大。
不过,从AlphaFold和AlphaZero的研究中,我们能得到一些启发。人们总觉得,要让物理材料领域产生重大突破,必须依靠量子计算,但实际上,只要做好预测并保证预测的准确性就有可能实现——而且准确率甚至不用达到100%,1%就够了。因为你可以验证剩下99%的预测是错误的,然后找到那1%正确的答案。打个比方,这不是“大海捞针”,而是“在太阳系里找一根针”,但借助AI,我们或许能做到。这也让我意识到:硅谷传统的思路是靠模拟解决一切,但这行不通;还有人觉得我们会拥有超级智能的药物研究员,两年内就能出成果,但我认为这一天或许会来,但绝不会很快。这就是我关注的其他领域的情况。如果时间允许,我再举另一个例子,你肯定会感兴趣。
这和我们10到15年前的一些对话能呼应上。本周日我要参加一场辩论,主题是“AI是否会在短短几年内取代所有医生”。支持方的论点其实很容易立住脚:AI的能力正在飞速提升。看看如今的ChatGPT就知道了。我想给所有听众一个建议:如果你拿到重要的医疗诊断结果,却不用ChatGPT或同类工具做二次验证,那你简直是失去了理智,也太无知了。如果AI的结论和医生的诊断不同,那就再去寻求第三次意见。AI的诊断能力远超地球上任何一个人类的知识储备,所以如果医生的角色只是“知识存储器”,那这个角色肯定会被取代。但问题是,我们要思考医生的核心价值究竟是什么——这并非只是有人握着你的手安慰你那么简单。我认为,十年、二十年后,医生这个职业依然会存在,但不再是作为“知识存储器”,而是作为知识存储工具的专业使用者。医生的价值不再源于“我在医学院读了十年书,死记硬背了无数知识”,这部分能力注定会被淘汰,这是好事。但成为一名医生,还有很多其他维度的要求。
我用了ChatGPT Pro的深度研究功能,也用了Claude Opus4.5的深度研究、Gemini Ultra和Copilot的深度研究功能。我用尽了自己所知的所有提示词技巧,想让这些AI为我的辩论立场提供最有力的论据——毕竟我要辩论的是AI相关的话题,当然应该用AI来辅助辩论。但这些AI给出的答案全是废话,即便我把提示词做到了极致。当然,世界上可能有比我更擅长写提示词的人,但我在GPT-4向公众开放前六个月就开始使用它了,在提示词方面也算有经验,绝非新手。我研究了这些答案后发现,这一现象很有意思,也反映出当前大语言模型的推理能力存在局限性:这些AI动用了32个GPU计算集群进行了10到15分钟的推理,产出的内容虽然比分析师花三天做出来的东西看起来更惊艳,但存在致命缺陷——它只是把当下主流杂志文章中支持我立场的观点做了个共识性总结。而这些总结都站不住脚,核心论调无非是需要人类交叉验证诊断结果。但作为技术从业者,我们很清楚,未来不会再是人类交叉验证诊断,而是AI交叉验证AI的诊断结果,甚至是AI之间互相交叉验证。当然,人类还会参与其中,但二十年后,医生的核心工作绝不会是交叉验证诊断结果。因为医生必须尽快明白:如果你的观点与AI给出的共识结论不同,你必须有充分的理由,并且要去做深入调查——这并不意味着AI永远是对的。而这恰恰是所有职业未来都需要的能力:更多的横向思维和跨界思考。共识性观点固然重要,但如果观点并非共识呢?这才是医生、律师、程序员未来需要聚焦的工作核心,而当前的大语言模型在这方面的结构性局限依然很明显。
Alex Rampell:我很喜欢Richard Feynman的一句话:“科学是对专家无知的信仰。”确实,很多职业里,文凭成了专业能力的代名词。仿佛成了“有这个文凭,就代表懂这个领域”的逻辑——有医学博士学位,就懂医学;有法律博士学位,就懂法律。这也是为什么编程领域其实走在了前面,因为这个领域里,没人在乎你从哪拿到的学位。这种特质在社会其他领域还未普及。有趣的是,Milton Friedman曾被问到——他是著名的自由主义者——“你难道不觉得脑外科医生应该要有文凭认证吗?”他的回答是“市场会自行解决这个问题”,这听上去很离谱,但如今在数字领域,编程行业就是这样运作的。而很多领域之所以思维模式不够先进,正是因为它们建立在层层文凭主义之上。从历史来看,文凭主义确实是个不错的经验法则:如果一个医生是哈佛医学院的尖子生,那他大概率是个好医生。
Reid Hoffman:没错,三年前你肯定会看重这一点,毕竟当时人们需要的是拥有扎实知识储备的人,有文凭就意味着有储备,这当然很好。但现在,我们已经有了AI这个“知识存储器”。我完全同意你的看法,这也是我觉得你会对这个例子感兴趣的原因,因为这和我们之前的讨论能呼应上。
Alex Rampell:我还以为你会聊数字与原子的差异这个话题。现在的情况很有意思:高价值的工作,比如高盛的卖方分析师做的深度研究,已经被AI渗透;而叠衣服这样的事,要实现自动化需要十万美元的资本支出,还不如雇个时薪十美元的人来做。原子世界的事物真的很难被颠覆,我们最终会实现,但这无疑是硅谷的一大盲点。这其实也是数字与原子领域在资本支出和运营支出上的差异。
Reid Hoffman:原子领域确实是另一块重要阵地,而生物领域之所以值得关注,也是因为生物本质上是数字化的原子。
Erik Torenberg:那为什么叠衣服这么简单的事却迟迟难以实现自动化,而深度研究这类复杂工作反而更容易被AI攻克?
Alex Rampell:其实叠衣服的自动化技术本身并不难研发。
Erik Torenberg:或者说,为什么叠衣服的自动化研发耗时更久、成本更高?我们事先根本难以预料到这一点。
Alex Rampell:我几年前和Ilia聊过这个问题。阿西莫夫的小说里描绘过机器人会为人类做饭、叠衣服的场景,可这些为什么至今都没实现?核心问题在于,我们一直没有造出足够智能的“大脑”。比如,要拿起这个水瓶,人类的手其实具备极其精巧的操作能力,而机器人很难复刻。
为什么人类比其他物种更先进?有两个原因:第一,我们有对生拇指;第二,我们创造了能够代代相传的语言系统,也就是文字。海豚其实非常聪明。曾经有理论认为,物种的先进程度不只是看大脑大小,还看脑体比,人类的脑体比是最高的。但事实并非如此。如今我们测量了所有动物的脑体比后发现,很多动物的脑体比其实比人类更高,比如大象、海豚等,具体数值我记不清了。但它们没有对生拇指,因此无法发展出文字,也就无法实现知识的代际迭代,而人类做到了。当然,人类的发展进程先是缓慢积累,工业革命后开始加速,到现在更是持续爆发式增长。发展速度一直保持着这样的趋势。
Reid Hoffman:这也是我在过去五年里意识到的一点:人类的经典分类是智人(Homo sapiens),但我认为人类其实是“技术人(Homo techn)”——因为我们通过技术实现迭代。没错,正是如此,无论是文字、打字技术,还是其他技术,人类都借助技术完成迭代,并将成果传递给后代,在此基础上发展科学和其他领域。我认为这才是人类发展的关键。
Erik Torenberg:还有一些其他的解释:比如我们拥有的白领工作相关训练数据,远多于物体抓取这类体力劳动的相关数据。也有人从进化角度提出,人类使用灵活的拇指的时间,远比阅读这类脑力活动的时间要久。
Alex Rampell:没错,这和原始脑有关。人类大脑的大部分区域都不是新皮层,而绘画、创作这类复杂行为恰恰由新皮层主导,这些能力其实极难被复刻。你找不到会画画的海豚,这可能是因为它们没有对生拇指,但也可能是它们的这部分大脑尚未进化出来。人类经过数十亿年的进化,形成了诸多本能反应,比如战斗或逃跑反应,这些反应的出现远早于绘画能力。但我认为核心问题还是电池化学的瓶颈——锂电池虽然很先进,但其能量密度和细胞中的三磷酸腺苷相比差得太远了。正是这些原因,导致机器人技术的落地始终受限。
其中最关键的是,机器人的“大脑”一直不够智能。像Fanuc生产的流水线机器人运作得非常好,因为其工作场景具有高度的确定性。但一旦进入多自由度的场景,就需要协调无数环节才能正常运转。而且成本极高:造一台叠衣服的机器人需要十万美元,而我们有大量劳动力可以做这份工作,从经济角度来看完全不划算。但这也是日本成为机器人技术领军者的原因——他们面临劳动力短缺,所以只能研发机器人。这是真实发生的事。我在日本打保龄球时,看到有一台自动售货机式的机器人负责分发保龄球鞋,还会清洁球鞋。这种设备在我们这里绝对不会被研发出来,直接雇个当地高中的学生来做就好了。
Reid Hoffman:而且人力做这件事更便宜、效率也更高。
Alex Rampell:这其实是资本支出和运营支出的平衡点问题:当两者的成本曲线相交时,研发机器人就变得划算起来。随着技术成本下降,资本支出自然会比运营支出更具优势。
Reid Hoffman:关于机器人领域,我认为还有更深层的原因。首先是数字信息的价值密度:在语言领域,即便像浪漫小说这样的内容,也蕴含着极高的数字信息价值密度;但在现实世界中,如何从海量的物理信息中提炼出有效数字信息,以及该如何提炼,都是难题。其次是常识感知能力:从GPT-2到GPT-4、GPT-5的发展过程,就像是一个“天才症患者”的成长——这些模型能力惊人,但也常会犯低级错误。
微软多年来一直在做一个实验:让AI智能体相互对话,持续一整年观察结果。结果发现这些智能体经常陷入“不了,谢谢”的循环,一个月后还是重复“谢谢,不了”,而人类早就会停止这种无意义的对话。这其实反映了AI的语境感知能力缺陷,它们无法根据语境做出灵活调整,始终停留在机械的回应中。即便AI在数据、推理和个性化方面取得了巨大进步,其语境感知能力也只是通过其他方式间接实现的。
Erik Torenberg:Reid,我想再深入聊聊医生的话题。Alex,我们刚发布了你关于“软件吞噬劳动力”的演讲,我很好奇你用什么框架来判断,哪些领域会更多采用Copilot协作模式,哪些领域则会被AI完全取代工作?
Alex Rampell:我希望我可以给出完美答案。如果让大语言模型来回答这个问题,可能也就拿个B-,等它能拿B+了我再参考它的答案。我觉得很大程度上是行业的固有形态决定的:比如人们信任医生,评判医生的标准往往是“毕业于哪所医学院”。显然,现在有三分之二的医生在使用Open Evidence——这款工具就像整合了《新英格兰医学杂志》内容的ChatGPT,还获得了相关授权。
Reid Hoffman:是Daniel Nadler开发的那款吧。
Alex Rampell:对,还有Ken参与了开发。所以医生使用这类工具是必然的——套用你的“七宗罪”框架来简化说,所有人都想偷懒又想赚更多钱。如果一款工具能让医生看更多病人、做更少工作,他们肯定会用,没有理由拒绝。但这是否意味着医生的工作会被完全取代?其实“软件吞噬劳动力”这句话并不完全准确。
目前最成功的软件产品,从来都不是“让所有人失业”的产品——没人会买这样的产品,也很难推广。反而是那些“能让人偷懒”的产品更受欢迎。当然不会直接这么宣传,偷懒又赚钱听起来不太正面。换种说法,“让你工作更少、赚得更多”,这绝对是杀手锏。如果一款产品能做到这一点,又由具备专业背书的主体推出,就会被各个行业接连采纳。最终就会出现你说的情况:如果做医疗诊断时不用ChatGPT,那简直是疯了。只不过这种观念还没有在人群中完全普及。
Reid Hoffman:何止是没普及,简直是才刚刚开始。
Alex Rampell:我知道。
Reid Hoffman:但你说还没完全普及。我觉得这也是大家开始使用它的部分原因,没错。
Erik Torenberg:千真万确,毕竟它是有史以来增长最快的产品。但话说回来,它的普及程度依然很低。
Alex Rampell:这也是我坚信AI被严重低估的原因——不过在硅谷,可能没人会这么说,或许是因为估值的问题。
Reid Hoffman:我们都不觉得它被高估了。
Alex Rampell:但我发现,当我在现实中给普通人展示AI的能力时,他们完全没概念。部分原因是他们看了IBM Watson的广告,就觉得“这就是AI?”不,那根本不是真正的AI。还有人接触过所谓的“伪AI”,或是两年前用过ChatGPT,发现它解决不了问题,就否定了AI。
有意思的是,当年你还是我在TrialPay的投资人时,我写过一篇博客,标题是《永远不要用当下评判人和事》。这是很多大企业人士会犯的分类错误,我这话其实也带点隐喻。我在博客里举了个例子:我找到一段Tiger Woods的视频,他当时才两岁半,就能打出一杆完美的直线开球,还上了Tonight Show之类的节目。看这段视频有两种视角:一种是“我44岁,能把球打得比这孩子远多了”,这话确实没错;另一种则是“哇,这个两岁半的孩子如果坚持下去,未来肯定会非常厉害”。大多数人只会用当下的标准评判事物,这也是AI被低估的原因——他们在某个时间点试过AI,而从概率上来说,这个时间点往往是在过去,发现AI满足不了自己的需求,就认定它没用,这其实很片面。我认为AI的普及很大程度上会围绕偷懒又赚钱这个逻辑展开,很多AI产品的爆发也正是基于此。不过在超大型企业里,这种现象反而更少,因为这些企业存在委托代理问题:比如我是某部门总监,公司赚了钱、省了成本,但我只关心能不能早点下班、能不能升职,AI带来的好处只属于公司这个抽象主体;而在小企业、个体经营者或私人医生那里——比如我开了一家皮肤科诊所,AI能让我接待五倍的病人,或是作为原告律师,AI能让我拿到五倍的和解金——我肯定会用,因为这能让我少干活多赚钱,这是毫无疑问的。
Erik Torenberg:我觉得这个模型说得特别好。
Reid Hoffman:顺带一提,你这话让我想起Ethan Wallach的一句话,我经常引用:“你用过的最差的AI,永远是今天的AI。”这话没错,因为它提醒你,明天的AI会更好。
Alex Rampell:是啊,很多怀疑者犯的正是这个错:“我两个月前试过AI,它解决不了这个问题,所以它不行。”这就是用当下的眼光看问题,你得学会推演未来——当然也不能过度推演。我感觉低估AI的人分两种:一种是对AI一无所知的人,一种是对AI了如指掌的人。这很有意思,就像那个经典的迷因图,不是越无知越自信的那种,而是曲线中间的这群人是对的。通常迷因图里是两端的人看似愚蠢实则聪明,但这里恰恰是中间的人是清醒的,因为他们正用AI让自己少干活多赚钱。
Reid Hoffman:我还想告诉大家的是,如果你至今还没找到AI在正经事上帮到你的方式——不是用来给孩子生日写首十四行诗,也不是问“冰箱里有这些食材,我该做什么饭”这类小事,而是在工作、在你真正重要的事务上——那只能说明你尝试得还不够。当然,这不是说AI能解决所有问题。比如我如果输入“Reid Hoffman该如何通过投资AI赚钱”,哪怕一个月后再试,我估计得到的依然是那种糟糕的商学院教授式答案,而不是真正的投资门道。但每个人都应该去尝试。
比如我们收到项目计划书时,会把它放进AI里,让AI生成一份尽职调查计划。如果有人还没这么做,那就是失误了。因为五分钟就能得到一份计划,你一看,“第一条不行,第二条也不行,第五条也不行,但第三条不错”,而我自己做的话,可能要花一天才能想到第三条。
大模型的边界与AI进化“天才症患者”的未来
Erik Torenberg:说到推演未来,过去几年AI的发展速度确实惊人。你从一开始就参与了OpenAI的相关工作,那从更宏观的角度来看,未来几年缩放定律是否依然成立?大语言模型的局限性在哪里,我们能靠它走多远?是否需要其他类型的突破性技术?你对这些问题怎么看?
Reid Hoffman:我们都在试图推演未来的发展,这也是硅谷的一大优势,由此也诞生了奇点理论、超级智能理论、指数级发展迈向超级智能的理论等。我发现,这类推演的常见误区并非“推演未来”这件事本身——聪明人就该做这件事,而且我记得当时也帮你推广那篇博客,很多人也认同这个观点。
误区在于把发展曲线归为哪一类:如果是“天才症曲线”,那结果就完全不同。有人会觉得AI会达到极致,变成无所不能的“神”,但事实并非如此——未来的AI只会是比现在更厉害的“天才症患者”。不过即便如此,人类依然有发挥的空间,通才、交叉验证者、具备语境感知能力的人,始终会有价值。当然,AI或许会跨越某个临界点,也可能不会。
这里面有很多问题值得探讨,但人们的推演往往陷入“既然是指数级发展,那2.5年后就会出现魔法般的突破”的误区。AI确实带来了魔法般的改变,但并非所有事都能靠它实现魔法般的解决。我个人的观点是,批评LLMs的人也犯了错误——他们会列举大语言模型在表征、质数计算等方面的种种失误,以此证明它失效了。
Alex Rampell:我们都见过这些批评的声音。
Reid Hoffman:没错,但他们恰恰忽略了AI的魔力。诚然,未来3到5年,大语言模型可能仍会面临一些结构性难题,但AI并非只有大语言模型这一种,而是多种模型的组合。我们如今已经在这么做了:比如用扩散模型处理各类图像和视频任务。
而且,如果没有大语言模型构建的本体论,扩散模型也无法完成“生成我和Erik Torenberg作为《星际迷航》舰长探索宇宙、与瓦肯人首次接触”这类任务——现在我们用手机就能做到这一点,这得益于OpenAI,还有Google的模型也很出色,但这类任务都离不开大语言模型。人们需要认清的是,未来的AI会是大语言模型、扩散模型,以及其他模型通过某种架构整合后的产物。一个有趣的问题是:这种整合架构的核心是大语言模型吗?架构本身又是什么?
这一点还待定,而架构能达到何种智能水平,也是个值得探讨的问题。我会和所有批评者深入交流,并非因为认同他们的观点,而是想提炼出其中的核心洞见。比如最近和Stuart Russell的几次对话就让我很有收获,他说如果能让这些模型的架构更具可预测性,就能大大缓解人们对AI失控的担忧,那我们就该朝着这个方向努力。不过我认为,像对代码进行逻辑验证这类输出验证工作,目前还很难实现——我们甚至连代码验证都做不到,这类验证工作的难度极高。Stuart Russell是个天才,或许他能找到解决办法,但“让AI更可编程、更可靠”无疑是个值得追求的目标,顶尖人才应该投身其中。当然,智能AI本身也能助力这件事。
Alex Rampell:这涉及到数学层面的问题。如果你思考世界的底层逻辑,哲学是一切的基础,数学也源于哲学——笛卡尔坐标系就以Descartes命名,这就是哲学根基的体现。学科的层级大致是:哲学衍生出数学,数学衍生出物理学——牛顿创立微积分就是为了理解现实世界;物理学衍生出化学,化学衍生出生物学,生物学又衍生出心理学,这就是学科的堆叠结构。所以如果攻克了数学领域,会带来非常有趣的突破。Rutgers的Kontorovich教授对此有很多研究。
我曾是数学家,所以对这部分格外感兴趣。数学领域存在一些极难的问题,有传言说DeepMind即将解决纳维–斯托克斯方程,这将是重大突破——它可是克莱数学问题之一。但像黎曼假设这类问题,目前还没有评估标准。
这也是AI发展的关键:比如美国高中数学邀请赛(AIME)的答案都是0到999之间的整数,你可以不断尝试,很容易验证答案的对错;但一旦涉及数学证明,难度就会陡增。如果AI能攻克数学证明,这算AGI吗?恐怕不算,因为AGI的定义一直在变化,但数学领域的突破确实极具意义。
Reid Hoffman:说白了,AGI就是我们尚未发明出来的那种AI。
Alex Rampell:这和之前的观点是呼应的:你用过的最差的AI永远是今天的AI,而AGI就是你明天会拥有的AI,本质上是一个道理。数学领域也同样有趣,因为这里的突破不是解决高中数学那么简单。如果AI能真正逻辑构建并验证一个数学证明,那意义重大。有一款专门用于数学证明的编程语言叫Lean,这类技术也很吸引人。所以AI的发展有很多不同的突破方向,这是另一种思考视角。
Erik Torenberg:太有意思了。正如你刚才提到的,Alex、Reid,你是哲学专业出身,同时也深入研究神经科学。有些人认为,我们永远无法创造出拥有自身超级意识的AI,因为我们连自己的意识都不懂,连自己的大脑如何运作都不清楚。更宏观的问题是:AI会有自己的目标或能动性吗?你们对AI意识相关的这些问题怎么看?
Reid Hoffman:意识本身就是个复杂的难题,我简单说几点。我认为AI具备能动性和目标几乎是必然的,只是我们需要在这方面获得足够的清晰度和控制力——这和之前讨论的“何种计算架构支撑AI”属于同一类问题。因为要解决复杂问题,AI必须能够设定自己的次级目标等,所以目标设定、行为执行及从中推断结论,都是必要的。
这就引出了那个经典的设想:你让AI最大化曲别针产量,它就会试图把整个地球都变成曲别针。这明显是早期计算机缺乏语境感知的产物,而我甚至担心现代AI系统也存在这个问题。但另一方面,真正的智能不会这么简单——它不会一门心思只想把所有东西都变成曲别针,实际运作起来远没有这么极端。
意识则是个更有趣的问题,很多顶尖学者都有不同看法。比如Roger Penrose,我很久以前曾采访过他,当时他在推广Emperor’s New Mind一书,他可是顶尖数学家。他认为,人类的智能形式、计算智能本质上是基于量子的,与物理规律、管状结构等有关。当然,这并非不可能——这是一位超级天才数学家提出的连贯理论,在他的领域里,几乎没人比他更聪明。所以这种可能性是存在的。
我认为目标设定和推理不需要意识支撑,甚至有些自我意识形式也不需要意识——只有特定类型的自我意识才离不开意识。这是个棘手的问题,自有哲学记录以来,哲学家们就一直在探讨,却始终没有很好的答案。而且哲学家们也都认同(我这么说,哲学家们应该不会觉得我在贬低他们),这个问题至今没有定论。
哲学家们都承认,这是个难题,因为它涉及能动性、自由意志等一系列问题。我认为正确的态度是保持开放的心态。说到开放心态,Sofa Suleman在过去一两个月写了一篇关于“准意识”的好文章,文中提到我们在图灵测试上犯了太多错误——图灵测试的精妙之处在于“能与人对话即视为具备完整智能”,但这一标准存在局限。就像之前谷歌那位工程师的荒唐事:他问早期模型“你有意识吗?”,模型回答“有”,他就认定模型真的有意识,这显然是被误导了。
我觉得大多数人对AI的关注点都错了,比如过分担忧AI会加剧气候变化。但实际上,若能让AI像电力一样普及且发挥规模化智能,反而会助力气候变化应对——优化电网、改进设备等,带来的净效益会是极大的正面。而且这方面已有实例:谷歌将算法应用于自家数据中心,实现了40%的节能。仅这一项应用就成效显著,所以担忧AI危害气候是种误区。
但有个领域值得重视:孩子们与AI共同成长的方式。他们的认知体系、学习曲线会受何影响?这类问题需要我们主动且审慎地去规划。如果要找一个值得深入探索、能通过努力得出有价值答案并付诸实践的好问题,这绝对是其中之一。
Alex Rampell:我听过最有说服力的反对自由意志的观点是:人类本质上是生化机器。若想测试一个人的自由意志,让他极度饥饿、极度愤怒——这些状态下,肾上腺素等激素会直接主导行为,相当于强制干预。看似存在的自由意志,只需一种化学物质就能轻易改变。
Reid Hoffman:你是说你不是笛卡尔主义者?不相信有个小小的松果体连接着两种实体?
Alex Rampell:两种实体?我不确定,但事实就是如此。饥饿愤怒综合征是真实存在的——当你极度饥饿时就会变得暴躁。话说回来,如果你在研发超级智能,会希望它有这种愚蠢的“强制干预机制”吗?有些平时很正常的人会入狱,就是因为极度愤怒时做出了反常行为,但从生化角度看,这并非反常——只是血液中化学物质变化导致的自由意志被干预,想想还挺疯狂的。
Reid Hoffman:作为技术宅播客,我要说两个 geek 知识点:第一,人们常说“人类是生化机器”,但不能把生化机器想得太简单——就像Penrose提到的量子计算,量子世界存在诡异现象:未被观测时处于概率叠加态,观测瞬间就会坍缩,观测行为中的“魔力”是什么?这种魔力是否与意识有关?这里面有很多值得探讨的地方。
另一个有趣的现象是,哲学中的唯心主义正在悄然复兴。我们原本以为作为物理唯物主义者,唯心主义早已被推翻,但现在有人开始重新主张:“存在即思维,我们周围的一切物理实体都源于思维”。显然,这种观点有多种变体——比如硅谷很多人总说“我们生活在模拟世界里”,这种模拟理论其实和基督教的智能设计论很像:遇到无法解释的事,就归因于“造物主”,只不过换成了“模拟者”,这显然站不住脚。我当然不是唯心主义者,但确实能感受到唯心主义的回潮。
硅谷精神与平台壁垒:LinkedIn的生存之道
Erik Torenberg:我觉得我们可能会先实现AGI,再解决意识的难题——甚至在明确AGI的定义之前就实现了它。让我们回到LinkedIn的话题,就像对话开头提到的,我很幸运能和你共事多年。过去20年里,每周都有人带着“颠覆LinkedIn”的方案来找我们,但至今没有一个能接近目标,这很有意思。我很好奇为什么人们总低估这件事的难度,Twitter等平台也是如此——看似简单,实则难以撼动,生命力极强。最近OpenAI说要推出求职服务,号称“用AI实现企业需求与求职者能力的完美匹配”,你怎么看待LinkedIn的可持续性?
Reid Hoffman:显然,我认为LinkedIn具有很强的可持续性,但首先我会从人类、社会、行业的维度思考:什么对人类有益,什么对社会有益,什么对行业有益——行业发展的目的是服务社会和人类,三者并非对立,只是决策时的优先级和思考角度不同。
如果有新的出色产品能帮助人们找到有价值的工作、提升工作效率,我会很开心。AI带来的技术变革会引发大量职业转型,这类产品会非常有意义。当然,如果是LinkedIn推出这样的产品,那就更完美了——毕竟这是我亲手打造的平台,我为之自豪。
LinkedIn就像一只乌龟,最终成长为庞然大物。很多年里,硅谷对它的评价都是“枯燥、无聊、没用”,认为它会被Friendster(可能现在听的人都不知道了)、MySpace(或许还有人听说过)取代,后来又有Facebook、Meta、TikTok等平台崛起。LinkedIn的核心优势是构建了难以复制的网络——它没有照片分享那样的吸引力,也没有Twitter那种“愤怒”的情绪驱动(我之前在2002年提出“七宗罪”框架时,曾误以为Twitter的核心是“身份认同”,后来才发现是“愤怒”),而LinkedIn的核心是“贪婪”——这符合七宗罪中人类最普遍的动机。
Alex Rampell:也就是“想富又想懒”。
Reid Hoffman:你说得很直白,本质上就是追求高效产出、创造更多价值,并从中获得回报。所以我认为LinkedIn难以被颠覆的原因在于,它构建的网络极具壁垒,绝非轻易可复制。始终坚守这一核心定位,最终让人们形成“职场相关的事就来LinkedIn”的共识——这里有我的人脉网络,大家在此协作做事。新的挑战者必须具备同样的网络效应才能突围。我看到GPT-4时,知道Microsoft已经获得了使用权,就立刻联系LinkedIn团队:“你们必须尽快去了解这项技术,开始思考如何用它更好地帮助用户。”
这又回到了人们对硅谷的认知盲区:外界总以为硅谷人一心只想通过股权和营收赚钱——商人固然会追求这些,但他们忽略了硅谷的核心逻辑是“先打造出惊艳的产品”。很多公司创立之初,当被问及商业模式时,都会说“还没想好,会慢慢摸索,但我能做出了不起的东西”。这正是硅谷的核心信仰,也是我无比热爱、钦佩并践行的硅谷精神。
Alex Rampell:这一点我深有感触,必须高度赞扬LinkedIn——它具有反脆弱性。就像Facebook,有人说“没人用了,太拥挤,全是长辈”,之后总有新平台崛起:Snap的诞生,就是因为年轻人不想和婴儿潮一代父母在同一个平台互动,我家孩子都不让我关注他的Instagram,更不用提Facebook了。但LinkedIn却在这波又一波浪潮中存活了下来。
你提到了一个很关键的点:Web 2.0时代的逻辑是“先积累大量流量和高留存,形成微笑曲线,之后再考虑变现”,但现在这种模式已经不成立了。ChatGPT就是典型——直接推出20美元/月的订阅服务,变现模式从一开始就很清晰,而非先做大再找盈利方式。你觉得未来还会出现像Web 2.0时代那样“先免费做大再变现”的公司吗?
Reid Hoffman:会的,未来依然会有新的免费模式出现,这是我们的工具箱里的重要策略。但现在情况更复杂,尤其是像OpenAI这样的公司,成本结构已经发生了变化。就像当年PayPal,你也很了解,我们不得不从免费模式转向付费——因为用户量呈指数级增长,成本也随之指数级上升,即便融了数亿美元,我们都能精确算出公司倒闭的时间点,毕竟无法承受持续指数级增长的成本。AI领域也是如此,若成本曲线呈指数级上升,营收曲线必须跟上,否则无法持续。
Alex Rampell:但这样就少了很多乐趣。就像Pinterest,作为一家大型上市公司,至今仍有人质疑“他们怎么赚钱”。Web 2.0时代有很多这样的公司,现在则是“烧钱、融资”的循环,但AI公司从一开始就把订阅收入纳入规划,这是本质区别。
Reid Hoffman:他们必须这样做,因为成本不允许他们拖延变现。
Alex Rampell:没错。所以我在等一个新的公司出现,或许是依托“七宗罪”的某种新变体来吸引用户。
Reid Hoffman:我很乐意参与这样的项目。
Erik Torenberg:很有意思。有人尝试从不同角度挑战LinkedIn,几年前我就好奇一个点:LinkedIn有简历功能,但没有真正的推荐信——简历具有传播性,而推荐信则是“反模仿的”,人们不愿把它公开在网上。如果有一个数据集是人们愿意公开的,LinkedIn早就会去做了。我觉得大多数挑战者都没意识到其中的微妙之处。
Reid Hoffman:其实我们有类似推荐信的功能。
Erik Torenberg:你说的是技能背书吧?但没有负面评价。
Reid Hoffman:不过负面评价存在复杂性,一方面涉及社会关系,容易引发负面传播,另一方面还会带来法律责任等一系列问题,所以很难推行。其实LinkedIn依然是找负面参考的最佳渠道。我常会用LinkedIn找人打听某人,还专门有个固定邮件模板——你可能也收到过不少次,内容是“能否帮我给这个人打1-10分,或回复‘回电’”。如果对方回复“回电”,意思就很明显了。
Alex Rampell:那你必须得回电吗?
Reid Hoffman:当然,有时候对方会回复“他是我认识的最优秀的人”,但你需要的是一组评价——如果8个人都打9分,你可能还是会打电话进一步了解,但基本能快速拿到参考信息。而通常在核查重要人选时,你会收到好几次“回电”的回复,因为有些事只能电话里说。这种邮件一句话就能得到反馈,看到“回电”就懂了,效率很高。
AI时代的人文命题——时间杠杆与友谊真谛
Erik Torenberg:Reid,我很好奇,随着你职业不断升级,机会越来越多(尤其是卖掉LinkedIn后,机会更是复利增长),你是如何决定时间的最高杠杆用途、在哪里能产生最大影响的?你的思考框架是什么?
Reid Hoffman:首先,我相信我们三个都认同,现在是人类历史上最精彩的时代——AI的发展,以及它对“技术人”(Homo techno)进化的重塑,对生活、社会、工作等方方面面的变革,都太惊人了。所以我会尽可能全身心投入其中,除非有更重要的事,否则不会停下。比如我和Alpha Empower的CEO、T细胞疗法发明者Sadar to Mukarji联合创办了Mansai,他给我讲解FDA审批流程时,那种复杂程度足以让大多数人望而却步,但我觉得很有价值。
另外,随着技术越来越主导社会发展,如何让政府更懂技术、更智能,也是我认为至关重要的事。过去20到25年里,只要有西方民主国家的部长或高级官员来咨询技术相关的建议,我都会帮忙。就在上周,我去法国见了Macron,他想知道如何助力法国工业、社会和民众——如果所有前沿模型都在美国还有中国研发,法国该如何帮助本国人民?他的思路完全正确:先认清潜在挑战,再思考解决方案,主动沟通求助。法国已有一些布局,但他想最大化发挥作用,所以我也花了不少时间在这上面。
Erik Torenberg:我记得看过你的日程表,几乎七天都排满了会议,后来你稍微放缓了一点,变成了6.5天。你能做到这一点,一方面是因为聚焦重要问题,另一方面是和朋友合作项目,有些甚至持续了几十年。最后我们聊聊这个吧:你对友谊有很多思考,也写过、讲过相关内容。在你看来,友谊最显著、最令人意外的特质是什么?尤其是进入AI时代,人们开始质疑下一代的人际关系,你觉得大家最该重视友谊的哪些方面?
Reid Hoffman:其实我专门写过很多关于友谊的内容,因为AI时代让人们必须明白:友谊是一种双向共建的关系。
Reid Hoffman:友谊不是“你只需对我忠诚”或“你只需为我做事”。其实很多人都会为你做事,比如公交车司机,但这并不代表你们是朋友。举个典型的例子就能说清这一点。比如我某天过得特别糟,去找朋友Alex想聊聊,结果Alex说“天啊,我今天的经历才叫糟”,我就会说“看来你比我惨多了,那咱还是聊聊你的事吧”。这种情况很常见,因为我认为友谊的核心是两个人约定好,互相帮助成为最好的自己。
当然,有时候这种友谊对话会是严厉的爱,对方会说“你这事搞砸了,我必须跟你谈谈”。这和聊AI领域的SCO C阶段之类的话题不同,核心是“我该怎么帮你”。几年前我在Vanderbilt的毕业典礼上做过关于友谊的演讲,其中提到,友谊不仅是Alex帮我,更是Alex愿意让我帮他——这是让我成为更深度朋友的方式,我也能从中学习。这种双向的关系才是关键。
现在会有很多人说“我这有你的AI朋友”,但其实根本不是,AI和人的关系并非双向的。AI或许能成为超棒的陪伴者,但绝不是朋友。人们要明白,友谊让我们意识到生活不是一个人的事,而是团队协作,我们一起面对一切;友谊中的对话有时美好,有时也充满矛盾,这才是关键。如今AI让一切变得模糊,我得尽快把这些想法写出来,让人们知道该如何应对,为什么短期内绝不能把AI当成朋友。
Erik Torenberg:我一直很欣赏你的一点是,你能和与你有分歧的人做朋友,也能和多年没联系的人重新建立联结,这种能力很可贵。
Reid Hoffman:是啊,因为友谊的核心是互相成就,有时候关系难免经历波折。
Erik Torenberg:Reid,就到这里结束吧,这个话题说得很好。
Reid Hoffman:非常感谢邀请我上播客,很开心能来,希望我们下次再聊。
原视频:Reid Hoffman on AI, Consciousness, and the Future of Labor
https://youtu.be/brjL6iyoEhI?si=yJpSLPpBiH4-7Id-
编译:Zonghang Jiang
