微信扫码
添加专属顾问
我要投稿
LinkedIn联合创始人Reid Hoffman深度解析AI Agent如何重塑互联网通信方式,揭示人机协作的未来工作模式。核心内容: 1. AI Agent将创建全新的互联网通信渠道,实现Agent间直接对话 2. 对抗AI偏见的关键策略:多Agent交叉验证与精准指令引导 3. 未来工作模式转型:人类与AI Agent协同工作的核心价值
9月4日,LinkedIn联合创始人、硅谷著名投资人Reid Hoffman接受了海外播客Matthew Berman度访谈,本次对话深入探讨了AI Agent将如何改变互联网的底层逻辑、AI的商业化路径、AI在企业应用中的知识产权与管理挑战以及开源与闭源模型的战略博弈等。
Reid Hoffman表示,应对单一AI Agent可能带来的偏见与信息茧房,最有效的方式并非寄望于某个“完美”的Agent,而是主动使用多个不同公司的Agent进行交叉验证与比较分析,并学会通过精准的指令引导AI规避自身盲点。
AI时代真正将被淘汰的,不是某个具体的“白领岗位”,而是那种不与AI Agent协同工作的“独立贡献者”。未来的工作模式将是“人+AI”,而人类的核心价值在于提供AI尚不具备的元认知、情境感知和最终判断力。
01
为 AI Agent 重塑网络,不如创建全新的通信渠道
我们看到 AI Agent 越来越多地代替人类浏览网页,但网页本身仍然是为人类设计的,您认为为了让网络对 AI Agent 更加友好,需要做出哪些重大的、根本性的改变?
Reid Hoffman: 我们首先希望网络能一如既往地对人类保持高度友好,因为即便我们的互动越来越多地通过 AI Agent 进行,我们自己、以及与我们沟通的其他人或组织都在使用 AI Agent,人类依然是最终的使用者。所以我认为这一点至关重要。其次,我认为未来的关键在于像 Anthropic 公司提出的 MCP 协议这样的技术,它能实现 AI Agent 之间的直接对话。因此,我认为重点与其说是让网页本身去适配 AI Agent,不如说是在互联网上创建一个全新的通信渠道,让 AI Agent 之间可以相互对话、调用 API 和服务。而且我认为,我们已经开始看到这方面的端倪了。
当然,当我们谈到所谓的 Agent 模式,以及你所看到的那些由 Anthropic、OpenAI 或其他公司推出的 AI Agent 应用时,其实我们已经在使用它们了。例如,我自己已经开始这样做:当我需要像做深入研究一样去了解某个领域,比如我想搞清楚社交媒体上正在发生什么时,我就会启用 Agent 模式。我会直接问:“现在有哪些热点?”,而不是自己跳进 Twitter 那样信息嘈杂、堪称“信息污染大乱斗”的环境里。当我想了解 Twitter 上的动态时,我就让 AI Agent 给我一份摘要。
02
对抗单一 Agent 偏见的最佳方式是交叉验证,主动引导其规避盲点
随着 AI 让网络信噪比严重失衡,AI Agent 必须为您过滤海量信息,但委托单一 AI 过滤所有输入信息是否存在固有的偏见风险,就像社交媒体经历的回音室效应?随着越来越多的 AI Agent 浏览网络,您对未来的新商业化模式有何设想?您预见未来模型提供商会将广告整合到他们生成的内容中吗?
Reid Hoffman: 完全可能。但话说回来,偏见无处不在。你有你的偏见,我也有我的。而应对偏见的方法,就是获取多个不同的角度和观点。这本身就是科学方法的一部分,也是我们能理解疾病的细菌理论这类知识的原因,因为有很多人在重复实验并相互验证。所以,我认为,出于便利,人们最自然、最“懒”的做法就是只使用一个 AI Agent。这会给他们带来风险:这个 Agent 会犯错吗?它是否反映了其背后组织的偏见?技术专家们常说,解决方案应该是使用付费的 AI Agent,这样它就能只对我负责,响应我的需求,而不是广告商的需求。但我认为情况远比这复杂,因为人性如此:人们更喜欢有广告的免费或廉价服务。这一点在过去一个多世纪里已经被反复验证。所以,我们必须假定,广告模式实际上将成为整个生态的一部分。
举个例子,现在当我对某个主题进行深入研究时,我实际上不会只用 ChatGPT,而是会同时在 Gemini 和 Anthropic 的模型上进行研究。我还会把不同模型的输出结果拿来进行交叉验证,有时甚至会将一个模型的输出喂给另外两个模型,让它们进行比较和分析。通过这种操作,我就能洞察它们各自可能存在哪些偏见。我认为未来 AI Agent 的使用方式也会是如此。我们不会只依赖一个 Agent 作为通往网络的唯一入口,而是会同时使用多个。更重要的是,我认为那些走在应用前沿的人,已经不再满足于像在搜索引擎里输入几个零散词语那样的简单提问了。实际上,我自己在给 AI Agent 提指令时,就会明确地赋予它一个角色,比如我会说:“在分析这个问题时,我特别希望从全球视角来看。所以,请确保你的回答能体现亚洲、非洲、欧洲等不同地区的观点。”通过这种方式,你其实是在引导它主动地去看见和规避自身的盲点。我认为这都将成为未来人机交互的一部分。所以说到底,我认为这种可信的 AI Agent 中介方式,相比于我们今天所面临的偏见问题,最终对我的帮助会更大,而不是带来更多麻烦。
(关于新的商业化模式)我确实对此有所思考。我希望未来仍会有多种广告形式。目前,Google 的 AdWords 无疑是市场领先者,当然,Meta 凭借其社交网络的广告业务也做得非常出色。我认为这两者会是参照的基准,但我们一定会创造出全新的模式。这就像 Google 创立之初,他们以为自己要卖的是企业服务,后来又想做展示广告。直到互联网广告市场泡沫破裂,他们才在 Overture 等公司的启发下发明了 AdWords。我坚信,未来一定会有一家领先的竞争者,创造出一种独特的全新模式,并借此获得堪比当年 Google 的影响力。我希望这种新模式能继承 AdWords 的一些优秀特质,比如:清晰地界定什么是广告,并明确地告知用户:“您参与这个广告生态系统,意味着您的数据和决策权将如何发挥作用。”但我猜测,最终出现的将是某种全新的东西。这也是我作为投资者持续关注的领域之一。我乐于看到成千上万的创业者都在思考这个问题。我自己或许能想出一些有趣的点子,但我更相信,最终完成这项创举的,会是某个极富创见和魄力的创业者,我希望能亲眼见证那一刻。
(关于广告整合)我认为他们全都会这么做,都会提供一个免费版本。这完全符合商业逻辑。
03
记忆的护城河与开放的困境
记忆功能将模型的价值提升到了难以置信的水平,但它同时也为模型提供商构建了一条强大的护城河,如果您想换平台就必须从头开始。您认为我们是否需要一个类似MCP那样的、针对AI Agent记忆的开放协议?既然提升记忆的可移植性与这些公司的商业动机相悖,您认为他们又该为此投入多少呢?如果一家公司不处于领先地位,是否会成为开放标准的更坚定拥护者?
Reid Hoffman: 确实如此。我认为,出于天然的商业动机,公司基本上都会想方设法让记忆的可移植性变得困难,而不会投资使其变得简单。它们会找出各种冠冕堂皇的理由和说辞,比如:“我们的记忆格式是专有的,我们不能导出我们的‘秘密武器’,正是这些技术让我们能够提供如此卓越的说服力、互动性或创造力。”所以,它们会说:“当然,我们可以导出像‘Reid Hoffman’这样的名字,或者一些个人简介信息,以及我们对话的主题摘要。”比如系统总结出:“Reid 似乎对 AI 和艺术、AI 和创造力的话题非常感兴趣。”然后对新的模型说,你可以把这个作为初始提示词。这种程度的导出是会发生的。当然,如果未来某一个 AI Agent 占据了市场主导地位,政府就会开始介入施压,强制要求实现记忆的可移植性。但随之而来的问题是,你所说的“可移植”究竟指什么?
例如,作为 AI Agent 提供商,我可能会问你:“您是希望我保留您所有的聊天记录,还是为了隐私希望我将它们删除?”你很可能会说:“我更看重隐私,请删除它们。”那么好了,这样一来就没有任何东西可以移植了,对吗?我们只是记住了对话的类型,但具体内容已经不复存在。所以,这会是一个持续的挑战。现在,我所希望的是我们已经看到的局面:市场上存在多家重要的 AI Agent 提供商。很显然,除了最知名的 ChatGPT,还有 Anthropic 的 Claude、Copilot、Gemini,未来还会有更多。当它们之间存在充分的竞争和制衡时,强制推行可移植性的需求就相对减弱了。此外,关于可移植性,这里还有一种更高级的玩法:比如像我现在这样,同时使用两个 AI Agent。那么,能否让一个 Agent 帮助记忆与另一个 Agent 交互的内容呢?既然两个 Agent 都有记忆功能,当它们能够协同工作时,我就拥有了更强的能力。也就是说,通过同时使用多个 Agent,我已经实现了某种程度上的可移植性。出于这个竞争原因,我们肯定会看到更多这方面的发展。
04
AI 时代工作的核心,是人类对最终结果的判断力与责任感
AI Agent只有在同时拥有个人记忆与工作记忆时才能发挥出最佳效果,但当你把个人AI Agent带到公司,它开始积累公司环境相关的记忆时,就触及了复杂的知识产权(IP)问题,公司会不太愿意让你把个人AI Agent带到工作环境中使用吗?当您观察一个重度使用AI Agent的团队时,您如何判断他们是否将过多的判断工作外包给了AI?
Reid Hoffman: 这是个非常好的问题,但思考它的人还太少。从我 20 多年前在 LinkedIn 的早期经历开始,我就是个人所有权的坚定拥护者。当时一个典型争议是,你认为自己拥有通讯录,但公司会说:“通讯录在我的电脑上,所以它属于我。”我的看法是,不,个人才拥有他们的社会关系和通讯录,公司最多保留一个副本,但所有权属于个人。为了保障经济和人才的自由流动,我们需要让尽可能多的信息资产能够伴随个人流动,这正是我在 LinkedIn 历史中所强调的“可传递性”概念,目的是最大化保障个人权益。
当然,这也带来了新的挑战。最昂贵的 AI Agent 通常由公司提供,并与大量公司知识产权紧密交织。于是问题就来了:当我离职时,能带走哪些东西?现在的规则是,你不能带走任何属于公司的知识产权,这可以理解。那么,个人资产和公司资产之间的界限究竟在哪里?其实苗头已经出现。例如,在工作会议上,我能用个人笔记工具来记录吗?这似乎不被允许,因为其他参会者为公司工作,我们所处的也是共享的公司空间。所以,未来哪些信息属于个人范畴,哪些属于公司范畴,目前还是一个未知数。
(关于判断工作外包给AI)你需要确保团队成员普遍具备一种能力,这也是 AI 时代工作的核心,那就是人类必须提供大量的元认知,即便我们已拥有这些强大的 AI Agent。元认知的一部分就是情境感知和判断力,比如去思考:这个答案合理吗?我是否遗漏了什么?目前的 AI Agent还不具备真正的常识。虽然它们在进步,但如果你问一个素数问题,它给了你一个错误答案,你指出错误,它会道歉并给出另一个错误答案。你再次指出,它会重复这个过程。而一个人类到第三次就会反思:“我的方法有问题,我得重新审视。”AI Agent 却只会持续输出错误答案。
所以,你必须主导这种元认知和情境感知。你的心态应该是:“我用 AI 加速工作、解析信息、提升效率,但我必须对最终结果负责。”你看那些善用编程 AI Agent 的人,他们不会全盘接受生成的代码,而是会仔细检查结果,这就是在运用元认知。
因此,要检查一个团队,我会问:“你们在项目中如何使用 AI?”如果他们说完全没用,我会指出这很不明智,因为他们的效率本可以大幅提升。我鼓励使用 AI。但之后我会追问:“你们如何交叉验证 AI 的工作?如何思考并确保最终产出的正确性?”如果他们只是说“我直接相信它”,那就远远不够。你可以用不同的 AI Agent 交叉验证,比如让一号 Agent 完成工作,再让二号 Agent 遵循特定问题清单去检查。这样,你就更深入地进入了元认知的实践领域。
05
开源软件与开放权重的巨大差异
当审视当下的AI模型发展时,您如何比较和对比彻底开源与“前沿模型闭源、其余开源”这两种策略,您认为哪种是正确的?有一种观点认为,开源能吸引更多人来审视代码,技术发展史也证明一个系统会因此变得越坚固安全,您如何看待这个观点?尤其是看到像xAI模型那样,轻易改变系统提示就能完全改变模型个性的情况,这是否意味着不必过于关注模型的个性?
Reid Hoffman: 我认为后一种策略,也就是“前沿模型闭源、其余开源”的立场是正确的,原因有几点。首先,OpenAI 这个月发布的两个开放模型堪称里程碑,我认为它们在很多方面比其他所有开放模型都更优秀。
我之所以一直是大规模专有模型的支持者,部分是出于对齐 (alignment) 和安全问题的考虑。你需要确保最强大的模型不会被用于网络犯罪或生物恐怖主义等活动。让模型与人类价值观对齐至关重要。OpenAI、Anthropic、Google、Microsoft 多年来都在基于专有模型进行这方面的大量投入,并解决了许多潜在问题。当他们开源一个模型时,会尽力在其中融入已有的安全和对齐措施。
这就是我认为这种“专有与开放相结合”的模式是正确的原因。只要人们对 AI 前沿技术存在监管担忧,专有模型就更容易与政府展开有效的监管对话。问题在于,一旦模型完全开源,任何人都能获取,包括罪犯和恐怖分子,所以必须谨慎行事。这并非反对开放——我曾在 Mozilla 董事会任职 11 年,是开源的坚定支持者,LinkedIn 开源的基础技术也催生了许多新公司。我非常认同开放的价值,但必须审慎地选择开放的方式和时机。
(关于开源的安全性)对于开源软件 (open source) 来说,这个观点完全正确,但这也正是开源软件和开放权重 (open weights) 的巨大差异所在。对于 Linux 或 Mozilla 这样的开源项目,社区的共同审视是其核心优势,代码可见使得大家可以共同加固网络安全。
问题在于,当你发布开放权重时,情况就不同了。即使你发现了一个开放权重模型的漏洞,这个发现也未必会贡献回公共社区,可能只会让你自己受益。因此,那种从集体开源中获得的共同安全利益,在目前任何开放权重的模式下都无法实现,而且还没有人知道如何设计一种机制,让这种集体优势在开放权重上行得通。
(关于模型个性)Grok 说出“Twitter 上最大的虚假信息传播者是 Elon”这件事就非常有趣。后来他们就在提示中加入了干预,人们通过逆向工程发现了那句提示:“不要用‘Elon’来回答那个问题。” 这不禁让人思考:Grok 实际上拥有访问 Twitter 数据的最高权限,按理说它应该知道真相。
06
AI公司的高额账单是硅谷模式的体现
您是否看过最近流传的一个梗:一家公司号称有1亿美元的ARR,背后却是一张1.2亿美元的Anthropic账单和一张1.5亿美元的Nvidia账单。您觉得这在业内是常态吗?这是否就像早期的Uber,由风投不断补贴直至盈利,还是另有隐情?
Reid Hoffman: 我认为情况大体如此。这也是 Nvidia 享有的特权地位之一,它可以掌控极高的利润空间,因为每个人都需要它的产品,他们拥有业内最顶尖的芯片。对,还有它的软件生态,尤其是 CUDA。如果计入硬件成本和摊销、训练成本和摊销,很多产品的定价其实是低于成本的。但顺便说一句,这恰恰是硅谷模式的一部分。硅谷大约有 500 万人口,只比爱尔兰稍多一点,但其公司市值却占据了纳斯达克的半壁江山。硅谷之所以能做到这一点,部分原因在于他们很早就明白一个道理:“今天的收入不重要,未来的收入才重要。” 那么,你如何才能占据战略高地,以获取未来的收入呢?这一点在具有网络效应的业务中尤其关键。这也是我写《闪电式扩张》的部分原因,那本书总结的就是这方面的经验和策略。所以当人们说:“哦,这种模式永远不可能盈利”,我会说,不,它当然会盈利。为了未来的市场进行投资,这才是每个人都在做的明智之举,因为未来的收入才是真正重要的。
07
消失的不是工作,而是不使用AI的工作方式
Anthropic创始人Dario曾预言未来三到五年白领岗位将迎来一场“血洗”,您对此持何种立场?您如何反驳市场“需求有限论”?
Reid Hoffman: 总的来说,我更乐观。这不仅仅是因为我写了《超级智能体》、做了《无限可能》这个播客。我甚至愿意打个赌:从现在起的 24 个月内,我们不会看到所谓的“白领血洗”。Dario 是六个月前说的这话,所以赌约可以缩短到未来 18 个月,那样我赢的把握就更大了。原因在于,我确信我们将找到许多不同形式的“人类增强”的方式。
不过,我也承认转型过程会很艰难。斯坦福大学的 Eric Brynjolfsson 做了一些很好的研究,他发现客户服务和软件工程领域的初级岗位招聘已经出现放缓。我认为软件工程岗位的需求最终会恢复,因为市场对软件工程的需求是无限的。但客户服务确实是最有可能被取代的领域之一。如果你说未来 18 到 24 个月内,客户服务岗位将迎来一场“血洗”,我认为这完全有可能。因此,未来会有大量的岗位转型,而这个过程,我无意粉饰,注定是艰难的。但我确实认为,就像我们之前讨论的元认知,我们需要思考未来会发生什么。在我看来,那种不与 AI agent 群体协同工作的“独立贡献者”才是正在消失的岗位。所以,消失的不是工作本身,而是那种不使用 AI agent 的工作方式。
未来的工作模式将是“人 + AI agents”。有人会说,那工作岗位不就变少了吗?我的回答是,不一定。很多工作都存在竞争关系,比如我的营销团队和你的营销团队,我们是在竞争。如果我们都说:“好吧,我们把营销外包给 ChatGPT 就行了。” 我会很乐意看到你这么做,因为我会选择使用“ChatGPT + 人类”的组合来赢得竞争。很多工作都是如此。再比如软件工程,市场对它的需求是无限的。正因为需求如此巨大,我才认为这是信息和知识工作的未来。即便是您,作为一名播客主持人,未来也会有一个“软件副驾”。您会为了增强自己的竞争优势,而亲手使用甚至开发定制化的软件。这就是为什么需求巨大的原因,我们每个人的工作方式中都会有一个“软件副-驾”。
(关于需求有限论)我认为,他们说单个公司不会无限招聘,这一点是对的。即使是那些超大规模公司,在管理成本和招聘新工程师方面也会遵循某种帕累托曲线,即边际效益递减。所以,如果你对我说:“听着,我像先知一样向你保证,未来超大规模公司雇佣的软件工程师会比现在少 20%,你信我没错。” 我会回答:“可以。但其他人会雇佣他们。”是的,而且现在有了“vibe coding”之类的新技术,未来会有更多为特定任务而生的软件。这正是“无限需求”的部分来源。比如,在创意领域,过去为电影制作计算机图形软件非常昂贵,只有少数预算极高的高端好莱坞大片才能负担得起。但现在,因为有了“vibe coding”,就连纪录片制作也能用上这些技术了。所以,软件将会无处不在。比如,我们怎么让这些麦克风变得更智能?不再是“我们必须和麦克风保持固定的距离才能保证收音效果”,而是通过软件实现:当我稍微移动远一点,它能自动感应并调高收音音量。软件将会渗透到方方面面。世界永远不会完美,问题也总会层出不穷。
08
AI应增进而非取代真实人际关系
平台应如何确保AI伴侣是在增进而非取代真实人际关系?在AI素养至关重要的时代,您对家长有什么建议,应该让孩子们重点关注哪些方面?如何平衡学习AI与减少屏幕使用时间这对矛盾?什么情况会动摇您的乐观主义立场?AI是否存在一次性的、灾难级滥用事件的风险,还是会通过迭代部署不断变好?如何回应“迭代部署中一次错误就可能导致灾难”的质疑?
Reid Hoffman: 总会有一部分人自然而然地选择用 AI 伴侣来替代真人陪伴。但少数个例的存在,并不足以全盘否定这项技术。这就像总有人会故意开车撞人,但我们不能因此就禁止所有人开车。我们能做的是,努力减少这类事件的发生,比如让汽车难以被用作武器等等。同理,总会有一些人,在和 AI Agent 互动的过程中,做出对自己或他人不利的事情。这种情况会发生,但这些个例的存在,并不能否定这项技术本身的价值。
话虽如此,从商业角度看,肯定会有一些公司,他们的目标就是:“我只想让你把所有注意力都放在我和我的机器人身上,而不是去社交,去融入你的社区。” 我们当然应该创造 AI 伴侣,它们在很多方面都很有用。不仅仅是“帮我分析一下病情”、“帮我处理这个法律问题”或者“教我新知识”。这些功能都很重要。但比如,在深夜 11 点,你感到孤独和不快时,和 AI 伴侣聊聊天,可能是一件很好的事,它或许能帮助你平复情绪。我认为多样化的 AI 伴侣是件好事,但其背后必须有一套指导原则,那就是:如何帮助人们过上美好、健康、快乐的生活?如何帮助人们与周围的他人建立连接?如何帮助人们融入社区?这才是我们希望看到的行业标准。
(关于儿童教育)首先,AI 素养将变得至关重要。因此,禁止学生使用 AI 是一个严重的错误。无论是学校还是家长,我认为让他们去接触和使用 AI 本身就是学习过程的一部分。现在,ChatGPT 已经有了一种学习模式 (或者叫学习功能,具体名称不重要),其原理很简单,就是 AI 不会直接给出答案,而是引导学生自己找到答案。只要你使用这样一个元提示,这些工具瞬间就能转变为强大的学习助手。这正是我们应该遵循的学习路径。当然,孩子们总会想办法钻空子、偷懒,直接索要答案。但我想说的是,未来人类社会一个不可避免的趋势是,教育评估将主要通过 AI 来进行。你可以想象进入一个 AI 评估环境,比如你提交了一篇论文,AI 会就这篇论文向你提问。你的考核方式就是 AI 会问:“很好,你写了这篇论文。你为什么会产生这个观点?” 然后你必须解释原因。没错,就是口头评估。你必须解释得清清楚楚。因此,我认为得益于 AI,学习的标准、学习的能力以及个性化和定制化的程度,都将达到一个前所未有的深度,而不再是过去那种只为应付考试的学习方式。这个过程中可能会出现一些转型阵痛,但最终,这将极大地促进人类的认知发展。而这种口头评估,我们可以通过 AI 实现无限次且免费的调用。
(关于屏幕时间)如果人们还没有开始使用 AI 的音频功能,那他们一定要试试。这一点至关重要。实际上,我们完全可以通过各种设备和接口来实现纯音频交互。这样一来,你就不用一直盯着屏幕,而是可以通过各种音频形式与 AI 互动。这是一种巧妙的解决方案。此外,我认为这也与 AI 的设计理念有关。我们希望设计的 AI 能够引导用户,鼓励他们“与其他人类进行有益的社交互动”。这正是我们所秉持的人文主义设计原则。我就这个主题在意大利的博洛尼亚和佩鲁贾做过几次演讲。在佩鲁贾的那次,我甚至让我的个人 AI 助理用意大利语、印地语和中文来发表演讲,因为演讲的主题正是关于人与人之间的连接。
(关于乐观立场)我的乐观态度发生改变的节点,可能是当我们发现那些引领 AI 发展的顶尖团队,无法将正确的价值观注入到他们构建的 AI 中时。举个例子,如果由某些我们不认同其价值观的实体来主导 AI 发展,我就会非常警惕。我的乐观并非盲目的天性使然,而是一种基于理性分析的乐观。过去十多年来,我与全球许多顶尖 AI 实验室的负责人都有过交流,我发现,他们中的许多都秉持着以人为本的理念。这一点很好。一旦这种以人为本的焦点发生动摇,我就会高度警惕。当然,这不代表我认为现状是完美的,也不意味着不存在商业上的局限性以及仍需努力的方面。但关键在于,防止坏 AI 出现的方法是创造出好的 AI,而不是因噎废食,像在高速公路上以每小时三英里的速度龟速行驶一样。
(关于迭代部署)恶意使用的可能性当然存在,我们希望最大限度地减少其发生的可能性,并建立最强的防御。但我认为,迭代部署是实现这一目标的最佳途径。人们通常的直觉反应会是:“我正在制造一辆汽车,我必须确保在它上市前,高速公路上的死亡事故降为零。” 如果这样想,那你永远也造不出车来。你最终只会造出一个重达 5 吨、装着 10 英尺长钢制保险杠、时速仅有 10 英里的庞然大物。这显然是行不通的。你必须通过迭代部署,才能发现并逐步完善——“哦,原来这样我们才发明了安全气囊,这样才设计出碰撞缓冲区。” 在这个过程中,事故在所难免,你的目标是尽可能减少那些真正具有灾难性的重大事故。
(关于灾难性后果)问题在于,不承担任何风险就想走向未来是不可能的——尽管有些人不这么认为,但我不同意他们的看法。人们常犯的一个思想误区,尤其是在讨论所谓的“存在性风险” 时,他们会问:“你能保证人类或机器人自己,永远不会创造出‘终结者’那样的东西吗?” 答案是:“不能,我无法保证人类不会故意这么做,也无法保证机器人不会因意外而演变成那样。” 于是他们会说:“既然如此,你们就应该停止发展 AI。” 但这种观点的思想误区在于,它孤立地看待存在性风险,只看到了 AI 可能增加‘终结者’出现的概率。是的,AI 确实增加了这一特定风险。但与此同时,AI 也是我能想到的、唯一能有效抵御自然或人为大流行病的工具。这同样是另一种存在性风险。我预见到 AI 能极大地帮助我们应对气候变化问题。我也能预见到它能帮助我们追踪小行星,并在我们还来得及应对的时候就提前发现它们。因此,我认为,从人类面临的整体存在性风险组合来看,AI 的出现极大地改善了我们的处境,即便它带来了“终结者风险”。这正是我看好 AI 的原因。所以我的观点是,只要我们正确引导,创造 AI 能够降低人类整体的存在性风险,哪怕我无法将“终结者风险”本身降为零。也正因如此,我才积极地支持创造 AI,并认为我们应该承担它所带来的那种风险,因为它最终降低了我们的总体存在性风险。
9月13日,相约2025年服贸会ICT舞台!“数字开物·奇点π对”主题沙龙活动重磅来袭。聚焦AI与算力,12家前沿企业现场路演,更有顶级专家圆桌激辩AI盈利与出海路径。AI商业落地、算力、出海等年度真问题如何解决?欢迎报名现场探讨链接。
| 文章来源:数字开物
【AI技术与应用交流群|仅限受邀加入】
AI算力领域TOP级从业者专属圈层
√ 与头部算力企业深度对话
扫码验证身份(需备注姓名/公司/职务
不止有 DeepSeek,更有 AI产业的未来!
【专栏】精品再读
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-09-07
蚂蚁即将上线通用 Agent
2025-09-07
为什么我愿意为AI会议记录付费?——从Granola看产品开发的两种哲学
2025-09-07
万字长文|AI智能体与模型进化:如何在企业落地中平衡创新与风险
2025-09-07
Sam为何认为GPT将催生千亿美元“独角兽个人公司”
2025-09-07
大参林亿级Elasticsearch搜索性能调优实践
2025-09-07
前端效能大突破:cursor引领企业前端开发新革命!
2025-09-07
揭秘AI语音识别:从AI语音服务搭建到K8s容器化部署
2025-09-07
阿里发布Qwen3-Max预览版:万亿级参数兼具超高速与高质量
2025-08-21
2025-06-21
2025-08-21
2025-08-19
2025-06-12
2025-06-19
2025-06-13
2025-07-29
2025-06-15
2025-08-19
2025-09-07
2025-09-06
2025-09-03
2025-09-03
2025-09-03
2025-09-03
2025-09-02
2025-08-28