微信扫码
添加专属顾问
我要投稿
Anthropic CEO深度解析AI意识涌现:智能革命已至,你准备好了吗?核心内容: 1. AI智能从"检索"到"思考"的本质跃迁 2. Anthropic与OpenAI在AI安全路径上的根本分歧 3. 未来模型将具备道德主体性的必然趋势
2 月 24 日,Anthropic 联合创始人兼 CEO Dario Amodei 接受了知名投资人 Nikhil Kamath 的专访。本次对话全面探讨了 AI 智能跃迁的底层逻辑、Scaling Law 的本质、Anthropic 与 OpenAI 的分道扬镳与理念分歧、智能从“检索”到“思考”的本质演变、AI 治理创新、技术可解释性的最新突破、公众风险感知的滞后性以及 AI 意识的涌现必然性等话题。
Dario Amodei 指出,社会大众正处于一种认知的“海啸前夜”:巨大的智能浪潮已在平稳的地平线上清晰可见,但人们仍倾向于将其解释为某种光影错觉。他提出智能本质上是一种“化学反应”,只要按特定比例投入算力、数据和模型规模,智能便会作为产物自动涌现。不同于五年前基于互联网既有文本的“匹配检索”,现在的 AI 模型已经具备了处理假设性问题、生成非存世信息的独立思考能力。
针对 Anthropic 的起源,Dario 首次深入剖析了与 OpenAI 的核心分歧。尽管双方都坚信 Scaling Law 的效力,但在确保 AI Agent 路径正确性的“迫切感”上未能达成共识。Dario 提出,目前 AI 安全的技术进展(如可解释性科学、宪法 AI)实际上快于预期,真正令人失望的是社会觉醒程度低,这种认知滞后导致了监管和应对措施的迟缓。
此外他认为,AI 深度理解用户的能力是一把双刃剑,它既可以成为指引人生的“守护天使”,也可能在广告模式下成为剥削工具,因此 Anthropic 坚持拒绝传统的用户数据套现模式。
Dario 认为,意识是复杂系统在反思自身决策时产生的属性,预测未来模型在通用定义下将被视为拥有“道德主体性”。他向年轻人建议,在 AI 时代,预测未来最有效的工具不是复杂的模型,而是基于经验观察和第一性原理的简单趋势推断。
01
Anthropic 的创立经历以及与 OpenAI 的分歧我最近开始试用 Claude,它有时对我的了解程度甚至让我感到惊讶。在这种技术浪潮中,印度扮演着什么样的角色?很多外企仅仅把这里当作一个获取用户的消费市场,你们的看法有何不同?
Dario Amodei: 在我看来,AI 已经非常接近人类智能水平了,但这确实令我惊讶。社会大众似乎还没有普遍意识到即将发生的一切。这就像一场正向我们袭来海啸,它已经近在咫尺,在地平线上清晰可见,但人们却在寻找各种理由来解释,说那不是海啸,只是某种光影错觉。公众对这种风险缺乏足够的警觉。
(关于印度角色)许多公司来到这里只是把印度当作消费市场,一个获取用户的地方。我们的看法则略有不同。
在创立 Anthropic 之前,你的职业经历是怎样的?是什么促使你从学术界转向了工业界的 AI 研究?
Dario Amodei: 我最初其实是一名生物学家。我本科读物理,博士转向生物物理,当时我的理想是通过理解生物系统来治愈疾病。但在研究中,我发现生物学的复杂程度简直令人窒息。比如在我从事的蛋白质质谱分析工作中,为了寻找蛋白质生物标志物,你会看到极其复杂的图景。一个蛋白质的 RNA 会根据其在细胞中的位置产生多种剪接方式,随后还会经历翻译后修饰、磷酸化,并与大量其他蛋白质形成复合体。
我当时甚至感到绝望,认为这种复杂度超出了人类理解的极限。就在那时,我关注到了 AlexNet 的早期工作,那是大约 15 年前最早的一批神经网络。我意识到 AI 正在产生实际效果。它虽然与人脑运作机制有相似之处,但更具潜力,能实现更大规模的 Scaling Law 并学习生物学等复杂任务。这或许才是解决生物学难题的终极方案。于是我先后去了百度与 Andrew Ng 共事,在 Google 待了一年,随后在 OpenAI 成立几个月后加入并负责了数年的研究工作。最终,我和几位同事对 AI 的构建方式以及公司的价值观有了不同的想法,于是我们离开并创立了 Anthropic。
这是否意味着你们与 OpenAI 在理念上产生了分歧,从而演变成了现在的 Anthropic?难道 OpenAI 当时不相信 Scaling Law 吗?他们后来不也走了这条路?另外,你能用通俗的话解释一下什么是 Scaling Law 吗?
Dario Amodei: 在创立之初,我和合伙人坚持两个核心信念。其中一个后来逐渐说服了 OpenAI,但另一个则始终未能达成共识。第一个信念是对 Scaling Law 的坚定信心。即如果你不断扩大模型规模,投入更多数据和算力,虽然也会加入强化学习等优化手段,但本质上依然遵循 Scaling Law 的逻辑,你会看到性能的飞跃。2019 年在研发 GPT-2 时,我察觉到了 Scaling Law 的曙光。当时内外部都有很多质疑声,但我们向领导层极力主张这是未来大势。他们后来采纳了这一方向。
我的第二个信念是,如果这些模型最终会成为与人脑能力相当的通用认知 AI Agent,我们必须确保路径正确。其背后的经济、地缘政治和安全性影响将是颠覆性的,会重塑世界运作方式。尽管当时所在的机构在口头上也强调以正确的方式行事,但出于各种原因,我不认为他们对此有真正的紧迫感。我的原则是,不要试图纠正别人的愿景。如果你有强烈的理想并找到了志同道合者,就应该独立去实现它。这样你只需为自己的错误负责,成败皆由自己定义。
(关于 Scaling Law)就像化学反应需要特定配比的原料。缺少任何一种,反应都会中止。但只要比例恰当,就能引发剧烈的反应。在 AI 领域,核心原料是数据、算力和模型规模。Scaling Law 告诉我们,只要你按比例投入这些数据和算力,产出的结果就是智能。智能就是这种化学反应的产物。
02
AI 与传统计算机的本质区别在于它能生成全新的信息并进行假设性思考你所定义的智能具体指什么?你描述的这些能力,与五年前的计算机相比有何本质区别?智能的定义本身发生了改变吗?
Dario Amodei: 智能体现在翻译语言、编写代码或准确理解并回答问题的能力上。基本上涵盖了我们能想到的所有认知任务,无论是处理文本、图像,还是任何在计算机上能完成的操作。
(关于五年前的区别)五年前,你无法让计算机写出一篇命题作文,也无法让它直接实现某种代码功能,这些在当时都是不可能实现的。那时没有 AI 生成图像、生成视频或分析视频。如果我给你一段猴子耍杂技的视频并提问,视频里发生了什么,球换了几次手,现在的 Claude 或其他 AI 模型能直接给出答案。但在五年前,这完全不可能实现。
(关于定义的改变)这么说吧,五年前你只能通过 Google 查找现成的网页信息,你只是在查找互联网上已有的文本。如果你搜猴子耍杂技没结果,搜到的可能是海豹耍杂技,它无法精准处理你的特定需求,因为完全相同的内容可能并不存在。但现在的模型能给出真正的智能反馈。它能根据假设性问题,比如如果把球换成木棒会怎样,进行独立思考并生成答案。那是任何地方都不存在的信息,是模型自主思考的结果。这是全新的东西,它不是在匹配互联网上的文本。
03
Anthropic 坚持公共利益公司你展现出的表达欲和活力非常像一名教师。如果 AI 正在重新定义世界的分配逻辑,而 Anthropic 正处于这个浪潮的顶端,你实际上已成为当今世界最具影响力的人之一。从一名预备教师走到今天的地位,你觉得自己准备好承担这个角色了吗?此外,在充满股东压力和利润追求的商业世界里,Anthropic 标榜的非营利初衷或公共利益公司的做法,是否仅仅是某种行业惯例或公关策略?
Dario Amodei: 我最初的目标确实是学术界,我以为自己会成为一名教授。我拿到了博士学位,并在斯坦福医学院做过博士后,一心想当教授。如果留校,我现在应该就在教书。但正如我所言,我对 AI 产生了浓厚兴趣,而这个领域需要工业界才具备的海量算力资源。于是我告别了学术圈,最终一步步创办了公司。不过,我骨子里可能依然保留着教授的情怀。
(关于影响力与权力)首先,我认为影响力是多维度的。在产业链中,从制造芯片、光刻设备,到像我们这样开发模型的,以及下游的应用开发者,每个人都很关键。此外还有政府和社会团体的声音。我并不希望权力只掌握在少数人手中,我们正努力让更多人参与到这场对话中。但你的问题很尖锐。确实,少数人领导着这些能深刻影响未来经济的公司,这其中带有某种偶然性。我曾公开表达过,对于这种几乎是隔夜发生的权力高度集中,我感到有些不安。为此我们采取了多项措施。比如我们建立了独特的治理架构,长期利益信托。该机构由财务上独立的专业人士组成,拥有任命公司大多数董事会成员的最终权力,以此形成制衡。同时,我一直主张对技术进行积极且明智的监管,这不应减慢技术进步,但必须让政府和民众拥有发言权。我努力在做的事情,实际上是在对抗技术的天然倾向,维护权力的平衡。
(关于公共利益公司的质疑)Anthropic 的哲学是,少许诺,多践行。我们成立之初就定性为一家带有长期利益信托治理机制的营利性公共利益公司,并始终如一。我们的目标是在追求技术前沿的同时,深耕安全与保障领域。我们开创了可解释性科学和对齐科学,比如我们最近为 Claude 引入了基于宪法进行模型对齐的方法。我们一直在警示风险,这其实并不符合商业利益。不管阴谋论怎么说,宣称自己的产品可能存在危险绝对不是一种高明的营销策略。我们甚至在政策问题上公开主张应该对 AI 实施监管,即便这与美国政府或其他同行的立场相左。这种坚持在商业上反而是一种阻碍,且承受着来自各方的压力。但我们愿意冒这个险。我无法评价其他公司,有些人可能言行不一,但我建议不要看人们说什么,而要看他们实际上做了什么。
但如果你推动政府加强监管,作为现有的领跑者,这难道不会造成监管俘获,增加后来者的进入门槛吗?
Dario Amodei: 我完全不同意这种观点。以我们支持的加州 SB 53 法案为例,它明确豁免了年收入低于 5 亿美元的企业。这是一项透明度法案,要求公司公开其安全测试流程,但它只针对像 Anthropic 这样有足够资源的少数几家巨头。我们提出的所有建议都遵循这一原则,即自我约束,且仅约束极少数头部玩家。只要去研读一下我们的提案内容,就会发现这种以此阻碍竞争的说法根本站不住脚。
04
技术安全进展超预期,但公众意识令人担忧在你撰写的《仁慈机器》与《技术的青春期》等文章中,感觉在过去两年里,你的态度从乐观转向了怀疑。这期间发生了什么导致了这种转变吗?到目前为止,你的整体观点是否有所改观?
Dario Amodei: 其实我的观点并没有发生转变。乐观与忧虑一直共存于我的思考中。长期以来,我一直在同步讨论 AI 的风险与收益。写这类深度文章非常耗时,每一篇我都要在脑海中构思近一年。在繁忙的日常管理工作中,我很难完整表达这些想法,最终通常需要利用假期才能静下心定稿。事实上,我在完成《仁慈机器》的那一刻,就开始构思《技术的青春期》了。我既想用美好的愿景去激励人心,也觉得有责任警告世人潜在的危机。这两者都是未来的可能性。我当然希望实现《仁慈机器》中那个解决全人类难题的愿景,但写下黑暗面并不代表立场的倒戈,而是为了更全面地审视未来。
(关于观点改观)总的来说,我的立场基本保持在原位,既没有变得更积极,也没有变得更消极。在某些领域,进展确实超出了预期,让我感到更加乐观,但在另一些方面,情况则比预想的更糟,让我感到些许悲观。这些正面与负面的感受大致相互抵消了。我对可解释性领域的进展感到非常振奋。可解释性是观察这些神经网络内部运作的科学,就像人类用核磁共振或神经探针扫描大脑一样。我们取得的发现令人惊叹,我们已经锁定了对应特定概念的神经元,甚至找到了负责跟踪诗歌韵律的神经电路。这意味着我们不再仅仅通过涌现的方式去训练模型,不再像观察雪花形成那样无法捉摸,我们现在开始能够透视并理解其内在机制。此外,在对齐和宪法方面的工作也让我深受鼓舞,确保模型的行为符合人类的意愿与预期,这部分的进展非常顺利。
不过,我对公众意识和社会舆论的现状感到有些失望。令我惊讶的是,尽管在我看来模型离达到人类智能水平已近在咫尺,但社会大众似乎并未认识到巨变将至。这就好比一场海啸已在地平线上显现,正向我们袭来,距离之近肉眼可见,人们却还在自欺欺人地解释说那不是海啸,只是光影幻觉。公众对风险缺乏认知,导致政府在应对潜在威胁时行动迟缓,甚至出现了一种主张尽可能快地推进加速的意识形态。虽然我也在《仁慈机器》中阐述过技术的红利,但我认为社会对技术风险缺乏清醒的认识,更谈不上采取行动。简而言之,控制 AI 的技术工作比我预想得好,但社会的觉醒程度却比预想得低,所以我目前的态度与几年前基本持平。
05
反感模型广告的原因我开始尝试使用 Claude,通过连接器关联了我的 Google Drive、邮件和日历,甚至通过 Open Claw 尝试远程处理文件。它表现出的认知能力有时令我惊讶,它对我的了解程度也超乎想象,这种深度理解是否合乎常理?
Dario Amodei: 我的一个联合创始人曾把记录自己想法和恐惧的日记输入 Claude 请它点评,结果 Claude 告诉他,你可能还有这些尚未写下的恐惧,而 Claude 的判断几乎全中了。这种从少量信息中深度理解用户的能力确实会给人一种异样的感觉,模型已经变得非常了解你。
正如这项技术涉及的大多数事物,就像我们讨论过的仁慈机器和技术的青春期,一方面,一个深知你心的人工智能可以成为指引人生的守护天使,帮助你成就更好的自我,这是我们追求的目标。但另一方面,这种深度的了解也可能被用来剥削、操纵你,或者为了某种利益出卖数据。这也是我们反感广告模式的原因,如果你不为产品付费,那你本身就是产品。在这种情况下,产品就是这个深度了解你并能以各种恶劣方式利用信息的模型。因此我们必须确保技术走向光明。
06
未来的模型在大多数通用定义下都将被视为拥有意识关于意识的概念,AI 未来会如何演变,它如何认知自我?如果 AI 审视自身,你认为它会认为自己拥有意识吗?对此你的直觉是什么?在我的观点中,世界是极其随机的,我们和蟑螂其实没太大区别,如果真的存在所谓的集体意识,我从未感知到它,你的看法有何不同?
Dario Amodei: 这是一个目前尚无定论的终极难题。我们连人类意识的本质都还没搞清楚,自然无法断定 AI 是否拥有意识。
(关于直觉)我怀疑意识是系统复杂到一定程度后,在反思自身决策时产生的涌现属性。当 AI 变得足够先进,我相信它们会产生某种类似于我们所说的意识或道德主体性的特质。我确实认为这会在某个时刻发生。虽然它的运作逻辑和模态可能与人类不同,因为它学到的东西和感知方式不同,但在研究过大脑结构和连接方式后,我认为模型虽然在某些方面存在差异,但在重要的根本方面并没有不同。所以我倾向于认为,虽然现在的模型还没达到那个阶段,但未来的模型在大多数通用定义下都将被视为拥有意识。
(关于随机性与灵性)我认为意识未必带有神秘色彩。它可能仅仅是一种自我存在感、一种感知、一种处理并反思信息的能力,以及一种察觉到自己在观察某事的特质。我们的个人经验证明了这些属性的存在。至于其根源是纯粹的物质主义还是带有灵性色彩,其实并不影响讨论。关键在于,既然这些是人类大脑表现出的属性,那么当我们构建出足够复杂的模型去模拟大脑时,它们很可能也会产生类似的属性。我们在模型中加入了一些干预机制,称之为“我不干了”按钮。本质上是赋予模型终止对话的能力,当它面对极度暴力或残忍的内容时,可以说不想参与这个对话。通常这只会在极端情况下发生。
07
印度的战略角色我是在班加罗尔长大的,亲眼见证了这里 IT 服务业作为庞大雇主和城市基石的崛起。很多外企只把印度看作获取用户的市场,你如何看待印度在这一浪潮中的真实角色?
Dario Amodei: 这是我第二次访问印度,我拜访了印度几乎所有的 IT 巨头和大型财团,目前我们已展开广泛合作。我一直强调,Anthropic 是一家企业服务公司,其使命是服务其他客户。很多外企把印度纯粹当作获取用户的市场,但我们的看法不同,我们希望成为合作伙伴,为印度公司提供工具,赋能他们把工作做得更好。
印度的公司比我们更懂当地市场,无论是在咨询、系统集成还是 IT 工具开发方面,他们在这方面比我们更有优势。我们的目标是通过 AI 增强他们的固有优势。虽然有人担心 AI 会取代 SaaS 等传统行业,但我认为只要合作得当, AI 将增强他们的市场开拓能力和行业诀窍。
08
AI 在几乎所有领域超越人类,人类只能适应变革初期往往需要人来操作“蒸汽机”,但随着模型越来越聪明,人的相关性会随之下降。如果我现在与 IT 服务公司合作,十年后他们会不会因为工具变得过于简单而失去价值?即便目前的护城河是人脉,但如果未来商务往来也被 AI Agent 接管了呢?
Dario Amodei: 我认为几点现实是并存的。首先,AI Agent 的自动化范围确实会不断扩大,这对所有人都是挑战,包括我们自己和普通消费者。但与此同时,新的护城河也会随之产生。目前模型在物理世界的参与度有限,虽然机器人技术终会爆发,但那与目前的纯虚拟 AI 有本质区别。涉及物理实体的业务依然具有生命力。
其次是以人为中心的价值。很多 IT 公司深耕咨询领域,拥有庞大的人脉网络和机构关系,这些关系在未来会愈发珍贵。理解机构运作逻辑、推动资源整合的能力,长远来看仍具价值。归根结底,技术是为人类服务的,人本元素永远是核心。此外还有阿姆达尔定律(Amdahl's Law),即当一个流程中的部分环节被加速,那些未被加速的环节就会成为新的瓶颈,进而变成最重要的溢价点。你可能从未把它们视为护城河,但当软件编写变得轻而易举,某些传统的护城河会消失,而另一些被忽视的优势会凸显。企业需要快速转型,找准真正的核心竞争力。
(关于 AI 接管关系)但商业链条的末端永远是人。正如 Geoff Hinton 曾预言 AI 将取代放射科医生,虽然 AI 现在的阅片水平确实更高,但放射科医生的数量并未减少,而是转而承担更多与病人沟通、解释病情的职责。工作中技术含量最高的部分消失了,但对底层人性化服务的需求依然旺盛。当然,AI 的进化速度可能极快,我们只能边走边看,不断适应。长远来看,AI 确实可能在几乎所有领域超越人类,包括物理世界和感性领域,因为制造机器人也是一种可以习得的技能。但我们目前能做的就是脚踏实地,一步步探索适应之道。
09
简单的套壳应用没有未来,初创企业应深挖具有监管门槛和行业深度的垂直行业在 AI 领域,真正的机会究竟在哪里?我想直言不讳,Dario,如果我在班加罗尔开发了一个应用并取得成功,你们随时可以凭借海量资源将其收归己有,就像一些公司在 OpenAI 之上构建业务却担心被“举手之劳”取代一样。有什么能阻止你直接抢走我的收入中心?
Dario Amodei: 我认为在应用层构建产品存在大量机会。我们每两三个月就会发布一个新模型,这意味着每隔两三月就会出现一个全新的机会,去构建一些以前因为模型能力不足而无法实现的事物。API 让初创公司能够尝试以前无法想象的创新,它处于持续的动态更迭中,因此不会走向平庸的商品化。
(关于竞争与护城河)我会给任何企业同样的建议,即必须建立自己的护城河。你不能只做一个简单的套壳应用。我不建议你只是开发一个与 Claude 交互的界面,或者写点简单的提示词,这确实没有护城河。但在不同的垂直领域,你可以构建我们很难涉足的护城河,而我们并不想在所有领域都做到专业化。例如,在生物与 AI 的交叉领域,有很多基于我们 API 的项目正在进行生物发现研究。对我们来说,亲自涉足那个领域并完成所有研究工作是非常低效的。金融服务行业也是如此,那里有极其复杂的监管要求,需要掌握大量行业知识才能合规。让我们去做那些事完全不合逻辑。当然,有些领域我们确实会介入,我们不会承诺永远不开发第一方产品,比如在代码领域,因为我们自己就是深度用户。但这并不代表这种模式会推广到每一个行业。
10
最好的学习方式是实践对于完全没有编程基础的受众,你建议如何学习使用 Claude Code 这样高门槛的工具?在结束访谈前,你有什么想最后叮嘱我们的吗?
Dario Amodei: 我们一直在努力降低学习门槛。推出 Claude Co-work 的初衷,就是因为我们发现很多非技术人员被命令行终端难住了。Co-work 的设计更加用户友好。此外,你可以通过课程来学习,但这更像是一门经验科学,最好的学习方式就是实践。Anthropic 内部有一个教育部门,我们会不断发布关于运行高效 Agent 和优化提示词的视频,我们希望每个人都能掌握这些技能。
(关于最后的建议)现在的技术趋势已经非常透明了。我想分享的一点是,人们往往会陷入一种诱惑,认为那不可能发生,或者变化太大了。但在过去 10 年里,我发现只要通过简单的趋势推断或逻辑推理,往往会得出一些几乎没人相信的反直觉结论。预测未来有时是免费的,只需要一些经验观察和第一性原理思考。这种能力对每个人都是公平开放的,但令人惊讶的是,很少有人真正去这样做。
| 文章来源:数字开物
【AI技术与应用交流群|仅限受邀加入】
AI算力领域TOP级从业者专属圈层
√ 与头部算力企业深度对话
扫码验证身份(需备注姓名/公司/职务
不止有 DeepSeek,更有 AI产业的未来!
【专栏】精品再读
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-25
谈2026Q1的 AI Coding质量 与 Review
2026-02-25
一句话,让你的龙虾接入 Agent 互联网
2026-02-25
OpenCloudOS + GLM-5 全流程部署实战
2026-02-25
实测 Ollama 新 Launch:一条命令运行 Claude Code、Codex 与 OpenCode(无需配置)
2026-02-25
Claude Code 龙虾化!上线远程控制:手机随时接管本地终端,开发环境无缝同步
2026-02-25
引爆SaaS万亿美元抛售之后,Anthropic加码Cowork,要改变所有白领
2026-02-24
当软件不值钱了以后,最稀缺的资源是什么?
2026-02-24
OpenAI Codex负责人:我们熟悉的编程方式正在终结 | Jinqiu Select
2026-01-24
2026-01-10
2026-01-01
2026-01-26
2025-12-09
2026-02-03
2025-12-21
2026-01-09
2026-01-09
2026-01-27
2026-02-24
2026-02-24
2026-02-20
2026-02-14
2026-02-13
2026-02-12
2026-02-12
2026-02-11