Altman、Brockman十年来首次同台:砍掉Sora不是因为它不够好,第一优先级是Agent

OpenAI 最近很动荡,模型能力被吐槽、多位高管离职,眼瞅着要被 Anthropic 各种超越了。
当然他们也有各种动作,GPT 5.5 据说很快要发布,产品侧 ChatGPT、Atlas、Codex 据说要合体。
也因此,Sam Altman、Greg Brockman 这次一起出席的这期播客,更为值得一看。这也是 OpenAI 成立 10 年来,两位联合创始人,Sam Altman、Greg Brockman,首次在播客中一同接受采访。
在「Core Memory Podcast」上,两人聊了一个多小时,谈到了近期的产品战略调整、最新发布的图像生成模型 ChatGPT Images 2.0,以及 OpenAI 目前的战略优先级。
在对谈中,Sam Altman 提到,「砍掉 Sora 不是因为它不好,是因为它在另一个技术分支上,和 GPT 系列没有统一,使用场景也不在核心路径上。」
OpenAI 现在的三大优先级是:构建极致的 Agent 平台、推出面向所有人的 Codex、以及实现 Personal AGI。
其中,实现 Personal AGI 是 OpenAI 内部现在的目标。「很快会有一个模型真正了解你的所有上下文。它知道你是谁,知道你的生活,知道你在做什么、在乎什么,知道你生活中的人。它能访问你的电脑和浏览器。这将彻底改变使用电脑和使用 AI 的感受。」
此外,Greg Brockman 提到,算力是机会,也是一门生意。「OpenAI 的商业模式极其简单,租或买算力,加利润率卖出去。需求无限,只要有正毛利就能无限扩展。算力对我们来说不是成本中心,是利润中心。」
以下是访谈的精华内容。
Founder Park 正在持续寻找值得被看见的 AI 团队与项目。
我们将通过「AI 产品市集」、内容报道、社群分发等方式,帮你触达早期用户、获得真实反馈,以及建立关键连接。
如果你正在做 AI 相关的事,欢迎和我们聊聊。
01
十年搭档,
分歧才是让我们强大的原因
主持人:你们是 OpenAI 仅剩的两位创始人搭档,我很好奇这十年你们之间的关系是怎么样的?
Brockman: 在一个充满混乱、戏剧性、权力斗争的世界里,有一个拥有完整上下文的人可以依靠,这是 OpenAI 最珍贵的事情之一。
OpenAI 真正意义上的第一个时刻,是 2015 年 7 月那顿晚餐之后。Sam 和我一起开车回城,看着对方说:「我们必须做这件事。」当时大家一直在讨论,现在再创办一个 AGI 实验室是不是太晚了。
Altman: 现在回想起来太荒谬了,我们居然那么担心太晚了。
Brockman: 那顿晚餐的结论是:这件事并不是不可能。而且我们都觉得,这太重要了,必须去做。
我当时没工作,所以第二天就全职投入了。Sam 当时还有正职(Y Combinator 总裁),但我们每天至少打 5 个电话。这种节奏一直保持到现在。每天保持同步,每次两三分钟、五分钟。我们并不总是意见一致,但这恰恰是我们强大的原因。
Sam 会提出一个想法,我会想「也许我们可以换个角度」或者「这跟我们在想的另一件事有什么关系」。我特别欣赏 Sam 的一点是,他总能看到不同想法之间的关联,始终聚焦在大图景上。然后我们一起想办法怎么落地。把宏大愿景和执行连接起来,这是 OpenAI 一直以来最突出的特质。
主持人:十年里,你们在哪些关键问题上产生过最大分歧?
Altman: Greg 做得最好的一件事,就是不断推动聚焦,这是我不太擅长做的。他会问:「这是最重要的事吗?」有时候我想做更多的事,Greg 就会把公司拉回来。这对 OpenAI 非常重要。
Brockman: 反过来说,Sam 在算力上不断提高野心。有时候我觉得我们已经有这么多大型计算集群了,还在部署中,已经忙不过来了。然后 Sam 说:还要更多。你需要在细节中游泳,但不能被细节淹没。这种平衡是 OpenAI 走到今天的关键。
02
砍掉 Sora,
第一优先级是构建 Agent 平台
主持人:最近 OpenAI 做了很多聚焦和裁撤。什么留下了?什么被砍了?为什么?
Altman: Greg 最近接管了产品和研究整合的工作。他才上任几周,但公司内部的能量和兴奋感是难以置信的。
Brockman: 我们现在清楚地处在向 Agent 转型的时刻。在软件工程领域,过去六个月大家已经感受到了这个变化:从自动补全,到编辑器侧边栏,到现在,你真正需要的是像 Codex 这样的 Agent 管理平台,Agent 处理所有细节和具体代码,人类负责大约 20% 的高层架构决策。
目前,我们的三大优先级是:
第一,构建极致的 Agent 平台。 这是第一优先级。模型已经从「就是产品本身」转变为「产品的一部分」。以前模型上面只有一层很薄的软件,现在是一层很厚的软件,skill、连接器、计算机操作、上下文管理、记忆。这就像我们有了大脑(模型),现在在造身体。两者都很难,必须协同设计。
第二,把 Agent 应用到所有「computer work」上。 我特意用 computer work 而不是「知识工作」,是因为没人觉得自己是「知识工作者」,但每个人都在做大量电脑工作:坐在桌前、弓着背、敲键盘。Codex 不再只是给软件工程师的,而是给所有人的。 而且不只是软件,我们对每一个垂直行业都看到了清晰的路径:法律、金融、写作、做表格、做 PPT,甚至一些机械性的技能。
方法论很明确:跟领域专家合作,生产评估数据,生产训练数据,让 AI 把它强大的领域知识真正应用到这些垂直场景里、积累经验、学会什么叫「做得好」。
第三,Personal AGI。 ChatGPT 现在有 10 亿用户,最终地球上每个人都会想要一个代表自己的 AI,它有你的上下文,你信任它,它不仅仅是你一对一交谈的对象,还能在外面替你做事。比如它知道你喜欢某个音乐人,发现这个人要来你所在的城市,有很便宜的好票,它就直接帮你买了。它知道跟你的信任度已经到了可以直接行动的程度,或者它会说「我不太确定,我还是先问问你」。
主持人:Sora 呢?
Brockman: Sora 是最明显被砍掉的。原因是它在另一棵技术树上,驱动 Sora 的模型跟核心 GPT 系列没有统一,使用场景也不在我们的核心路径上。团队做了很出色的工作,这项技术会以其他方式延续,但它不符合我们接下来 3 到 12 个月要交付的产品矩阵。
主持人:砍掉 Sora 是不是也为了腾出算力?有媒体报道说,它消耗了大量算力。
Brockman: 这个领域里任何成功的东西都会消耗大量算力。但我想说一点:算力对我们来说不是成本中心,是利润中心。当你把算力部署到产品中去的时候。我们的生意其实极其简单,我们租或买算力,然后加上利润率卖出去。只要有正利润率,就能无限扩展,因为需求是无限的。
主持人:但外界报道说你们在缩减 Stargate 的基础设施投入。
Altman: 我不知道这种报道从哪来的。可能某个具体站点只有风冷,对我们不如另一个站点有价值,这种调整是有的。但媒体总想写「缩减」的故事。很快它们又会写「OpenAI 太鲁莽了怎么能花这么多钱」。我们会继续尽最大可能地建设算力。
主持人:自研芯片呢?数据中心硬件还在全力推进吗?
Altman: 对我们的芯片非常兴奋。我们的团队非常出色。
主持人:机器人、浏览器、超级 App 这些呢?
Altman: 超级 App、浏览器,都在继续。社交网络,不做。机器人,距离那个「ChatGPT 时刻」还要一段时间,但方向非常明确。
Brockman:「超级 App」是我们的内部简称,有时候我们跟团队沟通的话传出去,就变成了对外传播,但本意并不相同。它真正的含义是统一的 Agent 基础设施。你会看到 Codex 应用本身的升级,让 Codex 面向所有人。
很多人问我们怎么看 To C 和 To B。答案是:如果按现有的定义,两个我们都非常重视。但这两个词的含义会发生改变和模糊。我们即将释放新一波创业浪潮,小公司能够获得以前不可能的收入规模。这个趋势已经存在一段时间了,只是会急剧加速。这算 To B 还是 To C?都不算。所以我们真正聚焦的是:在所有场景下帮用户达成目标。这是我们看一切的镜头。
主持人:砍掉这么多东西,是因为业务约束了你们的野心?
Altman: 这种说法很奇怪。我不觉得被业务约束了,我觉得是被业务赋能了。正是因为有了这个不可思议的收入引擎,我们才能说服所有人我们需要这么多算力。没有这个收入,没有人会相信我们该拿到这些算力。
03
AI 的能力边界是锯齿状的
主持人:我是做文字出身的,但 AI 的写作到现在还是没有灵魂。这让我忍不住怀疑:LLM 真的能到达你们描述的那个未来吗?
Altman: LLM 能到达那里。但你要把它理解为能力边界是锯齿状的。
Brockman: 你看,就在过去几天,我们的 AI 解决了一个长期悬而未决的数学问题。陶哲轩也在说,这似乎揭示了不同数学领域之间一种此前未被发现的联系。我们开始从这些机器里看到真正的美。
你想想 AlphaGo 的第 37 手,不仅仅是一步深刻的棋,它改变了人们对围棋的理解,甚至让更多人开始下围棋。我们正在构建的东西也会是这样的。
主持人:推理模型和深度研究我承认很惊艳,确实帮我省了大量时间。但写作呢?你们当初承诺过 GPT-5 会写得很好。
Brockman: 从技术上讲,我们的技术分两步。第一步是无监督学习,模型看遍所有公开数据,学会预测下一个词会是什么。第二步是强化学习,模型真正去尝试各种想法,然后根据表现得到正面或负面的信号。不是在惩罚它,就是一个信号。
难点在于「如何评判」。数学和科学有明确的对错,但开放性领域,比如写作,判断的标准要模糊得多。我们正在扩展可以被评分的任务集合,AI 自身也越来越擅长提供这种奖励信号。这些东西其实很多可以追溯到 OpenAI 最初的构想,我们当时就有一幅图景是这么走的。但我承认我们确实还需要更多进展。
在这个领域,不要看当前位置,要看斜率,而且要把它拟合到一条指数曲线上。 我认为我们对如何改进每一个应用场景,都有清晰的路线。
Altman: 这里有一个内在挑战是,你想要的写作风格跟大多数人想要的完全不同。我们必须做一个 10 亿人都觉得好用的模型。我们真正想做的是让个性化好到这种程度,你觉得它是个好作家,另一个生活和需求完全不同的人也觉得它是个好作家。
我们还没有尝试让模型成为「Ashlee Vance 认为的好作家」。我们一直在尝试让它解决全世界最聪明的数学家都解不了的开放问题。
Brockman: 顺便说一下,我们在这个维度上也有新模型即将发布。
主持人:Greg 提到的新图像模型,它能做什么?
Altman: 它能生成极其出色的图像。
主持人:文字渲染也行吗?因为我一直在试着用 AI 做 Core Memory 的周边设计。
Altman:很快,再试试。团队这次做得非常好。
但我想先说一个容易被忽略的事实。ChatGPT 远不是我们做过的最令人印象深刻的技术。在它之前,我们赢了电子游戏竞赛,有了能用一只手解魔方的机器人,做了各种令人惊叹的事。《纽约时报》都报道了,我们觉得自己做得挺棒。但说实话,没有人在意,那些东西没有产生任何实际影响。
然后我们发布了 ChatGPT,一旦人们能亲手感受到它,反应就是:「好吧,我理解了。」编程模型也一样。Greg 说的那个故事就很典型:他一个朋友的姐姐在描述一个她希望有人做出来的 App,朋友一边听一边把她说的话打进 Codex,几小时后把结果给她看,就是她描述的那个东西。她问:「这谁做的?」他说:「你做的。」每个人都会经历这种 aha 时刻。
再说一个更大的现象。当我们把 GPT-4 放进 ChatGPT 的时候,很多我认识的聪明人说:「这就是 AGI 了。不需要更聪明,只要更便宜就行。」现在你回去用 2023 年 3 月版本的 GPT-4,你会觉得:这也太差了。但当时人们觉得问题已经解决了,通过了图灵测试,不可能更好了。
这种模式反复出现:世界觉得你做了一个很棒的东西,已经到头了。然后每个月或每个季度,能力和期望值都以巨大的幅度提升。
而且现在的模型相对于未来还是很笨的,更关键的是,它们对你的生活几乎一无所知。你还在不断地引导它们、哄它们、尝试让它们做你想要的事情。
其实我们已经不远了,很快会有一个模型真正了解你的所有上下文。它知道你是谁,知道你的生活,知道你在做什么、在乎什么,知道你生活中的人。它能访问你的电脑和浏览器。那将彻底改变使用电脑和使用 AI 的感受。
04
在风险升高的过程中,
让产品变得越来越安全
主持人:你们现在谈论安全和对齐的方式,跟 2022、2023 年相比已经完全变了。如果能重来,你们会做什么不同的选择?
Altman: 甚至在谈安全之前,我觉得我们作为技术极客,犯了一个错误:我们总是说「我们要构建超级智能……它会对你很好」,但中间的省略号从来没填上过。
很多人现在的反应是:「好吧,看起来你们确实要造出这个东西了。但我为什么要它?它能给我什么?」行业说的「它会治愈癌症,你会很开心」,显然没有引起共鸣。
我认为人们真正想要的是:繁荣、主体性,以及继续拥有有意义的工作。 我最近看到一篇帖子让我印象深刻,讲的是「逆境的权利」,人们实际上需要挑战,你不想每天都完美、所有事都被代劳。
当我跟学龄期孩子的家长聊天,他们最常问的是「我孩子应该学什么?」但他们真正想问的是:「我的孩子在这个新世界里怎么拥有一个充实的人生?」你可以从经济角度回答,但并不能真正安抚他们。
Brockman: 我们其实有很多视角可以贡献。在 ChatGPT 上,有无数用户告诉我们,他们自己或家人的生命因为 ChatGPT 提供的信息而被挽救。有一个家庭,孩子一直严重头痛,保险公司拒绝给他做 MRI。他们用 ChatGPT 研究症状,据理力争拿到了 MRI 授权。结果发现是脑瘤,及时干预救了命。这个家庭说:「没有 ChatGPT,我们完全不知道该怎么办。」
人们更容易注意到什么在消失,但更难看到的是什么在到来。这是我们越来越意识到需要讲清楚的事情。
Altman: 关于安全,我们以前被这个领域的传统框架裹挟了。我们从来在安全的重要性上没有过分歧,但这个领域与安全的关系一直很扭曲,安全在多大程度上变成了关于权力,而不是真正保障安全?
Greg 在这件事上非常坚定:我们不能落入传统的恐惧框架。我认为 OpenAI 迄今为止最大的贡献之一,就是找到了一种不同的方式来谈论安全,不仅仅是构建产品和部署产品的方式,还有「迭代部署」的整个理念:在风险逐步升高的过程中,让产品变得越来越安全。Greg 在巨大的压力下坚守了这条线,这对我们的整个战略都至关重要,不仅是我们怎么说,更多是我们怎么构建和发布产品。
Brockman: 你看 OpenAI 基金会,也就是管理 OpenAI 的非营利机构,它的核心支柱之一叫「AI 韧性」(AI resilience)。这个词的真正含义是:怎么让 AI 成为对世界有正面意义的东西。答案不是某一个单点干预,不是说你有了思维链监控就算完成使命了。它必须是一整套深层的、社会层面的调整,是整个世界围绕这项技术的重新定位。
这个视角在我们十年前刚开始的时候完全不被理解。很容易掉进一个思维陷阱:我们是技术人员,在造技术,技术就是唯一需要解决的问题。但你不可能靠一篇论文就解决「AGI 对世界有利」这个问题。这必须是一个全球性的努力,来自社会各方的贡献。
我们花了大量时间去做第一性原理思考:怎样才能把变革性的技术以真正帮助人们日常生活的方式交付出去?你会意识到一个道理,如果你手里有一项非常强大的、会改变世界的技术,那么在此之前先用一项不那么强大的技术,已经帮世界做出了正面改变,事情大概率会顺利得多。 一旦你这样想,你就会自然而然地走向韧性思维、走向迭代部署。
Brockman: 回头看,早期的恐惧叙事跟我们当时设想的技术路线有关。2017、2018 年,我们脑中构建 AGI 的画面是竞争式多智能体模拟,想象一座岛上有一千个 Agent,它们互相战斗、争夺生存和复制权。你可以想象,如果往里面砸足够多的算力,也许能产出某种非常聪明的东西。但那个东西不会与人类价值观有任何联系。你甚至需要一个额外的步骤来搞清楚怎么跟它对话,它没有语言概念,没有任何与我们现实世界的连接,只是「聪明且强大」。那是一个非常可怕的系统。你的出发点就是试图弄清楚怎么可能对齐它。
但后来我们走上了语言模型路线,这条路线扎根于人类价值观,扎根于对人类的理解。我们有思维链可以监控,如果技术方向正确,你有可能让它「忠实地」反映 AI 真正的内部推理过程。这是一条完全不同的技术路径,也是一条乐观得多的路径。
Brockman: 再说一件事来说明我们为什么对现在的方向这么兴奋。
我们曾经有一个 20 人的团队,花两周时间、大量算力,专门训练模型去参加计算竞赛,拿了铜牌。而现在,有人随手用 GPT-5.4 Pro 指向一个问题,就解决了 Erdős 猜想。
如果你把同样的能力指向药物发现呢?如果你真的把那 20 个人和所有算力投入到科学发现呢?现在没有人在为这种可能性定价。
所以当人们问「你们砍掉了 Sora 去做什么」,答案是我们在抓住这个 Agent 的时刻,同时为更强大的模型铺路。我们不仅要做几个标杆 Agent,Codex 就是其中之一,还要建生态,如果你是开发者,你应该能构建自己的 Agent,用在你关心的特定问题上。
05
AI 本质上是机会,
但前提是你得有访问权
主持人:即使一切顺利,最聪明的人开发出这些技术,感觉它还是会不成比例地让少数人受益。虽然每个人可能都会被抬升一点,但差距只会更极端。
Altman: 那用不那么官方的表述,说下我能看到几种未来。第一种:地板会大幅抬升,每个人主观上觉得自己富了 10 倍,物质极大丰裕。但同时,那些真正学会使用 Agent、有大量算力的人,我们会出现万亿富翁,也许 10 个。所以地板大幅上升,但因为这是一个人可以真正利用的杠杆,不平等也变得更严重。
第二种:通过各种手段,地板没上升那么多,但不平等也没那么大。也许十年后人们觉得自己富了 2 倍,但基尼系数下来了。
我和 Greg 觉得人们显然应该更想要第一种。但在情感上,很多人不在那个位置。
主持人:前几天我们吃饭,你描述自己怎么用 Agent 工作,我说实话,有点被吓到了。我突然意识到:会有一批人因此变成某种意义上的「超级人类」。这种感觉让我很不安。
Altman: 他们真正恐惧的是:如果我们放任不平等,这个工具的复利效应是我们还不理解的。
但不管选哪种未来,有一点应该是所有人的共识:需要更多算力、更多基础设施,以及尽可能便宜的 AI 访问。否则就是在加剧不平等,如果 AI 是有限资源,价格被供需推高,只有富人能用。
Brockman: 我想在 Sam 说的基础上延伸。他列了两个选项,但我当时的反应是:这就是仅有的两个选项吗?有没有我们没看到的第三条路?
Sam 最后说的那一点恰恰是解锁思路的关键,AI 本质上是机会。 但前提是你有访问权。如果你没有算力,再擅长使用 Agent 也没用。
OpenAI 基金会(OpenAI Foundation)持有公司大约 25% 到 30% 的股权,价值超过 1500 亿美元。如果 OpenAI 成功,所有这些价值都锁在非营利架构里,用于造福世界。
我那一代人用电脑比父母强太多了,因为我们是「数字原住民」。而现在正在成长的这一代人使用 Agent 的能力会比我强 10 倍。
06
在编程领域,
确实比 Anthropic 慢了一步
主持人:有些模型现在被认为太强大了,只对特定公司开放。Claude 和 Mythos 引起了很大争议。你们怎么看?
Altman: 世界上一直有人想把 AI 控制在少数人手里。你可以用很多方式为此辩护,其中一些是真实的安全考量。但如果你真正想要的是「我们需要控制 AI,只有我们是值得信任的人」,那么恐惧营销大概是为此辩护最有效的方式。
这种营销本质上是在说:「我们造了一颗炸弹,马上要扔到你头上。花 1 亿美元我们卖你一个防空洞。你需要买,但前提是我们选中你做客户。」
这并不意味着每种情况下都没有合理性。但我们一直在网络安全方面有应对框架,一直在构建缓解措施,如何发布、如何通过「可信访问计划」分层部署、如何把更强的模型逐步交到所有人手里。
主持人:在编程这个维度上,你们跟 Anthropic 的竞争怎么样?
Brockman:竞争确实帮我们看清了一些东西。在编程方面有一个例子,我们在「真实世界代码」上起步比 Anthropic 慢了。我们一直在编程竞赛的抽象指标上拿最高分,但把模型应用到混乱的真实代码库、真实世界数据上,这是 Anthropic 比我们早认识到的。但这也反过来提升了我们的执行力,现在 Codex 对比 Claude,我们在很多维度上已经领先了。
主持人:你觉得 Mythos 就是营销吗?
Altman: 我相信它在网络安全方面是个好模型。但 Anthropic 的应对框架里之前并没有网络安全这个类别。我们有,而且我们对如何把这类能力部署到世界有一套我们有信心的方案。
主持人:早年微软对抗所有人,那时候也有口水仗和阵营之争。但现在 AI 这些太多东西跟你、Elon、Zuck、Dario、Demis 这些人的个性和恩怨纠缠在一起,简直是莎士比亚式的大戏。我们怎么走出来?
Altman: 某些参与者只相信自己能做对这件事。因为他们觉得赌注是无限的,而且出于各种原因,他们不认为其他任何人能做对,或者他们不想让其他人做。这导致了一些非常有害的行为。我们无法控制别人的行为,但我们会继续倡导:这必须是人类的集体项目,而不是某一个人或某一种意识形态的胜利。
主持人:你觉得 Anthropic 在与美国联邦政府的公开冲突事件中,受到公平对待了吗?
Altman: 没有。虽然各方都有不好的行为,但我不认为 Anthropic 被公平对待了。
用国防生产法(DPA)来威胁、动用供应链风险认定,这不是我们的政府和 AI 行业应该有的关系。我们非常重视支持美国政府,而且随着模型越来越强大,这会越来越重要。但我也不认为实验室应该说「我们有超级武器,但不跟你合作来保卫国家」。我看不到任何好的未来,是领先的 AI 实验室不协助美国政府的。如果我们真的相信自己说的那些关于模型未来走向的话,我确实相信,那么政府需要我们的帮助,而我们也很荣幸能提供这种帮助。
OpenAI 一直试图保持温和、中立、理性。这也是我们在与美国政府关系中努力做到的事。
主持人:现在几家头部的 AI 公司都有可能到达 AGI,你最希望哪家先实现?
Brockman: 关键不在于谁先到达。缺失的那一环是:怎么帮助人们真正理解这项技术能为他们做什么。
每一家公司都可以为此做贡献。这也是所有试图创造这项技术的人的责任, 不仅要展示技术的能力,还要展示人们为什么应该想要它、为什么应该保护和捍卫创造它的权利。为什么这对你个人、你的未来、你孩子的未来都是好事?这是我们每天醒来就在想的事情,我觉得说「每天」不算夸张。如果其他人也想为此贡献, 越多越好。
07
OpenAI 的内部目标,
是实现 Personal AGI
Brockman: 我觉得我们在 OpenAI 面临的最大技术挑战之一,是机会太多了。AI 是一个无边界的机会场。不管你在哪个维度上扩展,都会有前所未有的、令人惊叹的东西出现。所以关键是有一个清晰的愿景, 我们到底要聚焦在哪里,才能获得最大的回报和最大的收益。
想想你现在花多少时间跟 ChatGPT 解释上下文。就好像你有个同事,你得不停地跟他解释:「不是,我想要的是这个,情况是这样的。」这不是这些系统应该有的交互方式。
我们内部开始把目标称为「Personal AGI」。 一个真正了解你、拥有你的上下文、你可以信任的 AI。你问它关于理财或健康的问题,它能给出可靠的信息。
说一个我自己的故事。我的祖母患有阿尔茨海默症。那段时间对所有人来说都很艰难。但有一件事深深触动了我,她能用 Alexa 播放音乐,而且还记得歌词,能跟着唱。她通过技术与自己的身份保持了连接。如果你能构建足够直觉化的界面,让任何人都能以自己的方式与技术产生连接,而不是被迫去学一堆跟你真正想做的事无关的技术细节,那才是我们要去的方向。
你会发现,一个用于深度电脑工作的 AI 和一个用于个人生活的 AI,在技术层面其实是模糊的。即使你可能想要不同的系统,一个只知道工作上下文,一个只知道私人上下文,它们可以并行推进,建立在同样的技术基础上。
最让我惊叹的是,我们构建的所有这些东西,核心就是一个神经网络。还是深度学习,还是在扩展规模。一个系统,可以应用到所有这些不同的场景。
如果你把镜头快进到终局,你不想要一个「语言模型」,不想要「对话线程」,不想要任何这些技术细节。你想要的就是一个在帮你、代表你行动、知道你的目标、能在工作和生活场景中帮你达成目标的 AGI。这就是我们在做的。
08
回应 Elon Musk 诉讼,
Elon 要绝对控制权
主持人:你怎么看这场即将到来的 Elon Musk 诉讼审判?
Altman: 我其实觉得这是一个机会。如果你看 OpenAI 的历史,每次出现分裂,我们都让对方去讲故事,尽量不说「事实不是那样的」。这次我们别无选择,我们必须为自己辩护,必须讲出真相。
我花了很多时间回顾历史上的各种消息记录。是的,总有些东西可以被断章取义,但那些被挑出来的句子基本上就是对方能找到的「最糟糕」的内容了,看完你只会觉得:就这?而且全是脱离上下文的。
Brockman: 让我讲一下那段从没公开讲过的故事。
当时我们所有人,Sam、Ilya、我、Elon,都同意 OpenAI 必须转型为营利性结构,这是完成使命的唯一路径。然后就是疯狂的谈判。Elon 要多数股权,要当 CEO,要完全控制权。
我们一步步退让。「好吧,不做平等合伙人了。你要这么大的股份?如果你说你需要,我们可以谈。我们希望你参与。」「好吧,Elon 当 CEO。」但到了「绝对控制权」这一步,即使他说以后会稀释、会让出来,我们停下来问自己:我们的使命是什么?我们真的相信不应该有任何一个人掌控整个未来吗?不管这个人是谁?
那是分裂的临界点。那是我们说「不」的原因。
我们从来没讲过这个故事。现在终于要讲了。老实说,我现在唯一担心的是他在开庭前撤诉,让我们没机会把这些全说出来。
主持人:上周发生在你身上的事,科幻小说里写过很多类似的情节,当反对技术进步的力量变得极端时会发生什么?
Altman: 我想它会起起落落,但总体方向是越来越极端。
那是一个疯狂的早晨。第一天我处于肾上腺素休克状态,只是在处理各种后勤。第二天我真正进入了一个抑郁的周期,以后还会有更多这样的事,这让人极度沮丧。这非常可怕。我觉得自己没什么深刻的话好说。末日论的言论没有帮助。某些实验室谈论 OpenAI 的方式也没有帮助。我其实不想搞对立,但我认为 Anthropic 谈论 OpenAI 的方式是有害的。我希望更冷静的时代终究会到来。
说一件事。就在这件事发生的前一天晚上,我跟同事吃饭。他们说「你最近在媒体上确实很艰难,但也算某种意义上的好事吧。」我说:「至少没有人试图杀我。」
然后第二天早上就出事了。
但这确实让很多事情有了不同的视角:只要人们只是说难听话,那其实不算什么大事。你继续往前走就是了。
Brockman: 我想说一件事。就在出事那天,Sam 就在处理那些绝对需要他的事情。他不断地推动使命前进。这种韧性是极端的,我认为被严重低估了。


AI Native的组织架构应该是怎么样的?Block CEO:每家公司都可以压缩成一个agent
对谈CREAO:20人团队、每天上线8个功能,在Pivot产品之前,我们先Pivot了组织
Canva可画联合创始人独家专访:2.65亿用户的Canva,用自研模型,解决了设计的审美问题
一款好的 AI Native 硬件,硬件只是脚手架,真正壁垒一定是 Agent
转载原创文章请添加微信:founderparker
