2024 年,OpenAI 规划了三场重要的开发者大会(DevDay),分别在 OpenAI 总部的美国旧金山(10 月 1 日)、英国伦敦(10 月 30 日)和新加坡(11 月 21 日)举办。我们可以简单理解为美洲站、欧洲站和亚洲站。随着欧洲站在伦敦的圆满落幕,AI 技术的未来图景变得愈发清晰。
本次开发者大会虽然看起来还是在“画饼”,但仍带来了许多令人印象深刻的现场实机演示环节:一台搭载 o1-mini 的无人机在舞台上完成了从编程到起飞的全过程,展示了 OpenAI 最新模型对复杂设备的实时控制能力;紧接着,开发团队仅用 30 秒就在观众面前完成了一款 iPhone 应用的构建,让全场发出阵阵惊叹:
此外,OpenAI CEO 山姆·阿尔特曼(Sam Altman)也在大会期间接受了 20VC 创始人 Harry Stebbings 的专访。值得一提的是,这一次 Altman 没有像以往一样“打太极”(可以回顾我们往期的许多采访整理),而是真的分享了不少他对 AI 发展的深刻见解,涵盖了从模型演进到企业战略的诸多关键话题。
- 谈及推理能力的重要性:“推理能力是我们目前最重要的关注领域。我认为这将解锁下一个重大的价值创造飞跃。”
- 关于智能体的定义:“你可以交给它一个长期任务,在执行过程中只需要最少的监督。”
- 对于未来定价的畅想:“不是按座位收费,甚至不是按智能体收费,而是基于持续为你工作的计算资源量来定价。”
- 对人才发展的思考:“世界上有很多非常有才华的人,他们没有发挥出全部潜力,因为他们在一个糟糕的公司工作,或者他们生活在一个不支持任何好公司的国家。”
- 对模型商业化的看法:“模型确实是会贬值的资产,这一点毋庸置疑。但说它们不值得投入训练成本,这种观点似乎完全错误。”
- 独有的人才招聘策略:“缺乏经验并不意味着没有价值。”
- AI 革命不应该比喻为互联网,而是比作晶体管:“它具有令人难以置信的扩展性,迅速渗透到了各个领域。如今你使用的产品和服务背后都包含着大量的晶体管技术,但你不会把这些公司看作是’晶体管公司’。”
- 谈及智能体的未来应用:“我认为更有意思的不是人们常说的那种’帮你订餐打电话’的智能体,而是那种像一位聪明的资深同事一样,能与你在项目中真正协作的智能体。”
- 对未来的预测:“社会本身的变化程度可能会出人意料地小。”
明年是 OAI 进军下一代系统的关键之年
主持人:大家好,欢迎来到 OpenAI DevDay。在现场我们收到了众多观众的提问,就让我们从其中一个问题开始。
纵观 OpenAI 的发展路线,未来是会专注于开发更多类似 o1 这样的精简模型,还是会继续追求更大规模的模型?您是如何思考这个技术路线的选择的?
Sam Altman:事实上,我们希望能在各个方面都取得突破,但目前我们特别关注模型的推理能力。我相信,也希望这种推理能力能够帮助我们实现许多长期以来的突破性目标。比如说,这样的模型能够为科学研究做出新的贡献,能够编写更复杂的代码,我相信这些都将推动重大进展。因此你会看到 o 系列模型的快速迭代,这对我们的战略布局来说至关重要。
主持人:关于 OpenAI 的未来规划,还有一个我认为很重要的问题:你们如何看待为非技术背景的创始人开发无代码工具,帮助他们构建和扩展 AI 应用?你们对这个方向有什么思考?
Sam Altman:这个目标一定会实现,但我认为第一步是开发工具来提升已经掌握编程技能的人的生产力。当然,最终我们相信能够提供真正高质量的无代码工具,现在市面上已经出现了一些不错的尝试。但目前你还不能直接向 AI 要求说“我要构建一个完整的创业项目”,这还需要一段时间。
主持人:在目前的技术栈中,OpenAI 处于某个特定位置。OpenAI 会在技术栈中走多远?这是个很好的问题。如果现在有创始人正在投入大量时间调试他们的 RAG 系统,这算不算是在浪费时间?因为从长远来看,OpenAI 可能会开发这部分应用层的功能。对于有这种担忧的创始人,你会如何回应?
Sam Altman:我们通常是这样回答的:我们会全力以赴,而且我们相信能够持续提升模型的能力。如果你现在建立的业务主要是为了弥补当前模型的某些小缺陷,那么假设我们做得对,这些业务在未来可能就变得不那么重要了。
但另一方面,如果你建立的公司能够从模型的持续进步中受益 —— 比如说,如果现在有个预言家告诉你,o4 模型将会变得异常强大,能做到现在看来不可能的事情,而你对此感到振奋,那虽然我们可能会判断错误,但至少这与我们的愿景是一致的。
如果你说“好,这里有很多领域供我选择”,但你选择了其中一个让 o1-review 表现不佳的领域,然后说“我要修补这个问题,勉强让它工作”,那么你其实是在假设模型的下一次迭代不会像我们预期的那么好。
这就是我们试图传达给创业公司的核心理念:我们相信我们正处于一个相当陡峭的进步轨道上,今天模型存在的这些缺陷将会被未来的版本解决。我建议大家要认同这一点。
主持人:对于某些领域,确实存在被 o1 模型“碾压”的可能性。如果站在今天创业者的角度,OpenAI 可能会在哪些领域形成碾压之势,哪些领域则不会?另外,作为投资人,我也想投资那些不会受到冲击的领域。创业者和投资人应该如何思考这个问题?
Sam Altman:利用 AI 构建那些此前难以实现或根本不可能的产品和服务,这将创造出数万亿美元的新市值。确实有一些领域我们会努力参与,那就是让模型变得极其强大,这样你就不用那么费力就能让它们完成你想要的任务。但其他所有的事情,比如在这项新技术之上构建创新的产品和服务,我们认为这只会变得越来越好。
有一件事在早期让我感到惊讶 —— 现在已经不是这种情况了,但在 GPT-3.5 时代,感觉有 95% 的创业公司都在押注模型不会有太大进步。他们在做这些事情的时候,我们已经能看到 GPT-4 即将到来,我们想“天啊,它会变得非常强大,这些问题都将不复存在。”如果你只是在开发工具来规避模型的某个缺陷,这种价值将会越来越小。
我们总是容易忘记几年前的模型有多么原始。从时间跨度来看并不算太久,但当时确实存在很多局限。所以看起来有很多机会可以构建工具来填补这些空白,而不是去打造一个真正出色的 AI 导师、AI 医疗顾问之类的产品。所以我感觉当时 95% 的人在押注模型不会变得更好,只有 5% 的人在押注模型会变得更好。我认为现在这个比例已经完全颠倒过来了。我认为人们已经意识到了这种进步的速度,也听到了我们想要实现的目标。所以这不再是一个问题,但这曾经是我们经常担心的事情,因为我们能预见这将给所有这些非常努力的人带来什么影响。
Sam Altman:我认为即使我们能达到这一预测值的一个零头,那也已经是非常显著的成绩了。确实,这个行业需要巨额的资本投资,同时也将带来巨大的经济收益。历史上每次重大的技术革新都是如此,而 AI 无疑正是一场这样的革命。明年对我们来说将是进军下一代系统的关键之年。关于无代码软件时代的到来时间,我无法给出确切的时间表。但是,我们可以想象一下未来的场景:当每个人都能轻松地描述出他们想要的公司软件系统时,这将带来多大的经济效益。尽管这一目标的实现仍需时日,但如果真的实现了,考虑到目前构建此类系统所需的巨大难度和高昂成本,这将是一个颠覆性的进步。
同样,我也认为在医疗和教育等领域,AI 的应用将以创新的方式推动发展,从而创造出数万亿美元的价值。我不认为具体数字是重点。确实有人在争论是 9 万亿还是 1 万亿或是其他数字。你知道,比我聪明的人也在研究这个问题。但是这里的价值创造潜力确实令人难以置信。
智能体的真正用途:
人类因为带宽限制无法完成的大规模并行任务
主持人:我们待会儿会谈到 AI 智能体,讨论这些价值是如何实现的。就价值传递的机制而言,开源是一种非常重要的方式。你如何看待开源在 AI 未来的角色?当遇到“我们是否应该开源任何模型或某些模”这个问题时,你们内部是如何讨论的?
Sam Altman:在生态系统中,开源模型显然有其重要地位。现在已经有一些非常优秀的开源模型。同时,也需要有精心设计的、集成度高的服务和 API。我认为这些都有其存在的价值,用户会根据自己的需求做出选择。
主持人:作为一种价值传递机制,我们一方面有面向客户的开源方式,另一方面可以通过 AI 智能体。我注意到关于智能体的定义存在很多概念混淆。你是如何定义智能体的?在你看来,什么是智能体,什么不是?
Sam Altman:这只是我的即兴想法,没有深思熟虑过——但在我看来,AI 智能体就是能够接受长期任务,且在执行过程中几乎不需要督导的存在。
主持人:你认为人们对智能体有什么误解?
Sam Altman:更准确地说,我认为我们都还没有对这项技术最终会呈现什么样子形成直观认识。我们都在暗示某些看起来很重要的东西。也许我可以举个例子:当人们谈论 AI 智能体代理时,他们经常给出的典型例子是:“哦,你可以让智能体帮你预订餐厅,它可以使用 OpenTable 或者直接给餐厅打电话。好吧,这确实能帮你省去一些麻烦。” 但我认为,更有意思的是那些人类做不到或不会去做的事情。
假设不是给一家餐厅打电话预订,而是让我的智能体同时联系 300 家餐厅,找出哪家能提供最适合我的餐食或者有什么特别优惠。你可能会说:“让你的智能体骚扰 300 家餐厅,这太过分了。” 但如果接电话的也是智能体,那就完全不是问题了。这可以是一个人类因为带宽限制无法完成的大规模并行任务。这只是一个微不足道的例子,但它说明了人类在处理能力上的局限,而这些限制可能对智能体来说并不存在。
我认为更有意思的不是人们常说的那种“帮你订餐打电话”的智能体,而是那种像一位聪明的资深同事一样,能与你在项目中真正协作的智能体。它可以独立完成一个为期两天或两周的任务,在遇到问题时会来请教你,最终能给你带来高质量的工作成果。
主持人:从根本上说,这是否会改变 SaaS 的定价模式?坦白说,当谈到价值获取时,传统上都是按座位收费,但现在你实际上是在替代劳动力。当 AI 成为企业劳动力的核心组成部分时,你是如何看待未来的定价问题的?
Sam Altman:我只会做一些有趣的推测,因为我们确实还不太确定这个问题。想象这样一个场景:你可以说“我需要一个 GPU、10个 GPU 或者 100个 GPU 持续处理我的任务。” 这不是按座位收费,甚至不是按智能体收费,而是基于持续为你工作的计算资源量来定价。
主持人:我们需要为智能体应用专门构建模型吗?你是怎么看这个问题的?
模型确实是会贬值的资产,但并非不值得投入
主持人:谈到模型,业界普遍认为模型是会贬值的资产,模型的商品化趋势如此明显。你如何看待这种说法?考虑到训练模型所需的资本投入越来越大,我们是否正在看到这种趋势的逆转,因为可能只有极少数机构能够负担得起如此庞大的投入?
Sam Altman:模型确实是会贬值的资产,这一点毋庸置疑。但说它们不值得投入训练成本,这种观点似乎完全错误。更不用说,当你在训练这些模型时会产生一个正向的复合效应,你会在训练下一个模型时变得更加熟练。从模型实际能带来的收入来看,我认为这些投资是值得的。
不过公平地说,这种情况并不适用于所有人。可能现在有太多机构在训练非常相似的模型。如果你在技术上落后,或者你的产品缺乏那些能够保持其粘性和价值的基本商业要素,那么确实可能很难获得投资回报。我们很幸运拥有 ChatGPT 和数亿用户使用我们的模型,所以即使成本很高,我们也能在庞大的用户基础上分摊这些成本。
主持人:你如何看待 OpenAI 模型未来的差异化发展,以及你们最想在哪些方面扩大这种差异化?
Sam Altman:推理能力是我们目前最关注的核心领域。我相信这将开启下一个重大的价值创造飞跃。当然,我们会在多个维度改进模型,包括开展多模态方面的工作,以及在模型中加入其他我们认为对用户极其重要的功能。
主持人:你是如何看待推理能力在多模态领域的应用?这方面有什么挑战,你们想要实现什么目标?
Sam Altman:特别谈到推理能力在多模态中的应用,我希望这会是一个水到渠成的过程。显然,实现这一目标需要付出很多努力。但你看,就像人类一样,在婴儿和幼儿时期,即使语言能力还不够成熟,也已经能够进行相当复杂的视觉推理。所以这显然是可以实现的。
主持人:确实如此。随着 o1 为推理时间设定了新的标准,视觉能力将如何发展?
缺乏经验并不意味着缺乏价值
主持人: OpenAI 是如何在核心推理能力上取得突破的?我们是否需要开始推进强化学习作为一个新方向,或者在 Transformer 架构之外探索其他新技术?
Sam Altman:这里面其实包含两个问题:一个是我们如何做到的,另一个是每个人都很关心的问题 —— Transformer 之后会是什么。关于我们如何做到的,这是我们的特殊秘诀。复制已知可行的东西相对容易,其中一个原因是你已经确信这是可能的。所以在一个研究实验室取得某项突破之后,即使你不完全清楚他们是如何做到的,去复制它也是可行的。你可以在 GPT-4 的复制品中看到这一点,我相信你也会在 o1 的复制品中看到这一点。
最难能可贵的,也是让我最引以为豪的,是我们的文化孕育出了一种能力:持续探索全新且未经验证的领域。很多组织——我不是在说 AI 研究人员,而是一般而言——很多组织都声称自己具备这种能力。但在任何领域,真正能做到的都很少。从某种意义上说,我认为这是推动人类进步最重要的要素之一。这也是为什么我幻想退休后要写一本书,记录下我所学到的关于如何建立这样一个组织和文化的所有经验。
这不是要建立一个只会复制他人成果的组织。因为我认为世界需要更多这样的创新文化。虽然这受限于人才,但现实是有大量人才被浪费了,因为我们都不太擅长建立这种组织风格、文化,或者不管你想怎么称呼它。所以我希望能看到更多这样的尝试。这正是我认为我们最与众不同的地方。
主持人:人才是如何被浪费的?
Sam Altman:这个世界上有太多极具天赋的人,但他们无法充分发挥自己的潜力,可能是因为他们在一个管理不善的公司工作,或者生活在一个缺乏优秀企业的国家,又或者是其他诸多原因。说到 AI 最让我兴奋的一点是,我希望它能帮助我们比现在做得更好,帮助每个人充分发挥自己的潜能,而我们现在离这个目标还很遥远。世界上有很多人,我相信如果他们的人生轨迹稍有不同,本可以成为杰出的 AI 研究员。
主持人:近几年,你经历了令人难以置信的超高速增长。你刚才提到要在退休后写一本书,回顾过去 10 年你在领导力方面的转变,你认为自己最显著的改变是什么?
Sam Altman:对我来说,这几年最不寻常的是事物变化的速度。在一般公司,你有时间经历从零到 1 亿美元收入,从 1 亿到 10 亿,从 10 亿到 100 亿的过程。你不必在短短两年内完成所有这些。而且你也不必同时建立公司。我们必须进行研究,但我们并不是一个传统意义上的硅谷创业公司,你知道,那种在扩张和服务大量客户的公司。不得不这么快地完成这一切,意味着有很多东西我本应该有更多时间去学习,但我没有得到这个机会。
主持人:你希望能有更多时间学习什么?
Sam Altman:我反倒想问问自己——我到底知道些什么?在脑海中浮现的众多例子中,有一个是:要让公司专注于如何实现下一个 10 倍而不是下一个 10% 的增长,这需要多少积极的努力。追求下一个 10% 的增长,基本上就是重复过去行之有效的方法。但要让一个公司从比如说 10 亿美元收入增长到 100 亿美元,需要进行彻底的变革。这不是简单地“让我们这周重复上周的工作”的思维模式。
在一个增长如此迅速以至于人们甚至没有时间掌握基础知识的环境中,我严重低估了保持向前冲刺所需的工作量。这涉及大量的内部沟通工作,关于如何分享信息,如何建立结构,让公司能够每隔 8 个月、12 个月就思考更大规模、更复杂的目标。其中很大一部分是关于规划,如何平衡当下和下个月必须完成的事情,以及为一年或两年后的执行做好准备的长期工作,比如计算资源的构建,甚至是一些看似普通的事情,像在旧金山这样的城市提前规划足够的办公空间,在这种增长速度下都变得异常困难。
所以我认为,要么是没有这样的操作手册,要么是有人掌握着一本秘密手册但没有分享给我。或者可能我们所有人都只是在摸索着前进。但确实有很多东西需要在过程中不断学习。
主持人:硅谷投资人 Keith Rabois 在一次演讲中说,你应该招聘 30 岁以下的年轻人,这是另一位投资大神 Peter Thiel 教给他的,这是建立伟大公司的秘诀。考虑到你退休后要写的这本书和这个建议,我很好奇:通过招聘这些充满热情和雄心的 30 岁以下的年轻人来建立伟大的公司,你对这个说法有什么看法?
Sam Altman:我们创立 OpenAI 的时候我也就 30 岁,或者差不多那个年纪。所以,你看,我自己也不算特别年轻。但看起来效果还不错。
主持人:确实值得一试。那么问题是,你如何看待这个权衡:是招聘极其年轻的 30 岁以下人才,他们带来年轻、活力和雄心,但经验较少,还是招聘那些经验丰富、知道如何做事的人?
Sam Altman:显然,这两类人都能带来成功。就像,我刚才还在给某人发 Slack 消息,谈到我们最近在一个团队招聘了一个人。我不确定他具体多大,但可能二十出头,他的工作表现令人难以置信。我说,“我们能找到更多这样的人吗?这简直太棒了。”我真的很难理解这些年轻人是如何做到这么优秀的。
但这确实会发生。当你能找到这样的人才时,他们会带来令人惊叹的全新视角、能量和其他独特价值。另一方面,当你在设计人类历史上最复杂和最昂贵的计算机系统,或者说各种类型的基础设施时,我不会对刚刚起步的人完全放心,因为风险实在太高了。所以你需要两者都有。我认为真正需要的是在任何年龄段都要坚持极高的人才标准。“我只招年轻人”或“我只招有经验的人”的策略在我看来都是有失偏颇的。
Sam Altman 也怀疑过 Scaling Law
主持人:业界普遍认为 Anthropic 的模型在编程任务上有时表现更出色。这是为什么?你认为这个说法公平吗?开发者在选择使用 OpenAI 还是其他供应商时应该如何权衡?
Sam Altman:确实,他们有一个在编程方面表现出色的模型,这是非常令人印象深刻的工作。我认为开发者在大多数情况下会使用多个模型。我不确定随着我们进入这个更加智能体化的世界,这种格局会如何演变。但我觉得未来会是 AI 无处不在的景象。我们现在谈论和思考它的方式感觉有些不太对。也许用我的话来说,我们会从关注单个模型转向关注整个系统。当然,这需要一定时间。
主持人:谈到模型的扩展,你认为扩展定律(Scaling Law)还能在多少次模型迭代中保持有效?业界普遍认为这不会持续太久,但似乎比人们预期的持续时间更长。
Sam Altman:你真正想问的其实是「模型能力提升的轨迹是否会保持目前这样的势头?」在不透露具体细节的情况下,我相信答案是肯定的,而且这种趋势会持续相当长的时间。
主持人:你有怀疑过这一点吗?
Sam Altman:当然有过。为什么?我们遇到过很多挑战,比如一些我们无法理解的模型行为,一些失败的训练过程,各种各样的问题。当我们接近一个技术范式的尽头,必须寻找下一个突破口时,我们不得不探索新的方向。最困难的是什么?当我们开始研究 GPT-4 时,遇到了一些让我们非常困扰的问题,我们真的不知道该如何解决。我们最终找到了解决方案,但确实有一段时间我们完全不知道该如何构建那个模型。然后在转向 o1 和推理模型的构想时,虽然这是我们很早就热切期待的方向,但这确实是一段漫长而曲折的研究之路。
主持人:在面对这些漫长而曲折的道路,当训练过程可能失败时,保持士气是否困难?你是如何在这些时期维持团队士气的?
Sam Altman:你知道,我们这里有很多人都对构建通用人工智能充满热情,这本身就是一个强大的激励因素。没有人期望这会是一条轻松的、直达成功的道路。有一句历史名言,我可能会引述得不够准确,但其内核是这样的:“我从不祈求上帝站在我这一边,而是祈求我能站在上帝那一边。” 在深度学习领域进行探索就有这样一种感觉 —— 仿佛是在追随某种正确的方向。你只需要坚持,它最终似乎都会有效,尽管在途中会遇到一些重大障碍。对此的深刻信念一直支撑着我们。
主持人:我能问你一个特别的问题吗?我最近听到一句很棒的话:“生活中最沉重的不是铁或金,而是那些未作出的决定。”对你来说,什么样的未决定事项最令你感到沉重?
Sam Altman:这每天都在变化。不是说有一个特别重大的决定。当然,确实有一些重要的决定,比如我们是否要在这个还是那个产品方向上投入,或者我们要用哪种方式构建下一代计算系统。这些都是非常关键的、单向门式的决定,就像其他人一样,我可能推迟它们的时间过长了。但最大的挑战在于日常决策。每天都会遇到一些模棱两可的决定,它们之所以会上报到我这里,正是因为都是些难以权衡的事情。我并不觉得自己特别可能比其他人做得更好,但我还是得做出决定。困扰我的不是某一个特定的决定,而是这些决定的数量。
主持人:当面临这些左右为难的决定时,你会特别倾向于咨询某些人吗?这些人有什么共同特点?
AI 革命不应该比喻为互联网,而是晶体管
主持人:说到艰难的决策,我想谈谈半导体供应链。你现在对半导体供应链的担忧程度如何?
Sam Altman:我不太清楚该如何量化这种担忧。当然是会担心的。这可能不是…好吧,我可以这样说:它不是我最担心的问题,但确实位列所有忧虑的前 10%。
主持人:我能问问你最担心的是什么吗?我觉得问这个问题已经超出了会惹麻烦的程度。
Sam Altman:这关系到我们整个领域正在尝试做的事情的普遍复杂性。这感觉像是一个……我认为最终一切都会没问题,但确实是一个极其复杂的系统。而且,这种复杂性现在在每个层面都呈现出疯狂的状态。你可以说这种情况在 OpenAI 内部也存在,在任何一个团队内部也是如此。
举个例子,既然你刚才谈到半导体:你必须在电力供应、网络架构决策、及时获取足够芯片等方面取得平衡,还要考虑可能出现的各种风险,同时确保研究进度能够及时跟上,这样你就不会完全措手不及,或者最终得到一个无法充分利用的系统。还要有合适的产品能够利用这些研究成果,进而支付这个系统令人瞠目结舌的成本。
说“供应链”可能让它听起来太像一个简单的管道系统了。整个生态系统在每个层面的复杂性,就像是分形一样,是我在任何行业都未曾见过的。某种程度上说,这可能是我最担心的问题。
主持人:你说“前所未见”。很多人把这波浪潮比作互联网泡沫时期,就热情和兴奋程度而言。我认为不同的是人们投入的资金规模。甲骨文创始人 Larry Ellison 曾说,要进入基础模型竞赛,起步就需要 1000 亿美元。你同意这个说法吗?当你看到这个数字时,你觉得这说得通吗?
Sam Altman:不,我认为实际所需资金会比这少。但这里有一个有趣的观点:每个人都喜欢用之前的技术革命来类比,试图将新技术革命放在一个更熟悉的背景下理解。首先,我认为总的来说这是一个不太好的习惯,尽管我理解为什么人们会这样做。其次,我认为人们选择用来类比 AI 的例子往往都不太恰当。
互联网显然与 AI 有很大的不同。你提到了这一点,比如说成本问题,不管是需要 100 亿还是 1000 亿美元才能具有竞争力。互联网革命的一个显著特征是入门门槛其实很低。现在,还有一点更接近互联网的是,对于许多公司来说,这只会像是互联网的延续。就像是别人制造这些 AI 模型,你可以用它们来构建各种精彩的产品。它就像是构建技术的一个新的基础要素。但如果你试图构建 AI 本身,那就是完全不同的故事了。
人们使用的另一个例子是电力,我认为这个比喻因为很多原因都不太恰当。我最喜欢的类比,尽管我之前说过不应该过度使用这些比喻,是晶体管。它是物理学上的一个全新发现,具有令人难以置信的扩展性,并且迅速渗透到了各个领域。
社会本身的变化程度可能会出人意料地小
主持人:接下来我想和你玩个快问快答的游戏,请你直接给出下意识的答案。
如果你现在是一个 23、24 岁的年轻人,拥有如今的基础设施,你会选择构建什么?
Sam Altman:我会选择某个由 AI 赋能的垂直领域。我想用教育辅导作为例子,可能是打造最好的 AI 辅导产品,或者是我能想象到的最出色的教学系统。类似的领域都可以,可以是 AI 律师,可以是 AI CAD 工程师,或者其他类似的方向。
主持人:你以前提到过写书的计划。你打算给这本书起什么名字?
Sam Altman:我还没有想好具体的书名。除了觉得这样一本书应该存在,因为它能帮助释放很多人的潜能之外,我还没有深入思考过这本书的其他细节。所以也许会是关于人类潜能的主题。
主持人:在 AI 领域,有什么是目前没人关注但每个人都应该投入更多精力的方向?
Sam Altman:我特别期待看到,这个问题其实有很多不同的解决方案,但我想说的是某种能够理解你整个生活的 AI。它不需要真的拥有无限的上下文理解能力,但是要有某种方式让你能拥有一个 AI 智能体,它了解关于你的一切,能访问你所有的数据等等。
主持人:在过去的一个月里,有什么事情让你特别惊讶的吗?
Sam Altman:是一个我现在还不能讨论的研究成果,但它确实令人惊叹。
主持人:你最尊重哪个竞争对手?为什么是他们?
Sam Altman:说实话,我现在基本上尊重这个领域的每一个参与者。我认为整个领域都在进行着令人惊叹的工作,有着才华横溢、工作极其努力的人。我不是在回避这个问题,而是我确实能在这个领域的各个角落看到非常有才华的人在做出色的工作。有特别突出的一个吗?不太容易说。
主持人:告诉我,你最喜欢的 OpenAI API 是什么?
Sam Altman:我认为新的实时 API(Real-time API)非常出色。当然,我们现在已经建立起了相当规模的 API 业务,其中有很多出色的功能。
主持人:在 AI 领域,你现在最敬佩的是谁?
Sam Altman:让我特别表扬一下 Cursor 团队。当然,AI 领域有很多人在做着令人难以置信的工作,但我认为 Cursor 团队真正做到了将愿景变为现实。我本可以列举很多值得称赞的研究人员,但就利用 AI 来创造真正令人惊叹的用户体验,以一种前所未有的方式创造价值而言,我认为他们的成就确实非常突出。在思考这个问题时,我特意把 OpenAI 的任何人都排除在外,否则首先就会是一长串 OpenAI 的人员名单。
主持人:你如何看待延迟和准确性之间的权衡?
Sam Altman:你需要一个可以在两者之间灵活调节的机制。就像现在我们在做快问快答一样,我其实回答得还不够快,但我在努力不过分思考。在这种场景下,你需要的是低延迟。但如果你说:“嘿,Sam,我希望你能在物理学领域有重大发现”,那么你可能会很乐意等待准确性再发展个几年。关键是,这种权衡应该由用户来控制。
主持人:我想问问关于领导力中的不安全感,我认为这是每个人都会有的感受,但我们很少谈论。当你思考领导力方面的不安全感,作为一个领导者你想要改进的方面,你今天最想在作为领导者和 CEO 的哪些方面有所提升?
Sam Altman:这周让我最困扰的是,我对我们的产品策略细节感到比以往任何时候都更加不确定。我认为产品总的来说是我的一个弱项。而现在公司正需要我在这方面提供更强有力和清晰的愿景。我们有一位出色的产品主管和一个很棒的产品团队,但这是一个我希望自己能做得更好的领域,而且我现在正急切地感受到这种不足。
主持人:你招聘了 Kevin Weil 作为 CPO(首席产品官)。我认识 Kevin 很多年了,他确实很出色。
Sam Altman:Kevin 太棒了。
主持人:在你看来,是什么让 Kevin 成为一位世界级的产品领导者?
Sam Altman:我首先想到的词是纪律性。
主持人:是在关注重点这方面吗?
Sam Altman:是的,包括什么该做什么不该做、真正站在用户角度来思考我们为什么要做或不做某件事,以及始终保持严谨务实的态度,不轻易被天马行空的想象所左右。
主持人:如果你有一根魔法棒,可以为 OpenAI 五年和十年内的愿景描绘蓝图吗?
Sam Altman:坦白说,我可以轻松地规划接下来的两年。但如果我们的判断是正确的,如果我们开始打造的系统真的能在科学进步等方面发挥巨大作用……实际上,我想说的是,我认为在五年内,我们会看到技术本身以一个令人难以置信的速度不断进步。人们可能会说:“哇,通用人工智能的时代来了又走了,不管怎样,这个进步的步伐简直疯狂。” 我们在不断发现新的东西,不仅是关于 AI 研究,还有其他所有科学领域。如果我们现在能坐在这里预见到那个场景,它看起来应该会让人觉得难以置信。
我的预测的第二个部分是,社会本身的变化程度可能会出人意料地小。举个例子:我认为如果你五年前问人们,计算机是否会通过图灵测试,他们会说不可能。然后如果你说,假设有个预言家告诉你它一定会通过,他们会说,那将会给社会带来翻天覆地的变化。而事实上,我们确实在某种程度上满足了图灵测试的要求,但社会并没有发生太大的改变。这个突破就这样悄然而过。这就是我预期会继续发生的情况:科技进步,特别是科学进步会不断超越所有人的预期,而社会本身则以一种我认为是健康的方式,保持相对稳定。当然,从更长远来看,变革终将到来,而且会是巨大的变革。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...