行情
新闻
分析
用户
快讯
财经日历
学习
数据
- 名称
- 最新值
- 前值
公:--
预: --
前: --
公:--
预: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
前: --
公:--
预: --
公:--
预: --
公:--
预: --
公:--
预: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
--
预: --
前: --
无匹配数据
最新观点
最新观点
最近更新
港股投资的风险预警
尽管香港法律体系和监管框架相对健全,但港股市场仍然存在一些特定的风险和挑战,如港币与美元挂钩,外地投资者可能会面临汇率波动;中国内地的政策变化和经济状况对港股的影响等。
投资港股费用结构与税务
港股市场的交易成本包括总投资成本为买卖股票的交易费用、印花税、结算费用等,对于外地投资者,可能会涉及兑换港币所产生汇率转换费用,以及按照所在地的相关法规需缴纳的税款。
港股行业分析:非必需消费行业
港股市场非必需消费行业覆盖汽车、教育、旅游、餐饮、服装等多个领域,在643家上市公司中35%为中国内地公司,占总市值的65%,因此受中国经济影响深远。
港股行业分析:地产建筑业
地产建筑业在港股指数中的份额近年已明显下降,但截2022年,它依然在市场上占有约10%的份额。包含了房地产开发、建筑工程、房地产投资和物业管理等各个方面。
中国·香港
越南·胡志明
阿联酋·迪拜
尼日利亚·拉各斯
埃及·开罗
查看所有搜索结果
暂无数据
Opendoor Technologies Inc 公布了截至 12 月 31 日的季度调整后每股亏损 11 美分,高于去年同期的每股-14 美分。 九位分析师对该季度的平均预期是每股亏损 14 美分。华尔街预期为每股-16美分至-12美分。
营收同比增长 24.6%,达到 10.8 亿美元;分析师预期为 9.8226 亿美元。
Opendoor Technologies Inc 公布的本季度每股收益为亏损 16 美分。
该公司当季亏损 1.13 亿美元。
Opendoor Technologies Inc 本季度股价下跌了 10.6%。
预测变化
在过去三个月中,分析师的平均盈利预测上升了约 0.7%。
在过去 30 天内,盈利预测没有出现负面修正。
建议
目前,分析师对该公司股票的平均评级为 "持有",建议分类为 2 个 "强烈买入 "或 "买入",7 个 "持有",2 个 "卖出 "或 "强烈卖出"。
房地产服务同行的平均一致建议也是 "持有"。
华尔街对 Opendoor Technologies Inc 的 12 个月目标价中位数为 1.80 美元。
本摘要由 LSEG 于世界协调时 2 月 28 日上午 05:30 的数据机器生成。除非另有说明,所有数据均以美元为单位。(如对本报告中的数据有任何疑问,请联系 Estimates.Support@lseg.com。如有任何其他问题或反馈,请联系 RefinitivNewsSupport@thomsonreuters.com。)
季度末 | 预计 | 实际 | 超过、达到、未达到 |
2024 年 12 月 31 日 | -0.14 | -0.11 | 未达 |
2024 年 9 月 30 日 | -0.13 | -0.10 | 胜出 |
2024 年 6 月 30 日 | -0.09 | -0.04 | 节拍 |
2024 年 3 月 31 日 | -0.16 | -0.12 | 节拍 |
北京时间2月27日,英伟达公布2025财年第四财季及全年财报:第四财季营收为393.31亿美元,同比增长78%,环比增长12%;净利润为220.91亿美元,同比增长80%,环比增长14%;不计入某些一次性项目(不按照美国通用会计准则),英伟达第四财季调整后净利润为220.66亿美元,同比增长72%,环比增长10%(注:英伟达财年与自然年不同步,2024年1月底至2025年1月底为2025财年)。
英伟达2025财年第四财季营收和调整后每股收益均超出华尔街分析师此前预期,整个2025财年的业绩同样超出预期;对2026财年第一财季营收作出的展望也超出预期,从而推动其盘后股价上涨逾2%。
详见:英伟达第四财季营收393.31亿美元 净利润同比大增80%
财报发布后,英伟达创始人、总裁兼首席执行官黄仁勋和执行副总裁兼首席财务官科莱特·克雷斯等高管出席随后召开的财报电话会议,解读财报要点并回答分析师提问。
以下是分析是问答环节主要内容:
Cantor Fitzgerald分析师C.J. Muse:我们看到计算强化学习领域的前景非常广阔,也明显能看到训练和推理之间的界限日益模糊。这对未来专门用于推理的集群有何潜在影响?管理层如何看待其对客户的整体影响,尤其是在视频领域?
黄仁勋:目前有多种扩展模式,首先,预训练扩展模式会持续发展,其涉及多模态领域,并且推理技术已经被用于新的预训练中,这是推理领域的新突破。第二种是利用强化学习进行的训练后扩展,比如通过人类反馈、人工智能反馈进行强化学习,还可以设定强化学习的具体奖励机制。
实际上,训练后扩展阶段所使用的计算量比预训练阶段还要高,这是合理的。因为在使用强化学习时,可以生成大量合成数据或合成标记,人工智能模型从本质上说就是通过生成标记来训练其他模型。第三部分是你提到的测试时计算,或者说是推理扩展,围绕基本相同的理念进行不同的扩展。
目前,推理所需的计算量已经是大语言模型最初单次示例和单次学习能力所需计算量的100倍,而这仅仅是个开始,我们预计下一代模型可能会基于模拟和搜索技术,计算量需求将是现在的数千倍,甚至有望达到数十万倍、数百万倍。有些模型是自回归模型,有些是基于扩散模型,各不相同。有时我们希望看到数据中心具备强大的综合推理能力,有时又需要其具备紧凑的特性,因此很难确定数据中心的最佳配置。
这也就是为什么英伟达的架构如此受市场欢迎,因为我们能运行各种模型。如今,我们大部分计算资源其实都用于推理,而Blackwell架构更是将这一切提升到了新高度。我们在设计Blackwell时就考虑到了推理模型的需求,虽然训练能带来更高的性能提升,但真正惊人的是在长时间推理测试时的扩展能力,人工智能推理模型的性能提升可达10到25倍。
所以,Blackwell在各方面都表现卓越。如果数据中心能让你根据当前的任务需求——无论是进行更多预训练、训练后扩展,还是扩展推理能力——来配置和使用,那么这种架构就是灵活且易于使用的。实际上,我们看到统一架构的集中度比以往任何时候都要高得多。
摩根大通分析师Joseph Moore:我想问一个关于GB200芯片的问题,之前管理层提到过机架级系统的复杂性以及其面临的挑战。正如在前面发言中提到的,该产品已经有了广泛的可用性,我想知道其在产品推广方面进展如何?在系统层面是否还有其他瓶颈需要考虑?另外,管理层对于GB200平台的热情是否依旧?
黄仁勋:我现在对GB200的热情比在消费电子展期间(CES)更高,原因是我们在GB200上投入了更多精力。每个Blackwell机架包含150万个组件,其制造由大约350工厂完成,技术极其复杂,上一季度,我们成功推出Grace Blackwell(GB)产品,带来了110亿美元的收入。由于需求旺盛,客户急切地希望获得Blackwell系统,我们还需要继续扩大生产规模。
你可能在网上看到过很多关于GB系统上线的庆祝消息,我们自己的工程部门也安装了大量该系统。Open人工智能公司也开始使用,并且越来越多的系统正在上线。所以,针对你提出的问题,我认为我们所做的事情并不容易,但我们做得很好,所有合作伙伴也都表现出色。
美银美林分析师Vivek Arya:我想知道第一季度的利润率是否为全年的最低点?另外,管理层是依据什么来判断强劲的需求能持续到明年?新出现的创新成果是否会改变这一预期?
科莱特·克雷斯:目前,在Blackwell系统的增产过程中,利润率处于70%多一点的水平。我们正专注于加快生产速度,确保能尽快为客户提供产品。一旦Blackwell的增产目标完全实现,我们就能降低成本,提高利润率,预计今年晚些时候,利润率可能会达到75%左右的水平。你也听到了黄仁勋对当前系统复杂性的介绍,这些系统在某些情况下可以供客户定制,有多种网络选项,还具备液冷和水冷功能。所以未来有机会进一步提高利润率,但目前我们的重点是尽快将产品交付给客户。
黄仁勋:关于第二个问题,我们对于一些情况有比较清晰的了解,比如我们大致了解数据中心的资本投资规模,也知道未来绝大多数软件将基于机器学习开发。因此,加速计算和通用人工智能推理将成为数据中心理想的架构类型,此外,我们还掌握主要合作伙伴的业绩预测和计划。
并且,我们知道有许多创新型初创公司不断涌现,其推出的令人振奋的技术成果也为人工智能领域的下一个突破提供了新机遇,无论其产品和技术属于智能体人工智能、推理人工智能,还是用于实体经济领域的人工智能。初创公司的数量依然很多,它们都需要大量的计算基础设施。
所以,我认为从近期来看,有各种预测和计划作为信号;从中期来看,基础设施的规模和资本支出与往年相比是一个重要信号;从长期来看,我们深知软件已经从在中央处理器(CPU)上运行的手工编码,转变为在图形处理器(GPU)和加速计算系统上运行的基于机器学习和人工智能的软件。我们很清楚这就是软件的未来走向。
也许人工智能在搜索,部分消费级通用产品,以及广告推荐等领域的应用目前还只是软件发展的初期阶段,但接下来,企业级智能体人工智能、机器人领域的实体人工智能,以及不同地区构建的主权人工智能,还有用于各种操作系统的人工智能都将兴起。这些领域才刚刚起步,我们能够预见到它们的发展,英伟达显然处于这一发展的核心位置,能观察到各个领域的蓬勃发展,无论是近期、中期还是长期来看,这些发展必然会到来。
摩根大通分析师Harlan Sur:你们的下一代产品Blackwell Ultra预计今年下半年推出,与团队的年度规划一致。考虑到你们目前仍在扩大当前一代Blackwell解决方案的生产规模,客户和供应链将如何同时应对这两款产品的推广?团队是否仍按计划在今年下半年推出Blackwell Ultra?
黄仁勋:是的,Blackwell Ultra将于今年下半年推出。大家知道,第一代Blackwell在推出时遇到了一些小问题,导致推迟了几个月,但我们当然已经完全恢复,团队以及所有供应链合作伙伴都付出了巨大努力,很多人都帮助我们渡过了难关。现在我们已经成功扩大了Blackwell的生产规模,但产品研发的脚步不会停止,新产品的推出会遵循产品发布的年度节奏。
Blackwell Ultra将配备新的网络、内存和处理器,目前我们已经与所有合作伙伴和客户沟通协调,他们掌握了必要信息,这次我们会和大家一起做好Blackwell到Blackwell Ultra的平稳过渡。两款产品的系统架构完全相同,而从Hopper架构过渡到Blackwell架构要困难得多,因为需要从基于NVLink 8的系统升级到了基于NVLink 72的系统,机箱、系统架构、硬件、电源供应等都需要改变,那是一次极具挑战性的过渡,但下一次过渡会很顺利,Grace Blackwell也能顺利接入。我们已经和所有合作伙伴进行了评估,并紧密合作推进后续工作,我们后续还会推出名为Rubin的下一代芯片。所有合作伙伴都在加快脚步,为这次过渡做准备。Blackwell Ultra将带来巨大的性能提升,在即将到来的英伟达人工智能技术大会(GTC)上,我们会详细介绍Blackwell Ultra、Rubin及其他新的计算、网络、推理人工智能和实体人工智能产品。
瑞银分析师Timothy Arcuri:我们经常听到关于专用集成电路(ASIC)方面的消息,能否请管理层谈谈ASIC和通用GPU之间的平衡?我们听说一些前沿的超级集群同时使用GPU和ASIC,这是客户的规划方向吗?还是说这些基础设施会保持明显的区分?
黄仁勋:在某些方面,我们的产品和ASIC有很大不同,甚至在一些领域完全不同。我们的架构有以下几个不同之处:其一,英伟达的架构是通用架构,针对自回归模型、扩散模型、视觉模型、多模态模型和文本模型等都进行了优化,在各个领域都表现出色。因为我们拥有丰富的软件堆栈和生态系统,这使我们成为大多数优秀创新和算法产品的首选目标。所以从定义上来说,我们的架构比ASIC更通用,应用范围更广。其二,从数据处理、训练数据整理、数据训练,到训练后使用强化学习,再到推理测试时扩展,我们的整个流程都表现出色。我们的架构通用且服务于端到端方面的需求,应用非常广泛,而且我们的产品不局限于某一个云平台,而是适用于各种云平台,既可以用于云端服务器,也可以用于机器人。对于任何一家初创公司来说,我们的架构更容易获取和使用,可以说是他们的理想选择。其三,我们产品的性能提升速度极快。要知道,数据中心的规模和功率通常是固定的,如果我们产品的性能每瓦特能提升2倍、4倍甚至8倍,而这并不罕见,就直接意味着成本的降低。比如有一个100兆瓦的数据中心,如果该数据中心的性能或产量量提高4倍或8倍,那么其收入也会相应提高。与过去的数据中心不同,如今的人工智能工厂可以基于标记生成量直接实现产生收入,所以英伟达架构在快速生成标记方面的优异表现,对于所有为了盈利而构建这些数据中心的公司来说都极具价值。
另外,人工智能发展非常迅速,要在多个芯片上构建完整的生态系统并非易事。最后我想说,芯片设计出来并不意味着就能投入使用,这种情况屡见不鲜。到了实际应用阶段,需要做出商业决策,决定是否将新的引擎或处理器应用到规模、时间和产品线都有限的人工智能工厂中。我们的技术不仅越来越先进、性能越来越高,软件功能也更强大,更重要的是,我们的部署速度极快。大家都清楚这些优势,这就是我们表现出色、能够脱颖而出的原因。
Melius Research分析师Ben Reitzes:想请教黄仁勋一个关于公司在不同地区拓展的问题。你之前非常明了地解释了一些支撑需求增长的因素,的确,美国市场的收入环比增长了约50亿美元,但市场担心如果其他地区出台相关监管政策,美国市场能否弥补可能出现的需求缺口。想请问,在接下来的一年里,如果美国市场的这种增长态势持续,是否足以支撑公司的整体增长?
黄仁勋:关键在于,人工智能是一种现代软件,而且已经成为主流技术。人工智能在配送服务、购物服务等各个领域都有应用,比如你购买牛奶并享受配送服务,这其中就有人工智能的参与。几乎所有的消费服务都以人工智能为核心,每个学生都可能使用人工智能作为学习辅导工具,医疗保健服务、金融服务也都在使用人工智能,如今没有一家金融科技公司不使用人工智能,气候科技公司也在使用人工智能,矿产勘探现在也用到了人工智能,每所大学都在应用人工智能。所以可以说,人工智能已经融入到各个应用领域,成为主流技术。
我们希望技术能够持续安全地发展,为社会带来积极影响。我相信我们正处于这一新技术变革的开端。回顾过去,几十年来我们构建了大量的数据中心和计算机,它们都是为手工编码和通用计算以及CPU计算时代设计的。而展望未来,可以说世界将几乎完全被人工智能所改变,所有软件和服务最终都将基于机器学习。数据飞轮效应(指数据驱动业务增长的循环效应)将发挥巨大作用,这是前所未有的,人工智能将比以往任何时候都更广泛地影响全球GDP。我们在考虑公司增长以及市场规模大小时,需要从这个大背景出发,而从这个角度来看,我们其实才刚刚起步。
Evercore ISI分析师Mark Lipacis:有几个问题我想同管理层确认一下,首先,你们是否提到数据中心业务板块中的企业业务在1月份这一季度同比增长了2倍?这是否意味着企业业务的增长速度比超大规模数据中心提供商更快?另外,超大规模数据中心提供商是你们产品的最大采购方,但随着新的人工智能工作负载和应用不断涌现,管理层认为企业业务在采购结构中的占比会增加吗?这会对你们的服务和生态系统产生什么影响?
科莱特·克雷斯:关于企业业务的问题,我们的确实现了同比2倍的增长,这和我们在大型云服务提供商业务上看到的增长情况类似,这两个领域都很重要。与云服务提供商合作,既可以参与大语言模型的开发,也可以进行自有业务的推理计算。同时要注意的是,企业也在参与这些工作,企业既与云服务提供商合作,也在自主构建相关业务。
黄仁勋:云服务提供商业务约占我们总业务的一半,云服务提供商有内部业务和外部业务。我们当然会参与他们的内部业务建设,并且与他们紧密合作,优化其内部工作负载。其拥有大量英伟达设备,我们的产品既可以用于人工智能计算,也可以用于视频处理,以及包括Spark大数据处理框架在内的数据处理等。我们的基础设施使用寿命更长,因此总体拥有成本(TCO)也就越低。
展望企业业务未来的增长情况,我认为从长期来看,企业业务规模会比现在大得多,原因是如今人工智能尚未充分服务的主要是工业领域。以汽车公司为例,汽车公司既生产软件产品,也生产硬件产品。对汽车公司来说,公司员工使用的业务系统属于企业业务范畴,智能体人工智能、软件规划系统和工具可以提高员工的工作效率,帮助他们进行设计、营销、规划和运营公司。另一方面,汽车制造也需要人工智能 ,需要一个人工智能系统来训练汽车,如今全球道路上行驶着数亿辆汽车,未来某一天可能会达到10亿辆,而且每一辆汽车都将是自动驾驶汽车。汽车公司有汽车工厂和人工智能工厂,汽车本身也是一个机器人系统。
由此可见,这里涉及到三种计算:一种是帮助员工工作的计算,一种是为机器,无论是汽车、拖拉机、割草机,也可能是正在研发的人形机器人或其他设备,还可能是建筑物、仓库等实体系统等构建人工智能的计算。这些实体系统需要一种新型人工智能,我们称之为实体人工智能,实体人工智能不仅要理解语言的含义,还必须理解现实世界中的摩擦力、惯性、物体恒存性和因果关系等常识,对人工智能来说,这些都需要学习。利用智能体人工智能来彻底改变公司内部的工作方式的发展才刚刚起步,我们现在正处于智能体人工智能时代的开端,但已经出现了一些出色的成果。再就是第二种,我们所提到的实体人工智能也会迎来大发展,再之后就是机器人体系。所以这三种计算需求都是全新的,我认为从长期来看,这将是规模最大的市场,这也很合理,毕竟全球GDP主要由各个行业和企业贡献,而这些行业和企业都需要这些计算支持。
富国银行分析师Aaron Rakers:请教黄仁勋,距离2023年公司Hopper架构推出已经快两年了,其带来了人工智能,特别是生成式人工智能领域的变革。展望未来的发展路线图,从设备更换周期的角度来看,你如何看待已部署的基础设施,比如GB300系列产品或者Rubin芯片,市场是否会迎来更新换代方面的可能性?
黄仁勋:目前,人们仍在使用Volta、Pascal和Ampere架构的产品,原因是这些架构具有很强的可编程性,在很多场景下都能发挥作用。其中一个主要的应用场景是数据处理和数据采集,以汽车为例,如果用户将某个场景输入视觉语言模型,视觉语言模型在分析该情况后会给出反馈,表明自身处理效果欠佳,那么用户可以将这个反馈作为提示,让人工智能在庞大的数据池中搜索类似情况,再进行域随机化处理,生成大量其他示例,之后再对所有数据进行训练。你可以利用Ampere架构的设备进行数据处理、数据整理以及基于机器学习的搜索,然后创建训练数据集,再将其输入到Hopper系统中进行训练。这些架构完全都是相互兼容的,所有数据都能在各种架构上运行。如果你已经搭建好了基础设施,就可以把负载较低的任务交给旧有设备处理。
花旗证券分析师Atif Malik:我有一个关于利润率的后续问题。我知道Blackwell产品涉及很多复杂因素,利润率会受到产品组合等因素的影响。你之前提到4月这个财季可能是利润率的底部,为了在本财年末达到75%左右的利润率水平,下半年每个季度利润率需要提升约200个基点。管理层对于这一目标走势和今年下半年的情况仍然抱有信心的原因有哪些?
科莱特·克雷斯:我们的毛利率情况,受到原材料,以及Blackwell系统整合情况的影响,相当复杂,但随着时间推移,我们有众多机会可以更好地改善毛利率水平。首先,Blackwell系统有多种不同配置,能帮助我们实现毛利率改善的目标,在为客户完成一些大规模产能提升工作之后,我们就能共同开展很多相关工作,只要条件允许,我们可能会尽快开始,如果能在短期内提升毛利率,我们也会去做。
黄仁勋财报会结语:市场对Blackwell产品的需求极其旺盛,人工智能正从感知和生成式人工智能向推理式人工智能发展。在推理式人工智能领域,我们看到了另一种缩放定律,即推理时间或测试时间缩放定律:计算量越大,模型思考得越多,答案也就越智能,像OpenAI、Grok-3、DeepSeek R1,就是应用推理时间缩放的推理模型。推理模型的计算量可能是普通模型的百倍之多,未来的推理模型计算量会更大。DeepSeek R1点燃了全球的热情,这是一项卓越的创新,但更重要的是,它开源了一个世界级的推理人工智能模型。几乎每位人工智能开发者都在应用R1或思维链,以及类似R1的强化学习技术来提升他们模型的性能。
正如我之前提到的,如今有三条缩放定律推动着人工智能计算的需求。传统的人工智能缩放定律依然存在,基础模型正通过多模态技术得到增强,预训练也在持续发展,但这已不足以满足需求。我们还有两个额外的缩放维度:一是训练后缩放,其中强化学习、微调、模型蒸馏所需的计算量比单独预训练要高出几个数量级;二是推理时间缩放和推理,单个查询的计算需求可能是原来的百倍。我们专为当下需求设计了Blackwell平台,这是一个能够轻松在预训练、训练后和测试时间缩放之间切换的单一平台。Blackwell的FP4变压器(Transformer)引擎、NVLink 72扩展架构和新软件技术,使其处理推理人工智能模型的速度比Hopper快25倍,Blackwell的所有配置都已全面投入生产。每台GB NV Link 72机架都堪称工程奇迹,因其由近10万家工厂的操作人员在350个制造地点生产出150万个组件所构成。人工智能正经历极速发展,多模态人工智能、企业人工智能、主权人工智能和实体人工智能即将到来。
展望未来,我们在2025年将迎来强劲增长,数据中心将把大部分资本支出用于加速计算,人工智能数据中心将越来越多地转变为人工智能工厂。 无论是通过租赁,还是自行运营,每一家公司都将拥有自己的人工智能数据中心。感谢大家今天参加我们的财报会,几周后的英伟达GTC大会上我们还会相聚,届时我们将探讨Blackwell Ultra、Rubin,以及其他新的计算、网络、推理人工智能、实体人工智能产品等诸多内容。谢谢。 (完)
北京时间2月27日,英伟达公布2025财年第四财季及全年财报:第四财季营收为393.31亿美元,同比增长78%,环比增长12%;净利润为220.91亿美元,同比增长80%,环比增长14%;不计入某些一次性项目(不按照美国通用会计准则),英伟达第四财季调整后净利润为220.66亿美元,同比增长72%,环比增长10%(注:英伟达财年与自然年不同步,2024年1月底至2025年1月底为2025财年)。
英伟达2025财年第四财季营收和调整后每股收益均超出华尔街分析师此前预期,整个2025财年的业绩同样超出预期;对2026财年第一财季营收作出的展望也超出预期,从而推动其盘后股价上涨逾2%。
详见:英伟达第四财季营收393.31亿美元 净利润同比大增80%
财报发布后,英伟达创始人、总裁兼首席执行官黄仁勋和执行副总裁兼首席财务官科莱特·克雷斯等高管出席随后召开的财报电话会议,解读财报要点并回答分析师提问。
以下是分析是问答环节主要内容:
Cantor Fitzgerald分析师C.J. Muse:我们看到计算强化学习领域的前景非常广阔,也明显能看到训练和推理之间的界限日益模糊。这对未来专门用于推理的集群有何潜在影响?管理层如何看待其对客户的整体影响,尤其是在视频领域?
黄仁勋:目前有多种扩展模式,首先,预训练扩展模式会持续发展,其涉及多模态领域,并且推理技术已经被用于新的预训练中,这是推理领域的新突破。第二种是利用强化学习进行的训练后扩展,比如通过人类反馈、人工智能反馈进行强化学习,还可以设定强化学习的具体奖励机制。
实际上,训练后扩展阶段所使用的计算量比预训练阶段还要高,这是合理的。因为在使用强化学习时,可以生成大量合成数据或合成标记,人工智能模型从本质上说就是通过生成标记来训练其他模型。第三部分是你提到的测试时计算,或者说是推理扩展,围绕基本相同的理念进行不同的扩展。
目前,推理所需的计算量已经是大语言模型最初单次示例和单次学习能力所需计算量的100倍,而这仅仅是个开始,我们预计下一代模型可能会基于模拟和搜索技术,计算量需求将是现在的数千倍,甚至有望达到数十万倍、数百万倍。有些模型是自回归模型,有些是基于扩散模型,各不相同。有时我们希望看到数据中心具备强大的综合推理能力,有时又需要其具备紧凑的特性,因此很难确定数据中心的最佳配置。
这也就是为什么英伟达的架构如此受市场欢迎,因为我们能运行各种模型。如今,我们大部分计算资源其实都用于推理,而Blackwell架构更是将这一切提升到了新高度。我们在设计Blackwell时就考虑到了推理模型的需求,虽然训练能带来更高的性能提升,但真正惊人的是在长时间推理测试时的扩展能力,人工智能推理模型的性能提升可达10到25倍。
所以,Blackwell在各方面都表现卓越。如果数据中心能让你根据当前的任务需求——无论是进行更多预训练、训练后扩展,还是扩展推理能力——来配置和使用,那么这种架构就是灵活且易于使用的。实际上,我们看到统一架构的集中度比以往任何时候都要高得多。
摩根大通分析师Joseph Moore:我想问一个关于GB200芯片的问题,之前管理层提到过机架级系统的复杂性以及其面临的挑战。正如在前面发言中提到的,该产品已经有了广泛的可用性,我想知道其在产品推广方面进展如何?在系统层面是否还有其他瓶颈需要考虑?另外,管理层对于GB200平台的热情是否依旧?
黄仁勋:我现在对GB200的热情比在消费电子展期间(CES)更高,原因是我们在GB200上投入了更多精力。每个Blackwell机架包含150万个组件,其制造由大约350工厂完成,技术极其复杂,上一季度,我们成功推出Grace Blackwell(GB)产品,带来了110亿美元的收入。由于需求旺盛,客户急切地希望获得Blackwell系统,我们还需要继续扩大生产规模。
你可能在网上看到过很多关于GB系统上线的庆祝消息,我们自己的工程部门也安装了大量该系统。Open人工智能公司也开始使用,并且越来越多的系统正在上线。所以,针对你提出的问题,我认为我们所做的事情并不容易,但我们做得很好,所有合作伙伴也都表现出色。
美银美林分析师Vivek Arya:我想知道第一季度的利润率是否为全年的最低点?另外,管理层是依据什么来判断强劲的需求能持续到明年?新出现的创新成果是否会改变这一预期?
科莱特·克雷斯:目前,在Blackwell系统的增产过程中,利润率处于70%多一点的水平。我们正专注于加快生产速度,确保能尽快为客户提供产品。一旦Blackwell的增产目标完全实现,我们就能降低成本,提高利润率,预计今年晚些时候,利润率可能会达到75%左右的水平。你也听到了黄仁勋对当前系统复杂性的介绍,这些系统在某些情况下可以供客户定制,有多种网络选项,还具备液冷和水冷功能。所以未来有机会进一步提高利润率,但目前我们的重点是尽快将产品交付给客户。
黄仁勋:关于第二个问题,我们对于一些情况有比较清晰的了解,比如我们大致了解数据中心的资本投资规模,也知道未来绝大多数软件将基于机器学习开发。因此,加速计算和通用人工智能推理将成为数据中心理想的架构类型,此外,我们还掌握主要合作伙伴的业绩预测和计划。
并且,我们知道有许多创新型初创公司不断涌现,其推出的令人振奋的技术成果也为人工智能领域的下一个突破提供了新机遇,无论其产品和技术属于智能体人工智能、推理人工智能,还是用于实体经济领域的人工智能。初创公司的数量依然很多,它们都需要大量的计算基础设施。
所以,我认为从近期来看,有各种预测和计划作为信号;从中期来看,基础设施的规模和资本支出与往年相比是一个重要信号;从长期来看,我们深知软件已经从在中央处理器(CPU)上运行的手工编码,转变为在图形处理器(GPU)和加速计算系统上运行的基于机器学习和人工智能的软件。我们很清楚这就是软件的未来走向。
也许人工智能在搜索,部分消费级通用产品,以及广告推荐等领域的应用目前还只是软件发展的初期阶段,但接下来,企业级智能体人工智能、机器人领域的实体人工智能,以及不同地区构建的主权人工智能,还有用于各种操作系统的人工智能都将兴起。这些领域才刚刚起步,我们能够预见到它们的发展,英伟达显然处于这一发展的核心位置,能观察到各个领域的蓬勃发展,无论是近期、中期还是长期来看,这些发展必然会到来。
摩根大通分析师Harlan Sur:你们的下一代产品Blackwell Ultra预计今年下半年推出,与团队的年度规划一致。考虑到你们目前仍在扩大当前一代Blackwell解决方案的生产规模,客户和供应链将如何同时应对这两款产品的推广?团队是否仍按计划在今年下半年推出Blackwell Ultra?
黄仁勋:是的,Blackwell Ultra将于今年下半年推出。大家知道,第一代Blackwell在推出时遇到了一些小问题,导致推迟了几个月,但我们当然已经完全恢复,团队以及所有供应链合作伙伴都付出了巨大努力,很多人都帮助我们渡过了难关。现在我们已经成功扩大了Blackwell的生产规模,但产品研发的脚步不会停止,新产品的推出会遵循产品发布的年度节奏。
Blackwell Ultra将配备新的网络、内存和处理器,目前我们已经与所有合作伙伴和客户沟通协调,他们掌握了必要信息,这次我们会和大家一起做好Blackwell到Blackwell Ultra的平稳过渡。两款产品的系统架构完全相同,而从Hopper架构过渡到Blackwell架构要困难得多,因为需要从基于NVLink 8的系统升级到了基于NVLink 72的系统,机箱、系统架构、硬件、电源供应等都需要改变,那是一次极具挑战性的过渡,但下一次过渡会很顺利,Grace Blackwell也能顺利接入。我们已经和所有合作伙伴进行了评估,并紧密合作推进后续工作,我们后续还会推出名为Rubin的下一代芯片。所有合作伙伴都在加快脚步,为这次过渡做准备。Blackwell Ultra将带来巨大的性能提升,在即将到来的英伟达人工智能技术大会(GTC)上,我们会详细介绍Blackwell Ultra、Rubin及其他新的计算、网络、推理人工智能和实体人工智能产品。
瑞银分析师Timothy Arcuri:我们经常听到关于专用集成电路(ASIC)方面的消息,能否请管理层谈谈ASIC和通用GPU之间的平衡?我们听说一些前沿的超级集群同时使用GPU和ASIC,这是客户的规划方向吗?还是说这些基础设施会保持明显的区分?
黄仁勋:在某些方面,我们的产品和ASIC有很大不同,甚至在一些领域完全不同。我们的架构有以下几个不同之处:其一,英伟达的架构是通用架构,针对自回归模型、扩散模型、视觉模型、多模态模型和文本模型等都进行了优化,在各个领域都表现出色。因为我们拥有丰富的软件堆栈和生态系统,这使我们成为大多数优秀创新和算法产品的首选目标。所以从定义上来说,我们的架构比ASIC更通用,应用范围更广。其二,从数据处理、训练数据整理、数据训练,到训练后使用强化学习,再到推理测试时扩展,我们的整个流程都表现出色。我们的架构通用且服务于端到端方面的需求,应用非常广泛,而且我们的产品不局限于某一个云平台,而是适用于各种云平台,既可以用于云端服务器,也可以用于机器人。对于任何一家初创公司来说,我们的架构更容易获取和使用,可以说是他们的理想选择。其三,我们产品的性能提升速度极快。要知道,数据中心的规模和功率通常是固定的,如果我们产品的性能每瓦特能提升2倍、4倍甚至8倍,而这并不罕见,就直接意味着成本的降低。比如有一个100兆瓦的数据中心,如果该数据中心的性能或产量量提高4倍或8倍,那么其收入也会相应提高。与过去的数据中心不同,如今的人工智能工厂可以基于标记生成量直接实现产生收入,所以英伟达架构在快速生成标记方面的优异表现,对于所有为了盈利而构建这些数据中心的公司来说都极具价值。
另外,人工智能发展非常迅速,要在多个芯片上构建完整的生态系统并非易事。最后我想说,芯片设计出来并不意味着就能投入使用,这种情况屡见不鲜。到了实际应用阶段,需要做出商业决策,决定是否将新的引擎或处理器应用到规模、时间和产品线都有限的人工智能工厂中。我们的技术不仅越来越先进、性能越来越高,软件功能也更强大,更重要的是,我们的部署速度极快。大家都清楚这些优势,这就是我们表现出色、能够脱颖而出的原因。
Melius Research分析师Ben Reitzes:想请教黄仁勋一个关于公司在不同地区拓展的问题。你之前非常明了地解释了一些支撑需求增长的因素,的确,美国市场的收入环比增长了约50亿美元,但市场担心如果其他地区出台相关监管政策,美国市场能否弥补可能出现的需求缺口。想请问,在接下来的一年里,如果美国市场的这种增长态势持续,是否足以支撑公司的整体增长?
黄仁勋:关键在于,人工智能是一种现代软件,而且已经成为主流技术。人工智能在配送服务、购物服务等各个领域都有应用,比如你购买牛奶并享受配送服务,这其中就有人工智能的参与。几乎所有的消费服务都以人工智能为核心,每个学生都可能使用人工智能作为学习辅导工具,医疗保健服务、金融服务也都在使用人工智能,如今没有一家金融科技公司不使用人工智能,气候科技公司也在使用人工智能,矿产勘探现在也用到了人工智能,每所大学都在应用人工智能。所以可以说,人工智能已经融入到各个应用领域,成为主流技术。
我们希望技术能够持续安全地发展,为社会带来积极影响。我相信我们正处于这一新技术变革的开端。回顾过去,几十年来我们构建了大量的数据中心和计算机,它们都是为手工编码和通用计算以及CPU计算时代设计的。而展望未来,可以说世界将几乎完全被人工智能所改变,所有软件和服务最终都将基于机器学习。数据飞轮效应(指数据驱动业务增长的循环效应)将发挥巨大作用,这是前所未有的,人工智能将比以往任何时候都更广泛地影响全球GDP。我们在考虑公司增长以及市场规模大小时,需要从这个大背景出发,而从这个角度来看,我们其实才刚刚起步。
Evercore ISI分析师Mark Lipacis:有几个问题我想同管理层确认一下,首先,你们是否提到数据中心业务板块中的企业业务在1月份这一季度同比增长了2倍?这是否意味着企业业务的增长速度比超大规模数据中心提供商更快?另外,超大规模数据中心提供商是你们产品的最大采购方,但随着新的人工智能工作负载和应用不断涌现,管理层认为企业业务在采购结构中的占比会增加吗?这会对你们的服务和生态系统产生什么影响?
科莱特·克雷斯:关于企业业务的问题,我们的确实现了同比2倍的增长,这和我们在大型云服务提供商业务上看到的增长情况类似,这两个领域都很重要。与云服务提供商合作,既可以参与大语言模型的开发,也可以进行自有业务的推理计算。同时要注意的是,企业也在参与这些工作,企业既与云服务提供商合作,也在自主构建相关业务。
黄仁勋:云服务提供商业务约占我们总业务的一半,云服务提供商有内部业务和外部业务。我们当然会参与他们的内部业务建设,并且与他们紧密合作,优化其内部工作负载。其拥有大量英伟达设备,我们的产品既可以用于人工智能计算,也可以用于视频处理,以及包括Spark大数据处理框架在内的数据处理等。我们的基础设施使用寿命更长,因此总体拥有成本(TCO)也就越低。
展望企业业务未来的增长情况,我认为从长期来看,企业业务规模会比现在大得多,原因是如今人工智能尚未充分服务的主要是工业领域。以汽车公司为例,汽车公司既生产软件产品,也生产硬件产品。对汽车公司来说,公司员工使用的业务系统属于企业业务范畴,智能体人工智能、软件规划系统和工具可以提高员工的工作效率,帮助他们进行设计、营销、规划和运营公司。另一方面,汽车制造也需要人工智能 ,需要一个人工智能系统来训练汽车,如今全球道路上行驶着数亿辆汽车,未来某一天可能会达到10亿辆,而且每一辆汽车都将是自动驾驶汽车。汽车公司有汽车工厂和人工智能工厂,汽车本身也是一个机器人系统。
由此可见,这里涉及到三种计算:一种是帮助员工工作的计算,一种是为机器,无论是汽车、拖拉机、割草机,也可能是正在研发的人形机器人或其他设备,还可能是建筑物、仓库等实体系统等构建人工智能的计算。这些实体系统需要一种新型人工智能,我们称之为实体人工智能,实体人工智能不仅要理解语言的含义,还必须理解现实世界中的摩擦力、惯性、物体恒存性和因果关系等常识,对人工智能来说,这些都需要学习。利用智能体人工智能来彻底改变公司内部的工作方式的发展才刚刚起步,我们现在正处于智能体人工智能时代的开端,但已经出现了一些出色的成果。再就是第二种,我们所提到的实体人工智能也会迎来大发展,再之后就是机器人体系。所以这三种计算需求都是全新的,我认为从长期来看,这将是规模最大的市场,这也很合理,毕竟全球GDP主要由各个行业和企业贡献,而这些行业和企业都需要这些计算支持。
富国银行分析师Aaron Rakers:请教黄仁勋,距离2023年公司Hopper架构推出已经快两年了,其带来了人工智能,特别是生成式人工智能领域的变革。展望未来的发展路线图,从设备更换周期的角度来看,你如何看待已部署的基础设施,比如GB300系列产品或者Rubin芯片,市场是否会迎来更新换代方面的可能性?
黄仁勋:目前,人们仍在使用Volta、Pascal和Ampere架构的产品,原因是这些架构具有很强的可编程性,在很多场景下都能发挥作用。其中一个主要的应用场景是数据处理和数据采集,以汽车为例,如果用户将某个场景输入视觉语言模型,视觉语言模型在分析该情况后会给出反馈,表明自身处理效果欠佳,那么用户可以将这个反馈作为提示,让人工智能在庞大的数据池中搜索类似情况,再进行域随机化处理,生成大量其他示例,之后再对所有数据进行训练。你可以利用Ampere架构的设备进行数据处理、数据整理以及基于机器学习的搜索,然后创建训练数据集,再将其输入到Hopper系统中进行训练。这些架构完全都是相互兼容的,所有数据都能在各种架构上运行。如果你已经搭建好了基础设施,就可以把负载较低的任务交给旧有设备处理。
花旗证券分析师Atif Malik:我有一个关于利润率的后续问题。我知道Blackwell产品涉及很多复杂因素,利润率会受到产品组合等因素的影响。你之前提到4月这个财季可能是利润率的底部,为了在本财年末达到75%左右的利润率水平,下半年每个季度利润率需要提升约200个基点。管理层对于这一目标走势和今年下半年的情况仍然抱有信心的原因有哪些?
科莱特·克雷斯:我们的毛利率情况,受到原材料,以及Blackwell系统整合情况的影响,相当复杂,但随着时间推移,我们有众多机会可以更好地改善毛利率水平。首先,Blackwell系统有多种不同配置,能帮助我们实现毛利率改善的目标,在为客户完成一些大规模产能提升工作之后,我们就能共同开展很多相关工作,只要条件允许,我们可能会尽快开始,如果能在短期内提升毛利率,我们也会去做。
黄仁勋财报会结语:市场对Blackwell产品的需求极其旺盛,人工智能正从感知和生成式人工智能向推理式人工智能发展。在推理式人工智能领域,我们看到了另一种缩放定律,即推理时间或测试时间缩放定律:计算量越大,模型思考得越多,答案也就越智能,像OpenAI、Grok-3、DeepSeek R1,就是应用推理时间缩放的推理模型。推理模型的计算量可能是普通模型的百倍之多,未来的推理模型计算量会更大。DeepSeek R1点燃了全球的热情,这是一项卓越的创新,但更重要的是,它开源了一个世界级的推理人工智能模型。几乎每位人工智能开发者都在应用R1或思维链,以及类似R1的强化学习技术来提升他们模型的性能。
正如我之前提到的,如今有三条缩放定律推动着人工智能计算的需求。传统的人工智能缩放定律依然存在,基础模型正通过多模态技术得到增强,预训练也在持续发展,但这已不足以满足需求。我们还有两个额外的缩放维度:一是训练后缩放,其中强化学习、微调、模型蒸馏所需的计算量比单独预训练要高出几个数量级;二是推理时间缩放和推理,单个查询的计算需求可能是原来的百倍。我们专为当下需求设计了Blackwell平台,这是一个能够轻松在预训练、训练后和测试时间缩放之间切换的单一平台。Blackwell的FP4变压器(Transformer)引擎、NVLink 72扩展架构和新软件技术,使其处理推理人工智能模型的速度比Hopper快25倍,Blackwell的所有配置都已全面投入生产。每台GB NV Link 72机架都堪称工程奇迹,因其由近10万家工厂的操作人员在350个制造地点生产出150万个组件所构成。人工智能正经历极速发展,多模态人工智能、企业人工智能、主权人工智能和实体人工智能即将到来。
展望未来,我们在2025年将迎来强劲增长,数据中心将把大部分资本支出用于加速计算,人工智能数据中心将越来越多地转变为人工智能工厂。 无论是通过租赁,还是自行运营,每一家公司都将拥有自己的人工智能数据中心。感谢大家今天参加我们的财报会,几周后的英伟达GTC大会上我们还会相聚,届时我们将探讨Blackwell Ultra、Rubin,以及其他新的计算、网络、推理人工智能、实体人工智能产品等诸多内容。谢谢。 (完)
Opendoor Technologies Inc 将于 2 月 27 日发布截至 2024 年 12 月 31 日的财报,预计该公司的季度营收将有所增长。
根据LSEG的数据,9位分析师的平均预期显示,这家总部位于亚利桑那州坦佩市的公司预计营收将从去年同期的8.7亿美元增长11.7%,达到9.71482亿美元。
LSEG 的分析师平均预计 Opendoor Technologies Inc 每股亏损 14 美分。
目前分析师对该公司股票的平均评级为 "持有",建议的细分为 2 个 "强烈买入 "或 "买入",7 个 "持有",2 个 "卖出 "或 "强烈卖出"。
在过去三个月中,分析师的平均盈利预期保持不变。
华尔街对 Opendoor Technologies Inc 的 12 个月目标价中位数为 1.80 美元,高于上一次收盘价 1.41 美元。
该公司2024年11月7日发布的截至12月31日的业绩指引为:未计利息、税项、折旧及摊销前的利润为9.25亿至-6000万美元(美元)。
上一季度业绩(,采用首选盈利指标,单位为美元)。
季度末 | 星铭智能估算 | 估计值 | 实际 | 超过、达到、未达到 | 意外 % |
2024 年 9 月 30 日 | -0.13 | -0.13 | -0.10 | 打 | 23.5 |
2024 年 6 月 30 日 | -0.10 | -0.09 | -0.04 | 节拍 | 56.5 |
2024 年 3 月 31 日 | -0.16 | -0.16 | -0.12 | 节拍 | 23.6 |
2023 年 12 月 31 日 | -0.18 | -0.19 | -0.14 | 节拍 | 24.5 |
2023 年 9 月 30 日 | -0.15 | -0.15 | -0.11 | 节拍 | 26.8 |
2023 年 6 月 30 日 | -0.38 | -0.38 | -0.30 | 节拍 | 20.9 |
2023 年 3 月 31 日 | -0.72 | -0.66 | -0.64 | 节拍 | 2.9 |
2022 年 12 月 31 日 | -0.70 | -0.73 | -0.51 | 节拍 | 30.4 |
本摘要于北京时间 2 月 25 日 21:29 由机器生成。 除非另有说明,否则所有数据均以美元为单位。(如对本报告中的数据有任何疑问,请联系 Estimates.Support@lseg.com。如有任何其他问题或反馈,请联系 RefinitivNewsSupport@thomsonreuters.com。)
黄仁勋认为,DeepSeekR1的发布“令人难以置信地兴奋”,它不仅不会终结AI计算需求,反而会扩大并加速市场对更高效AI模型的追求,从而推动整个行业的发展。
DeepSeek的横空出世引发大模型算力逻辑的质疑,英伟达股价一度暴跌。然而,黄仁勋却在最新访谈中表示,市场对DeepSeek的理解“完全搞反了”。
他认为,DeepSeek R1的发布不仅不会终结AI计算需求,反而会激发市场对更高效AI模型的追求,从而推动整个行业的发展。
“它让每个人都注意到,有机会让模型比我们想象的更有效率。因此,它正在扩大并加速AI的采用。”
英伟达将于2月26日发布第四季度财报,预计将对市场反应做出更详细的回应。
黄仁勋:技术进步推动AI普及,而市场反应大相径庭
DeepSeek R1模型的开源发布引发轩然大波。英伟达股价在消息发布后出现大幅下跌,1月24日收盘价为142.62美元,而1月27日收盘价跌至118.52美元,市值在短短三天内蒸发了600亿美元。目前,英伟达股价已基本恢复至下跌前的水平,美股盘后报135美元。市场对英伟达的信心似乎正在恢复。
市场似乎认为,DeepSeek的技术进步意味着AI计算需求的终结,这对芯片巨头英伟达构成了直接威胁。
然而,在DataDirect Networks首席执行官Alex Bouzari近日发布的访谈中,黄仁勋对市场的解读进行了驳斥。黄仁勋开门见山地指出,市场对 AI 发展存在一个根本性的“心智模型”误区:
“投资者认为世界就只有预训练,然后就是推理。而推理就是你问 AI 一个问题,它就立即给你一个答案,一次性的回答。我不知道是谁的错,但很明显这个模式是错误的。”
他表示,R1的发布“令人难以置信地兴奋”,并强调市场的反应“完全相反”。
“它让每个人都注意到,有机会让模型比我们想象的更有效率。因此,它正在扩大并加速AI的采用。”
换言之,R1的出现并非意味着市场不再需要算力资源,而是激发了市场对更高效AI模型的追求,从而推动整个行业的发展。
黄仁勋进一步指出,尽管DeepSeek在AI模型的预训练方面取得了进展,但后期训练仍然至关重要,并且需要大量资源。他强调:
“推理是其中一个相当耗费算力的部分。”
这意味着,即使预训练效率提高,AI模型的推理过程仍然需要强大的计算能力支持,英伟达的芯片产品仍将在AI发展中扮演关键角色。
与此同时,2月21日午间,DeepSeek宣布,从下周开始,他们将开源5个代码库,以完全透明的方式与全球开发者社区分享他们的研究进展,每日都有新内容解锁,进一步分享新的进展,并将这一计划定义为“Open Source Week”。
DeepSeek表示,其在线服务中的构建模块已经被记录、部署并进行了实际测试,希望分享的每一行代码都会变成强有力的势能,加速行业发展进程。该团队还称,这个领域没有象牙塔,只有纯粹的车库创业精神与社区共筑的创新力量。
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
来源:三言Pro
三言Pro消息 今年1月底,DeepSeek发布的R1模型对整个科技圈造成了巨大轰动,英伟达更是应声下跌16.79%,市值蒸发5900亿美元,创下美国金融史记录。
英伟达发言人当时表示:“DeepSeek是一项出色的人工智能进步,也是测试时间缩放的完美例子。”
尽管英伟达已经回血,不过其CEO黄仁勋一直未公开回应此事。
周四,黄仁勋在一场访谈中首次回应了DeepSeek,他表示投资者对DeepSeek 在人工智能领域取得的进展存在误解,这导致了市场对英伟达股票的错误反应。
DeepSeek以低成本高性能引发关注后,投资者开始质疑科技公司投入巨额成本建设AI基础设的必要性。
黄仁勋表示,市场的剧烈反应源于投资者的误读。尽管 R1 的开发似乎减少了对算力的依赖,但人工智能行业仍需强大的算力来支持模型后训练处理方法,这些方法能让AI模型在后训练进行推理或预测。
“从投资者的角度来看,他们认为世界分为预训练和推理两个阶段,而推理就是向 AI 提问并立即得到答案。我不知道这种误解是谁造成的,但显然这种观念是错误的。”
黄仁勋指出,预训练仍然重要,但后处理才是“智能最重要的部分”,也是“学习解决问题的关键环节”。
此外,黄仁勋还认为R1开源后,全球范围内展现出的热情令人难以置信,“这是一件极其令人兴奋的事情”。
黄仁勋访谈主要环节实录:
黄仁勋:
What‘s really exciting and you probably saw,what happened with DeepSeek.
The world‘s first reasoning model that’s open sourced,and it is so incredibly exciting the energy around the world as a result of R1 becoming open sourced,incredible.
真正令人兴奋的是,你可能已经看到了,DeepSeek发生了什么。世界上第一个开源的推理模型,这太不可思议了,因为R1变成了开源的,全球都因此而充满了能量,真是不可思议。
访问者:
Why do people think this could be a bad thing?I think it‘s a wonderful thing.
为什么人们认为这可能是一件坏事呢?我认为这是一件美好的事情。
黄仁勋:
Well,first of all,I think from an investor from an investor perspective,there was a mental model that,the world was pretraining, and then inference.And inference was,you ask an AI question and it instantly gives you an answer,one shot answer.
I don‘t know whose fault it is,but obviously that paradigm is wrong.The paradigm is pre training,because we want to have foundation you need to have a basic level of foundational understanding of information.In order to do the second part which is post training.So pretraining is continue to be rigorous.
The second part of it and this is the most important part actually of intelligence is we call post training,but this is where you learn to solve problems.You have foundational information.You understand how vocabulary works and syntax work and grammar works,and you understand how basic mathematics work,and so you take this foundational knowledge you now have to apply it to solve problems.
首先,我认为从投资者的角度来看,过去存在一种思维模型是,世界是预先训练好的,然后是推理。推理就是你问AI一个问题,它立即给你一个答案,一次性回答。我不知道这是谁的错,但显然这种模式是错误的。
正确的模式应该是先进行预训练,因为我们想要有一个基础,你需要对信息有一个基本的理解水平,以便进行第二个部分,也就是后期训练。所以预训练要继续保持严谨。第二部分实际上是智能最重要的部分,我们称之为后训练,但这是你学习解决问题的地方,你已经掌握了基础知识,你明白词汇是如何工作的,句法是如何工作的,语法是如何工作的,你明白了基本数学是如何工作的,所以你现在必须应用这些基础知识来解决实际问题……
So there‘s a whole bunch of different learning paradigms that are associated with post training,and in this paradigm,the technology has evolved tremendously in the last 5 years and computing needs is intensive.And so people thought that oh my gosh,pretraining is a lot less,they forgot that post training is really quite intense.
因此后训练有一系列很多不同的学习模式,在这种模式下,技术在过去五年里取得了巨大的进步,计算需求非常大,所以人们认为,哦天那,预训练要少得多。但是他们忘记了后训练其实相当大。
And then now the 3rd scaling law is ,the more reasoning that you do,the more thinking that you do before you answer a question.And so reasoning is a fairly compute intensive part of.And so I think the market responded to R1 as ‘oh my gosh AI is finished’,you know it dropped out of the sky ,we don‘t need to do any computing anymore.It’s exactly the opposite.
现在第三条缩放定律是,你做的推理越多,你在回答问题之前思考得越多,推理就会越好,这是一个计算量相当大的过程。因此我认为市场对R1的反应是“哦我的天哪,AI到头了“,就好像它从天而降,我们不再需要进行任何计算了,但实际上完全相反。
来源:华尔街见闻
德意志银行总结了三点趋势,一是认知工作将迎来革命性变革,经验最少和最丰富的人群可能从中受益,而中间层次将会挣扎;二是高端芯片需求将持续攀升;三是AI自我改进能力进一步提升。
DeepSeek大模型爆火,这一模型不仅展示了AI技术的最新进展,更揭示了AI领域一些但尚未被充分认识的重要趋势。
试用了Deep Research后,德意志银行在2月12日的报告中总结了三点:
- 认知工作将迎来革命性变革,经验最少和最丰富的人群可能从中受益,而中间层次将会挣扎;
- 高端芯片需求将持续攀升;
- AI自我改进能力进一步提升;
一、认知工作将迎来革命性变革
德银表示,随着AI深度研究技术的发展,人类的认知工作方式将发生显著变化:
人类将更多地专注于向AI提出恰当问题,并运用判断力评估和迭代AI的回答,大部分认知过程将被转移给AI系统。
经验最少和最丰富的人群可能从中受益,而中间层次的人才可能面临价值增加的挑战。
然而,这种变革也带来潜在风险:人类可能逐渐失去从第一原则处理信息并做出复杂判断的能力。
二、高端芯片需求将持续攀升
进一步来看,德银表示,尽管DeepSeek的出现曾一度引发市场对高端芯片需求减少的误解,但事实恰恰相反:
DeepSeek技术表明,计算能力的需求将持续增长。AI工具正在向两个方向发展:一是可在手机上运行的小语言模型,二是需要云端支持的大语言模型。企业和科研机构对计算能力的密集需求,加上国家安全考虑,可能推动芯片领域的投资正向循环。
三、AI自我改进能力进一步提升
德银还指出,DeepSeek模型展示了AI系统在结合推理能力和工具使用方面的进步:
新模型能够将任务分解为步骤,而不是简单地逐字输出,它还具备使用长期工作记忆和互联网搜索等工具的能力。这些进展使AI更接近于自我改进和自我编码的目标,为未来可能出现的人工通用智能(AGI)铺平道路。
例如,在德银的测试中,DeepSeek花了八分钟生成了一份9000字的报告,引用了22个来源(带链接),评估了新的美国钢铁和铝关税的影响。它并不完美,但会随着迭代而改进,并且在分析、相关性和清晰度方面比标准的ChatGPT响应有显著提升。
此外,AI业界纷纷推出深度研究工具,OpenAI最新推出的深度研究工具在基准测试中表现出色,在极其困难的人类终极考试(HLE)中得分达26.6%,是前代产品的两倍多。有报告称,这一水平已接近博士级别。
值得注意的是,开源社区也在积极响应。据路透社消息,Hugging Face的研究人员在OpenAI发布其深度研究工具后的一天内,就推出了名为Open Deep Research的开源版本。虽然性能尚未达到OpenAI模型的水平,但在多步骤任务中已展现出色表现。
德银表示,尽管当前的深度研究工具仍处于早期阶段,但它们在分析能力、相关性判断和表述清晰度方面已经显著超越了标准的ChatGPT响应。随着底层大语言模型的不断改进,这些工具有望在未来突破简单重复他人想法的局限,真正实现全新概念的生成。
交易股票、货币、商品、期货、债券、基金等金融工具或加密货币属高风险行为,这些风险包括损失您的部分或全部投资金额,所以交易并非适合所有投资者。
做出任何财务决定时,应该进行自己的尽职调查,运用自己的判断力,并咨询合格的顾问。本网站的内容并非直接针对您,我们也未考虑您的财务状况或需求。本网站所含信息不一定是实时提供的,也不一定是准确的。本站提供的价格可能由做市商而非交易所提供。您做出的任何交易或其他财务决定均应完全由您负责,并且您不得依赖通过网站提供的任何信息。我们不对网站中的任何信息提供任何保证,并且对因使用网站中的任何信息而可能造成的任何交易损失不承担任何责任。
未经本站书面许可,禁止使用、存储、复制、展现、修改、传播或分发本网站所含数据。提供本网站所含数据的供应商及交易所保留其所有知识产权。