网页客服,欢迎咨询
联系我们
      工作时间
  • 周一至周五:09:00-17:30
  • 周六至周日:10:00-16:00
谁拥有最多的H100?第一名遥遥领先,第二名有争议!
2024-04-09 19:36:40 185701
  • 收藏
  • 管理

    (原标题:谁拥有最多的H100?第一名遥遥领先,第二名有争议!)

    如果您希望可以时常见面,欢迎标星收藏哦~

    来源:内容来自半导体行业观察(ID:icbank)综合,谢谢。

    特斯拉和埃隆·马斯克专注于人工智能的企业 xAI 共同储备了大量 NVIDIA H100 GPU,前者致力于永久破解 5 级自动驾驶难题,而后者则试图实现马斯克“最大程度”的愿景——寻求真相的人工智能。


    X 帐户“The Technology Brother”最近发布消息称,马克·扎克伯格的 Meta 现已积累了世界上最大的 H100 GPU 储备之一,数量约为 35 万个。然而,马斯克对该表中特斯拉和 xAI 的排名持例外态度,他指出,“如果测量正确,特斯拉将排名第二,X/xAI 将排名第三。”


    假设其他条件保持不变,这意味着特斯拉现在拥有 30,000 至 350,000 台 NVIDIA H100 GPU。另一方面,xAI 目前可能拥有 26,000 至 30,000 块 NVIDIA 专注于 AI 的显卡。

    早在 1 月份,埃隆·马斯克 (Elon Musk) 就确认对 Tesla Dojo 超级计算机进行5 亿美元的新投资(相当于约 10,000 个 H100 GPU)时宣布,这家电动汽车巨头“今年在 NVIDIA 硬件上的支出将超过这一数字”,因为“在人工智能领域具有竞争力”“目前每年至少有数十亿美元”。

    请记住,xAI 在 2023 年购买了大约10,000 块NVIDIA GPU,马斯克从 DeepMind、OpenAI、谷歌研究院、微软研究院、特斯拉和多伦多大学聘请了人才,从头开始打造他的人工智能企业。不过,可以合理地推断,这些购买很可能与 A100 GPU 有关。从那时起,从马斯克最新的 X 帖子中可以推断,xAI 似乎也积累了大量 H100 GPU。

    当然,考虑到人工智能领域的创新步伐,这些 H100 GPU 很快就会过时。早在三月份,NVIDIA 就发布了GB200 Grace Blackwell Superchip,将一个基于 Arms 的 Grace CPU 与两个 Blackwell B100 GPU 结合在一起。该系统可以部署具有27 万亿个参数的 AI 模型,预计在执行聊天机器人提供答案等任务时速度将提高30 倍。

    卖爆了的H100,终于冷下来了?

    今年二月,分析公司 UBS 在给客户的一份新报告中表示,用于人工智能应用的 Nvidia广受欢迎的 H100 80GB GPU的交付时间(等待时间) 已从 8-11 个月缩短 至仅 3-4 个月。该公司表示,这种转变表明近期增长可能达到峰值,但也可能预示着英伟达未来增长前景面临麻烦。不过,瑞银仍上调了对英伟达的展望,将盈利预测和目标价上调至850美元。

    交货时间的缩短是一把双刃剑。一方面,这表明英伟达的生产合作伙伴台积电(或其芯片封装分包商)正在扩大其CoWoS封装产能(这限制了H100和其他用于AI应用的先进处理器的供应),这意味着更好的供应和更快的速度履行订单。这种效率可能会带来短期收入和利润的增长,因为公司可以在更短的时间内运送更多产品。另一方面,随着交货时间接近零,英伟达将从根据积压订单和新订单发货转变为仅根据新订单发货,这可能会导致收入下降。

    台积电表示,将在 2023 年底之前扩大 CoWoS 产能,并在 2024 年底之前将产能在 2023 年中期的基础上翻一番。也许台积电或其 OSAT 合作伙伴之一的 CoWoS 产能扩张进展速度快于预期,导致 H100 交货时间缩短.

    另一方面, 由于美国的限制,现在 Nvidia 无法向中国运送功能齐全的 H100,据报道导致中国的需求下降,它可能只是有大量的“备用”H100 芯片可以运送到其他地方。尽管中国占英伟达收入的很大一部分,但尚不清楚出货量的减少是否会导致 H100 的交货时间从 8-11 个月缩短至仅 3-4 个月。

    据The Information 报道,由于稀缺性下降以及维护未使用库存的成本高昂,一些公司正在转售 H100 GPU 或减少订单。这标志着与去年相比的重大转变,当时获得 Nvidia 的 Hopper GPU 是一项重大挑战。据The Information 报道,尽管芯片可用性有所提高,交货时间也显着缩短,但人工智能芯片的需求仍然超过供应,特别是对于那些培训自己的法学硕士(例如 OpenAI)的人来说 。

    AI 处理器短缺的缓解部分归因于 AWS 等云服务提供商 (CSP) 使得租用 Nvidia 的 H100 GPU 变得更加容易。例如,AWS 推出了一项新服务,允许客户安排较短期限的 GPU 租赁,解决了以前的芯片可用性和位置问题。报告称,这导致人工智能芯片的需求和等待时间减少。

    尽管 H100 可用性总体有所改善,但开发自己的法学硕士的公司仍然面临供应限制,很大程度上是因为他们需要数以万计、数十万个 GPU。访问训练LLM所需的大型 GPU 集群仍然是一个挑战,一些公司面临几个月的延迟才能收到所需的处理器或容量。因此,Nvidia的H100和其他处理器的价格并未下降,该公司继续享有高利润率。

    市场目前预计 Nvidia 将持续增长,预计到 2026 年 1 月收入不会出现季度环比下降。然而,交货时间的迅速缩短表明这种增长可能会更快地冷却下来,可能在未来两到三年内宿舍。分析师指出,这种情况并未反映在该股目前的估值中,该估值假设增长不间断。

    英伟达人工智能处理器可用性的增加也导致了买家行为的转变。公司在购买或租赁时变得更加注重价格和选择性,寻找更小的 GPU 集群并关注其业务的经济可行性。

    人工智能行业的增长不再像去年那样受到芯片供应限制的阻碍。Nvidia 处理器的替代品(例如 AMD 或 AWS 的处理器)正在获得性能和软件支持。再加上人工智能处理器上的支出更加谨慎,可能会导致市场更加平衡。

    与此同时,对人工智能芯片的需求仍然强劲,随着LLM变得越来越大,需要更高的计算性能,这就是为什么据报道 OpenAI 的 Sam Altman 试图筹集大量资金来建造更多工厂来生产人工智能处理器的原因。

    尽管英伟达的增长可能会放缓,但值得注意的是,整体人工智能能力将继续扩大。Nvidia 的出货量将有助于 GPU 安装基础的不断增长,而其他竞争对手也将推动这一增长。因此,尽管英伟达的连续增长可能面临挑战,但更广泛的人工智能行业将继续前进。

    https://www.tomshardware.com/tech-industry/artificial-intelligence/wait-times-for-nvidias-ai-gpus-eases-to-three-to-four-months-suggesting-peak-in-near-term-growth-the-wait-list-for-an-h100-was-previously-eleven-months-ubs

    https://wccftech.com/tesla-now-likely-has-between-30000-and-350000-units-of-nvidia-h100-gpu-while-elon-musks-xai-also-owns-a-sizable-stash-of-the-high-performance-gpu/

    点这里加关注,锁定更多原创内容

    *免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。

    今天是《半导体行业观察》为您分享的第3730期内容,欢迎关注。

    『半导体第一垂直媒体』

    实时 专业 原创 深度

    公众号ID:icbank

    喜欢我们的内容就点“在看”分享给小伙伴哦



    上一页:精选足篮专家:龙珠推球豪取10连红 鬼谷子连中8场 下一页:足彩彩果:国米2-1乌迪内斯 阿青年爆4.8倍冷负
    全部评论(0)