2023年11月13日金融快讯Market Briefing
英伟达周一推出了H200,这是一款图形处理单元,旨在训练和部署各种人工智能模型,为生成式人工智能热潮提供动力。新的GPU是H100的升级版,H100是OpenAI用于训练其最先进的大型语言模型GPT-4的晶片。目前,大公司、新创公司和政府机构都在争夺有限的晶片供应。
根据Raymond James的估计,H100晶片的成本在25,000美元到40,000美元之间,需要数千个晶片一起工作才能在称为训练的过程中创建最大的模型。对Nvidia人工智能GPU的兴奋推动了该公司股价的上涨,截至2023年,该公司股价已上涨超过230%。 Nvidia预计第三财季营收约为160亿美元,比去年同期成长170%。
H200的关键改进在于它包含141GB的下一代“HBM3”内存,这将帮助晶片执行“推理”,或者在经过训练后使用大型模型来生成文字、图像或预测。 Nvidia表示,H200的输出速度几乎是H100的两倍。 H200预计2024年第二季出货,将与AMD的MI300X GPU竞争。 AMD的该晶片与H200类似,比其前代晶片具有额外的内存,这有助于在硬体上安装大型模型来运行推理。 Nvidia表示,H200将与H100相容,这意味着已经使用先前模型进行训练的人工智能公司将无需更改其伺服器系统或软体即可使用新版本。
此外,Nvidia将在该公司的HGX完整系统上提供四GPU或八GPU伺服器配置,以及名为GH200的晶片,该晶片将H200 GPU与基于Arm的处理器配对。然而,H200可能不会长期保持最快Nvidia AI晶片的桂冠。
虽然像Nvidia这样的公司提供了许多不同的晶片配置,但当制造商转向不同的架构时,新的半导体通常会每两年向前迈出一大步,这种架构比添加记忆体或其他较小的优化能带来更显著的效能提升。 H100和H200皆基于Nvidia的Hopper架构。今年10月份,Nvidia曾公开表示,由于对其GPU的需求旺盛,该公司将从两年架构节奏转向一年发布模式。该公司展示了一张幻灯片,暗示其将于2024年宣布并发布基于即将推出的Blackwell架构的B100晶片。
在如此动荡的金融市场中,你会选择怎样投资?
一起深入了解资深投资者的美股交易策略。在投入股市之前,多认识美股市场,才可提高投资回报率。关注狂呼“个股分析”栏目,紧密跟踪美股走势,寻找更多投资机会。
点击此处了解更多