2023年11月13日金融快訊Market Briefing
英偉達週一推出了H200,這是一款圖形處理單元,旨在訓練和部署各種人工智能模型,為生成式人工智能熱潮提供動力。新的GPU是H100的升級版,H100是OpenAI用於訓練其最先進的大型語言模型GPT-4的晶片。目前,大公司、新創公司和政府機構都在爭奪有限的晶片供應。
根據Raymond James的估計,H100晶片的成本在25,000美元到40,000美元之間,需要數千個晶片一起工作才能在稱為訓練的過程中創建最大的模型。對Nvidia人工智能GPU的興奮推動了該公司股價的上漲,截至2023年,該公司股價已上漲超過 230%。Nvidia預計第三財季營收約為160億美元,比去年同期成長170%。
H200的關鍵改進在於它包含141GB的下一代“HBM3”內存,這將幫助晶片執行“推理”,或者在經過訓練後使用大型模型來生成文字、圖像或預測。Nvidia表示,H200的輸出速度幾乎是H100的兩倍。H200預計2024年第二季出貨,將與AMD的MI300X GPU競爭。AMD的該晶片與H200類似,比其前代晶片具有額外的內存,這有助於在硬體上安裝大型模型來運行推理。Nvidia表示,H200將與H100相容,這意味著已經使用先前模型進行訓練的人工智能公司將無需更改其伺服器系統或軟體即可使用新版本。
此外,Nvidia將在該公司的HGX完整系統上提供四GPU或八GPU伺服器配置,以及名為GH200的晶片,該晶片將H200 GPU與基於Arm的處理器配對。然而,H200可能不會長期保持最快Nvidia AI晶片的桂冠。
雖然像Nvidia這樣的公司提供了許多不同的晶片配置,但當製造商轉向不同的架構時,新的半導體通常會每兩年向前邁出一大步,這種架構比添加記憶體或其他較小的優化能帶來更顯著的效能提升。H100和H200皆基於Nvidia的Hopper架構。今年10月份,Nvidia曾公開表示,由於對其GPU的需求旺盛,該公司將從兩年架構節奏轉向一年發布模式。該公司展示了一張幻燈片,暗示其將於2024年宣布並發布基於即將推出的Blackwell架構的B100晶片。
在如此動蕩的金融市場中,你會選擇怎樣投資?
一起深入了解資深投資者的美股交易策略。在投入股市之前,多認識美股市場,才可提高投資回報率。關注狂呼“個股分析”欄目,緊密跟蹤美股走勢,尋找更多投資機會。
點擊此處了解更多