①英偉達(dá)高管對(duì)外透露,全新一代Blackwell架構(gòu)人工智能GPU芯片B200預(yù)計(jì)將在今年晚些時(shí)候首批交付,售價(jià)預(yù)計(jì)在3萬(wàn)至4萬(wàn)之間。 ②英偉達(dá)的最大客戶(hù)之一——Meta也表示,公司將快速將其應(yīng)用于訓(xùn)練公司的最新人工智能模型Llama。
財(cái)聯(lián)社3月20日訊(編輯 劉蕊)在英偉達(dá)最新發(fā)布全新一代Blackwell架構(gòu)人工智能GPU芯片B200之后,英偉達(dá)的最大客戶(hù)之一——Meta就迫不及待地宣布,公司預(yù)計(jì)將在今年晚些時(shí)候收到Blackwell新品,并將其快速將其應(yīng)用于訓(xùn)練公司的最新人工智能模型Llama。
周二晚些時(shí)候,英偉達(dá)高管也對(duì)外透露,這一產(chǎn)品預(yù)計(jì)將在今年晚些時(shí)候首批交付,售價(jià)預(yù)計(jì)在3萬(wàn)至4萬(wàn)之間。
Meta:將使用B200訓(xùn)練AI模型
美東時(shí)間周一,英偉達(dá)在每年一度的GTC 2024大會(huì)上上宣布了全新一代Blackwell架構(gòu)人工智能GPU芯片——B200。據(jù)英偉達(dá)CEO黃仁勛介紹,B200芯片集成有2080億個(gè)晶體管,是上一代芯片800億個(gè)晶體管的2.6倍,在處理給聊天機(jī)器人提供答案等任務(wù)時(shí),B200芯片的速度比上一代芯片快30倍。
隨后,F(xiàn)acebook母公司Meta平臺(tái)的一位發(fā)言人便表示,該公司預(yù)計(jì)將在今年晚些時(shí)候收到首批英偉達(dá)的Blackwell新品。
社交媒體巨頭Meta是英偉達(dá)最大的客戶(hù)之一,此前該公司已經(jīng)購(gòu)買(mǎi)了數(shù)十萬(wàn)顆英偉達(dá)上一代芯片H100,以支持其升級(jí)內(nèi)容推薦系統(tǒng)和生成式人工智能產(chǎn)品。
今年1月,Meta首席執(zhí)行官馬克·扎克伯格曾透露,該公司計(jì)劃在今年年底前儲(chǔ)備約35萬(wàn)枚H100芯片。他補(bǔ)充說(shuō),與其他GPU相結(jié)合,到那時(shí)Meta將擁有相當(dāng)于大約60萬(wàn)個(gè)H100的處理器。
美東時(shí)間周一,在英偉達(dá)發(fā)布B200芯片后,扎克伯格發(fā)布聲明稱(chēng),Meta計(jì)劃使用Blackwell產(chǎn)品來(lái)訓(xùn)練該公司的Llama模型。
Meta上周宣布,它擁有兩個(gè)“數(shù)據(jù)中心級(jí)”的GPU集群,據(jù)稱(chēng)每個(gè)集群包含約24000個(gè)H100 GPU,Meta目前正在這兩個(gè)GPU集群上訓(xùn)練第三代AI模型。
Meta發(fā)言人表示,Meta計(jì)劃繼續(xù)使用這些集群來(lái)訓(xùn)練Llama 3,并將在未來(lái)幾代AI模型的訓(xùn)練中使用Blackwell產(chǎn)品。
英偉達(dá)B200預(yù)計(jì)年內(nèi)發(fā)貨 定價(jià)3萬(wàn)至4萬(wàn)美元
美東時(shí)間周二,英偉達(dá)首席財(cái)務(wù)官科萊特·克雷斯(Colette Kress)對(duì)投資者透露:“我們認(rèn)為我們將在今年晚些時(shí)候首批交付”,但也表示,要等到2025年才會(huì)大批量供應(yīng)。
此外,英偉達(dá)CEO黃仁勛也在周二向媒體透露,Blackwell新品的售價(jià)將在3萬(wàn)美元至4萬(wàn)美元之間。他預(yù)計(jì),英偉達(dá)在研發(fā)成本上花費(fèi)了大約100億美元。
這意味著B(niǎo)200等新品可能將大受歡迎,因?yàn)槠淝按a(chǎn)品H100的定價(jià)約在2.5萬(wàn)-4萬(wàn)美元之間,而新產(chǎn)品的性能遠(yuǎn)超前代。
黃仁勛昨日在GTC會(huì)議發(fā)表演講時(shí)舉例稱(chēng),如果要訓(xùn)練一個(gè)1.8萬(wàn)億參數(shù)量的GPT模型,需要8000張Hopper GPU,消耗15兆瓦的電力,連續(xù)跑上90天。但如果使用GB200 Blackwell GPU,只需要2000張,同樣跑90天只消耗四分之一的電力。不只是訓(xùn)練,生成Token的成本也會(huì)隨之顯著降低。