亚洲精品成人福利网站,无码伊人66久久大杳蕉网站谷歌,亚洲变态另类天堂av手机版,性猛交富婆╳xxx乱大交小说,无码精品国产va在线观看dvd

媒體界 - 推動(dòng)中國(guó)媒體行業(yè)創(chuàng)新,促進(jìn)業(yè)內(nèi)人士交流分享!

黃仁勛GTC回應(yīng)DeepSeek沖擊:英偉達(dá)GPU算力王座依舊穩(wěn)固?

   發(fā)布時(shí)間:2025-03-20 22:52 作者:陸辰風(fēng)

在科技界的聚光燈下,英偉達(dá)創(chuàng)始人黃仁勛于GTC 2025大會(huì)上再度亮相,身著標(biāo)志性的皮衣,風(fēng)采不減當(dāng)年。盡管近期英偉達(dá)股價(jià)遭遇重創(chuàng),跌至十年谷底,但黃仁勛對(duì)自家最新GPU的信心并未動(dòng)搖。

回想起今年2月,AI領(lǐng)域迎來(lái)了一場(chǎng)震撼——DeepSeek橫空出世。這個(gè)由中國(guó)團(tuán)隊(duì)打造的產(chǎn)品,僅憑少量低端GPU(以A100為主),通過(guò)蒸餾現(xiàn)有超大模型,便實(shí)現(xiàn)了高端GPU(如H100)級(jí)別的性能。這一突破,無(wú)疑對(duì)“Scaling Law”(規(guī)模定律)的傳統(tǒng)觀念造成了巨大沖擊,該定律曾認(rèn)為模型參數(shù)量、數(shù)據(jù)集和訓(xùn)練成本越多越好。過(guò)去,谷歌、meta、微軟等科技巨頭紛紛斥巨資采購(gòu)H100芯片,試圖以算力決勝未來(lái)。然而,DeepSeek的出現(xiàn)似乎讓這一切變得不再必要。

一時(shí)間,關(guān)于DeepSeek或?qū)⒔K結(jié)英偉達(dá)時(shí)代的言論甚囂塵上,尤其在海外社交媒體上,這一觀點(diǎn)被迅速傳播和發(fā)酵。有網(wǎng)友直言,英偉達(dá)的一切即將開(kāi)始瓦解。在此背景下,英偉達(dá)的股價(jià)頻繁遭遇重創(chuàng),單日跌幅13%、17%成為常態(tài)。

然而,也有另一種聲音認(rèn)為,從長(zhǎng)遠(yuǎn)來(lái)看,DeepSeek的成功反而可能對(duì)英偉達(dá)構(gòu)成利好。雖然DeepSeek揭示了通過(guò)蒸餾超大模型來(lái)訓(xùn)練高性能大模型的方法,降低了對(duì)H100等高性能芯片的需求,但并未完全擺脫對(duì)計(jì)算卡的依賴。A100計(jì)算卡,同樣是英偉達(dá)的產(chǎn)品。隨著玩家門檻的降低,更多玩家涌入市場(chǎng),算力需求總量仍將上升。要蒸餾現(xiàn)有超大模型,首先需要有高性能的超大模型存在,這仍然需要H100等計(jì)算卡集群進(jìn)行訓(xùn)練。因此,兩種觀點(diǎn)各有千秋。

在萬(wàn)眾矚目的GTC 2025大會(huì)上,黃仁勛終于親自回應(yīng)了DeepSeek帶來(lái)的沖擊。他首先高度評(píng)價(jià)了DeepSeek R1模型,稱其為“卓越的創(chuàng)新”和“世界級(jí)的開(kāi)源推理模型”,并表示不理解為何人們會(huì)將DeepSeek視為英偉達(dá)的末日。

針對(duì)Scaling Law是否撞墻的討論,黃仁勛給出了自己的見(jiàn)解。他對(duì)Scaling Law進(jìn)行了迭代更新,將其細(xì)分為PRE-TRAINING SCALING、POST-TRAINING SCALING和TEST-TIME SCALING三個(gè)部分。他認(rèn)為,隨著AI進(jìn)入不同階段,對(duì)Scaling的需求不斷提高。目前,AI正處于代理人工智能階段,由于推理模型和AI代理的爆發(fā),對(duì)算力的需求更加迫切。

黃仁勛強(qiáng)調(diào),token是背后的關(guān)鍵。以推理模型為例,模型進(jìn)行推理時(shí),token的消耗急劇增加。他指出,不僅需要提升token的吞吐量十倍,還需要過(guò)去十倍的算力來(lái)提升token的輸出速度,最終需要的算力是之前的100倍。相比傳統(tǒng)的生成式模型,如ChatGPT,推理模型如DeepSeek R1會(huì)有一連串的推理過(guò)程,消耗更多的算力和token。因此,推理模型的推理過(guò)程需要展示出來(lái),不僅因?yàn)橛脩艨梢詮耐评磉^(guò)程中介入修正答案,還因?yàn)橥评磉^(guò)程消耗了token,是真金白銀的付出。

黃仁勛還通過(guò)對(duì)比傳統(tǒng)模型Llama 3.3 70B與DeepSeek R1 671B在處理復(fù)雜問(wèn)題時(shí)的token消耗,進(jìn)一步證明了其觀點(diǎn)。Llama 3.3 70B消耗了400多個(gè)token但結(jié)果不可用,而DeepSeek R1雖然結(jié)果完美,但消耗了高達(dá)8559個(gè)token。

事實(shí)上,在高token消耗時(shí)代,英偉達(dá)的GPU銷量反而更加迅猛。OpenAI、馬斯克旗下的xAI、meta以及國(guó)內(nèi)的阿里、小米、騰訊等公司紛紛加大算力投入,背后的顯卡供應(yīng)商主要來(lái)自英偉達(dá)。在個(gè)人本地部署領(lǐng)域,盡管DeepSeek R1降低了訓(xùn)練算力需求,但推理模型對(duì)算力的要求依然不低。以RTX 4080為例,在部署DeepSeek R1蒸餾模型時(shí),推理速度較慢,需要更高配置的硬件才能提升效率。

然而,黃仁勛在GTC 2025大會(huì)上頻繁提及token,甚至被媒體調(diào)侃為“販賣token焦慮”。自新年以來(lái),英偉達(dá)市值下跌近30%,黃仁勛在發(fā)布會(huì)上的表現(xiàn)更像是一個(gè)絮絮叨叨的金牌銷售,而非技術(shù)大拿或全球最牛公司的CEO。盡管他的邏輯看似合理,但如此頻繁地重復(fù),讓人不禁覺(jué)得英偉達(dá)有些歇斯底里。

英偉達(dá)現(xiàn)在缺乏的并非技術(shù)和產(chǎn)品,而是對(duì)消費(fèi)者的誠(chéng)意。在GPU領(lǐng)域,英偉達(dá)一騎絕塵,但真正的挑戰(zhàn)在于如何贏得消費(fèi)者的信任和忠誠(chéng)。盡管黃仁勛試圖通過(guò)販賣token焦慮來(lái)重塑市場(chǎng)對(duì)英偉達(dá)的信心,但真正的考驗(yàn)在于英偉達(dá)能否拿出更多令人信服的產(chǎn)品來(lái)回應(yīng)市場(chǎng)的期待。

 
 
更多>同類內(nèi)容
全站最新
熱門內(nèi)容
本欄最新