四虎AV成人在线观看|免费免费特黄的欧美大片|人妻丝袜中文字幕一区三区|性爱一级二级三级|日本黄色视频在线观看免费|亚洲午夜天堂超碰大香蕉中出|国产日韩三级黄色AV一区二区三区|a片网站在线观看视频|人人AV播放日韩操在线|国产伦清品一区二区三区

正在閱讀:

面對芯片折舊,市場不淡定了

掃一掃下載界面新聞APP

面對芯片折舊,市場不淡定了

一塊AI芯片的真實“壽命“究竟是多久?芯片折舊是不是未來引爆AI泡沫的雷點?科技巨頭有沒有為了美化利潤表而“撒謊“?

文|半導體產業(yè)縱橫

曾因精準預測2008年次貸危機而聞名的“大空頭”邁克爾·伯里(Michael Burry),近日把矛頭對準了AI賽道。確切地說,是AI芯片的折舊問題。

伯里發(fā)文稱,那些所謂的“超大規(guī)模算力服務商”,正在通過延長芯片折舊年限、壓低折舊費用,人為放大AI熱潮帶來的賬面利潤。這種操作被他稱為“現(xiàn)代財報中最常見的欺詐之一”。

他估算,從2026年至2028年,這種會計處理方式可能導致整個行業(yè)低估約1760億美元的折舊支出。他特別點名甲骨文和Meta,預測到2028年,兩者的利潤可能分別被高估約27%和21%。

此言一出,頓時引起了巨大關注,又恰逢近期人工智能泡沫論風頭正勁,眾多媒體、分析師、公司高管紛紛對關于芯片折舊以及由此延申出來的科技巨頭資本支出問題發(fā)表了看法。

那么,一塊AI芯片的真實“壽命“究竟是多久?芯片折舊是不是未來引爆AI泡沫的雷點?科技巨頭有沒有為了美化利潤表而“撒謊“?

這次,答案真的關乎萬億美元市場。

01、芯片折舊期,存在分歧

要理解這場爭論的核心,首先需要厘清“折舊”在AI數據中心語境下的具體含義及其對財務報表的巨大影響。

折舊(Depreciation)是會計學中將固定資產成本分攤到其預期使用壽命內的做法。對于動輒數萬美元的AI芯片,企業(yè)不會在購買當年將其成本一次性計入費用,而是根據預估的“使用壽命”逐年攤銷。

這個“使用壽命”的設定,具有極大的財務杠桿效應。在總投入不變的情況下,折舊年限越長,每年分攤的折舊費用就越低,當期的凈利潤數據就越好看。反之,如果折舊年限縮短,當期利潤將承受巨大的成本壓力。

而在過去兩年中,隨著AI資本支出的激增,全球科技巨頭們不約而同地采取了延長服務器資產使用壽命的會計策略:

  • 微軟:在2022年將其服務器和網絡設備的使用壽命從四年延長到了六年。
  • 谷歌:在2023年采取了類似舉措,將服務器折舊年限延長至六年。
  • 甲骨文:在2024年將服務器使用壽命從五年延長到了六年。
  • Meta:今年一月,Meta宣布將其服務器預計使用壽命從五年延長到了五年半。Meta在財報中明確估算,僅此一項調整,就將使其2025年的折舊費用減少29億美元,從而直接增加了同等規(guī)模的賬面利潤。

然而,在巨頭陣營中也出現(xiàn)了“異類”。 亞馬遜曾在2024年將服務器使用壽命從五年延長到了六年,又在今年將部分服務器設備的使用年限從六年縮短至五年,并公開承認原因是觀察到“技術發(fā)展速度加快,尤其是在人工智能和機器學習領域”。

不過,在許多人看來,即使是縮短后的五年也顯得過于樂觀,而如此樂觀的估計隱藏著巨大風險。據分析,如果以上五個云巨頭的服務器在三年內,而不是各公司假設的年限內失去價值,它們的年度稅前利潤總和將減少260億美元,即去年總利潤的8%。

而按照這五家公司目前的市值與稅前利潤之比計算,這將導致其總價值縮水7800億美元。如果重新計算,假設服務器折舊期為兩年而不是三年,縮水規(guī)模將升至1.6萬億美元。

那么,問題就變成了,多少年的芯片折舊期,才是合理的?

02、芯片“壽命”,比想象中要短?

那些認為算力服務商芯片折舊期估計過于樂觀的人,有如下的觀點:

首先是高強度的物理損耗。據谷歌一位GenAI架構師透露,數據中心GPU幾乎承擔了AI訓練和推理的全部負載,其性能下降速度比其他任何組件都快。在云巨頭數據中心常見的60%到70%的高利用率下,GPU的壽命被縮短至一到兩年,最多三年。

這一觀點得到了Meta公司研究數據的側面印證。Meta在描述其使用Nvidia H100 GPU訓練Llama 3模型時披露,即便在僅約38%的利用率下,由GPU故障(包括NVLink)和HBM3高帶寬內存故障(HBM通常集成在GPU上)導致的訓練中斷,合計占總故障的47.3%。有分析推論,若將利用率提升至行業(yè)常見的60%-70%,其故障率可能顯著增加。這表明,在AI訓練中最重要的組件,GPU,同時也是最“脆弱”的。高強度的訓練會導致頻繁的硬件不穩(wěn)定和維護需求,大幅增加了運維成本,降低了資產的有效產出率。

其次,是來自更先進芯片的技術淘汰。英偉達已將其產品迭代周期從兩年縮短至一年,CEO黃仁勛在今年3月發(fā)布Blackwell芯片時也曾開玩笑般表示,“當Blackwell芯片開始量產時,Hopper芯片就無人問津了?!?/p>

AI芯片的生命周期更多時候不是由物理損耗決定,而是由技術迭代決定。谷歌TPU創(chuàng)始人之一、現(xiàn)Groq公司CEO Jonathan Ross的觀點更為激進。他表示,Groq正采用1年期的芯片攤銷,并直言那些采用3到5年攤銷期的人“完全錯了”。

最后一點是資產的“經濟壽命”。在數據中心電力容量成為核心瓶頸的當下,“每瓦特Token產出”成為衡量資產價值的關鍵指標。

一份以NVIDIA H100服務器為例的投資回報(ROI)測算表明:一臺搭載8卡H100的服務器,在2023年算力緊缺時,租賃價格高昂,僅需十多個月即可收回成本。然而,隨著2024年供給緩解和租賃價格下滑,當中期租價降至每卡1美元/小時,測算顯示,即使按100%售出率,5年總收入也無法覆蓋包含設備購置和運維電力在內的總成本,最終反而虧損。

邁克爾·伯里也在X發(fā)文表示:“A100每FLOP消耗的電力是H100的2-3倍,因此僅電力成本就比H100高2-3倍。而英偉達聲稱H100在推理方面的能效比Blackwell低25倍?!?/p>

由于新一代芯片(如Blackwell)能效比顯著提升,繼續(xù)運行能效較低的舊芯片意味著占用了寶貴的電力容量,產生了巨大的機會成本。這種由能效比驅動的經濟性淘汰,可能導致企業(yè)在物理壽命結束前提前退役舊硬件。

03、價值級聯(lián)與巨頭的支出合理性

然而,同樣也有分析認為,科技巨頭的較長芯片折舊期是合理的。其中代表性的觀點是,大型科技公司在其硬件運營中采用“價值級聯(lián)”模式,不會簡單淘汰過時的芯片。

所謂的“價值級聯(lián)”,是指巨頭們利用工作負載的多樣性,構建了一套硬件梯級利用體系。AI工作負載并非一成不變,而是分為對算力要求極高的“訓練”和相對寬容的“推理”。雖然訓練下一代基礎模型確實需要Blackwell這樣的最新芯片,但一旦進入推理階段,需求就發(fā)生了分化。

對于實時聊天機器人等延遲敏感型任務,依然需要較新的硬件;但對于海量的、對實時性要求不高但對成本敏感的吞吐量敏感型任務——如離線數據分析、文檔摘要、內容審核等——老舊芯片提供了極高的性價比。一臺完全折舊的A100,雖然單次響應速度不如新一代芯片,但在處理大規(guī)模批處理作業(yè)時,其極低的總擁有成本使其極具競爭力。這種“新三年、舊三年”的級聯(lián)模式,從根本上拉長了硬件的經濟壽命。

這種長周期模式有其過往數據的支持。微軟Azure的公開硬件退役政策顯示,其采用Nvidia K80、P100 GPU的虛擬機系列直到2023年才退役,實際服役時間長達7-9年;而計劃于2025年退役的V100系列,服役時間也接近7.5年。這證明在擁有豐富應用場景的巨頭內部,硬件的生命周期可以超過技術迭代周期。

同時,支撐這一長周期邏輯的,不僅僅是技術上的可行性,還有財務上對于產能的迫切需求。

巨頭們的巨額資本支出(CapEx)并非盲目投機,而是有著強勁的訂單支撐。據統(tǒng)計,在2022年二季度至2025年二季度的三年間,五大科技巨頭的“剩余履約義務”(RPO,即客戶已簽署、等待交付的合同訂單)增速高達90.7%,超過了同期資本支出(約64%)的增速。這表明AI算力處于供不應求的狀態(tài)。

微軟手握近4000億美元的積壓訂單,亞馬遜AWS的積壓訂單也達2000億美元。在履約壓力下,巨頭們必須進行大量投資。樂觀者認為,面對這種史無前例的CapEx高峰,采用更長的折舊年限,將巨額成本平滑到未來5-6年的經營中,是一種避免當期利潤產生災難性波動、穩(wěn)定投資者預期的合理財務策略。

04、結語

AI芯片折舊問題,實質上是技術加速迭代與資產管理模式之間的一次錯配。

一方面,英偉達的1年迭代周期快速壓縮了前沿芯片的性能壽命;另一方面,超大規(guī)模企業(yè)通過價值級聯(lián)模式和爆棚的訂單需求,試圖構建一個可以讓芯片服役6-7年的經濟閉環(huán)。

這兩種邏輯的博弈意味著,評估AI巨頭真實能力的指標,不能再單純依賴受會計估計影響顯著的“凈利潤”。有分析師建議,應回歸到企業(yè)的“經營性現(xiàn)金流”(CFO)本身。

只有那些能夠通過真實的業(yè)務需求消化掉天量算力,并產生強勁現(xiàn)金流覆蓋資本支出的企業(yè),才能驗證價值級聯(lián)模式的有效性,并最終穿越技術迭代的周期。

無論如何,巨頭之間瘋狂的算力競賽已經無法回頭。馬克·扎克伯格在Meta 2025年三季度財報電話會提到,最糟糕的情況不過是提前建設了未來幾年所需的資源。但與其受限于資本支出,讓核心業(yè)務原本可盈利卻無法投入,還不如加快算力投資的進程,確保公司擁有足夠的算力。

扎克伯格口中的“最糟糕的情況”會僅僅如此嗎,還是像“大空頭”所言,是一場足以席卷整個AI行業(yè)的風暴?

 
本文為轉載內容,授權事宜請聯(lián)系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

面對芯片折舊,市場不淡定了

一塊AI芯片的真實“壽命“究竟是多久?芯片折舊是不是未來引爆AI泡沫的雷點?科技巨頭有沒有為了美化利潤表而“撒謊“?

文|半導體產業(yè)縱橫

曾因精準預測2008年次貸危機而聞名的“大空頭”邁克爾·伯里(Michael Burry),近日把矛頭對準了AI賽道。確切地說,是AI芯片的折舊問題。

伯里發(fā)文稱,那些所謂的“超大規(guī)模算力服務商”,正在通過延長芯片折舊年限、壓低折舊費用,人為放大AI熱潮帶來的賬面利潤。這種操作被他稱為“現(xiàn)代財報中最常見的欺詐之一”。

他估算,從2026年至2028年,這種會計處理方式可能導致整個行業(yè)低估約1760億美元的折舊支出。他特別點名甲骨文和Meta,預測到2028年,兩者的利潤可能分別被高估約27%和21%。

此言一出,頓時引起了巨大關注,又恰逢近期人工智能泡沫論風頭正勁,眾多媒體、分析師、公司高管紛紛對關于芯片折舊以及由此延申出來的科技巨頭資本支出問題發(fā)表了看法。

那么,一塊AI芯片的真實“壽命“究竟是多久?芯片折舊是不是未來引爆AI泡沫的雷點?科技巨頭有沒有為了美化利潤表而“撒謊“?

這次,答案真的關乎萬億美元市場。

01、芯片折舊期,存在分歧

要理解這場爭論的核心,首先需要厘清“折舊”在AI數據中心語境下的具體含義及其對財務報表的巨大影響。

折舊(Depreciation)是會計學中將固定資產成本分攤到其預期使用壽命內的做法。對于動輒數萬美元的AI芯片,企業(yè)不會在購買當年將其成本一次性計入費用,而是根據預估的“使用壽命”逐年攤銷。

這個“使用壽命”的設定,具有極大的財務杠桿效應。在總投入不變的情況下,折舊年限越長,每年分攤的折舊費用就越低,當期的凈利潤數據就越好看。反之,如果折舊年限縮短,當期利潤將承受巨大的成本壓力。

而在過去兩年中,隨著AI資本支出的激增,全球科技巨頭們不約而同地采取了延長服務器資產使用壽命的會計策略:

  • 微軟:在2022年將其服務器和網絡設備的使用壽命從四年延長到了六年。
  • 谷歌:在2023年采取了類似舉措,將服務器折舊年限延長至六年。
  • 甲骨文:在2024年將服務器使用壽命從五年延長到了六年。
  • Meta:今年一月,Meta宣布將其服務器預計使用壽命從五年延長到了五年半。Meta在財報中明確估算,僅此一項調整,就將使其2025年的折舊費用減少29億美元,從而直接增加了同等規(guī)模的賬面利潤。

然而,在巨頭陣營中也出現(xiàn)了“異類”。 亞馬遜曾在2024年將服務器使用壽命從五年延長到了六年,又在今年將部分服務器設備的使用年限從六年縮短至五年,并公開承認原因是觀察到“技術發(fā)展速度加快,尤其是在人工智能和機器學習領域”。

不過,在許多人看來,即使是縮短后的五年也顯得過于樂觀,而如此樂觀的估計隱藏著巨大風險。據分析,如果以上五個云巨頭的服務器在三年內,而不是各公司假設的年限內失去價值,它們的年度稅前利潤總和將減少260億美元,即去年總利潤的8%。

而按照這五家公司目前的市值與稅前利潤之比計算,這將導致其總價值縮水7800億美元。如果重新計算,假設服務器折舊期為兩年而不是三年,縮水規(guī)模將升至1.6萬億美元。

那么,問題就變成了,多少年的芯片折舊期,才是合理的?

02、芯片“壽命”,比想象中要短?

那些認為算力服務商芯片折舊期估計過于樂觀的人,有如下的觀點:

首先是高強度的物理損耗。據谷歌一位GenAI架構師透露,數據中心GPU幾乎承擔了AI訓練和推理的全部負載,其性能下降速度比其他任何組件都快。在云巨頭數據中心常見的60%到70%的高利用率下,GPU的壽命被縮短至一到兩年,最多三年。

這一觀點得到了Meta公司研究數據的側面印證。Meta在描述其使用Nvidia H100 GPU訓練Llama 3模型時披露,即便在僅約38%的利用率下,由GPU故障(包括NVLink)和HBM3高帶寬內存故障(HBM通常集成在GPU上)導致的訓練中斷,合計占總故障的47.3%。有分析推論,若將利用率提升至行業(yè)常見的60%-70%,其故障率可能顯著增加。這表明,在AI訓練中最重要的組件,GPU,同時也是最“脆弱”的。高強度的訓練會導致頻繁的硬件不穩(wěn)定和維護需求,大幅增加了運維成本,降低了資產的有效產出率。

其次,是來自更先進芯片的技術淘汰。英偉達已將其產品迭代周期從兩年縮短至一年,CEO黃仁勛在今年3月發(fā)布Blackwell芯片時也曾開玩笑般表示,“當Blackwell芯片開始量產時,Hopper芯片就無人問津了?!?/p>

AI芯片的生命周期更多時候不是由物理損耗決定,而是由技術迭代決定。谷歌TPU創(chuàng)始人之一、現(xiàn)Groq公司CEO Jonathan Ross的觀點更為激進。他表示,Groq正采用1年期的芯片攤銷,并直言那些采用3到5年攤銷期的人“完全錯了”。

最后一點是資產的“經濟壽命”。在數據中心電力容量成為核心瓶頸的當下,“每瓦特Token產出”成為衡量資產價值的關鍵指標。

一份以NVIDIA H100服務器為例的投資回報(ROI)測算表明:一臺搭載8卡H100的服務器,在2023年算力緊缺時,租賃價格高昂,僅需十多個月即可收回成本。然而,隨著2024年供給緩解和租賃價格下滑,當中期租價降至每卡1美元/小時,測算顯示,即使按100%售出率,5年總收入也無法覆蓋包含設備購置和運維電力在內的總成本,最終反而虧損。

邁克爾·伯里也在X發(fā)文表示:“A100每FLOP消耗的電力是H100的2-3倍,因此僅電力成本就比H100高2-3倍。而英偉達聲稱H100在推理方面的能效比Blackwell低25倍?!?/p>

由于新一代芯片(如Blackwell)能效比顯著提升,繼續(xù)運行能效較低的舊芯片意味著占用了寶貴的電力容量,產生了巨大的機會成本。這種由能效比驅動的經濟性淘汰,可能導致企業(yè)在物理壽命結束前提前退役舊硬件。

03、價值級聯(lián)與巨頭的支出合理性

然而,同樣也有分析認為,科技巨頭的較長芯片折舊期是合理的。其中代表性的觀點是,大型科技公司在其硬件運營中采用“價值級聯(lián)”模式,不會簡單淘汰過時的芯片。

所謂的“價值級聯(lián)”,是指巨頭們利用工作負載的多樣性,構建了一套硬件梯級利用體系。AI工作負載并非一成不變,而是分為對算力要求極高的“訓練”和相對寬容的“推理”。雖然訓練下一代基礎模型確實需要Blackwell這樣的最新芯片,但一旦進入推理階段,需求就發(fā)生了分化。

對于實時聊天機器人等延遲敏感型任務,依然需要較新的硬件;但對于海量的、對實時性要求不高但對成本敏感的吞吐量敏感型任務——如離線數據分析、文檔摘要、內容審核等——老舊芯片提供了極高的性價比。一臺完全折舊的A100,雖然單次響應速度不如新一代芯片,但在處理大規(guī)模批處理作業(yè)時,其極低的總擁有成本使其極具競爭力。這種“新三年、舊三年”的級聯(lián)模式,從根本上拉長了硬件的經濟壽命。

這種長周期模式有其過往數據的支持。微軟Azure的公開硬件退役政策顯示,其采用Nvidia K80、P100 GPU的虛擬機系列直到2023年才退役,實際服役時間長達7-9年;而計劃于2025年退役的V100系列,服役時間也接近7.5年。這證明在擁有豐富應用場景的巨頭內部,硬件的生命周期可以超過技術迭代周期。

同時,支撐這一長周期邏輯的,不僅僅是技術上的可行性,還有財務上對于產能的迫切需求。

巨頭們的巨額資本支出(CapEx)并非盲目投機,而是有著強勁的訂單支撐。據統(tǒng)計,在2022年二季度至2025年二季度的三年間,五大科技巨頭的“剩余履約義務”(RPO,即客戶已簽署、等待交付的合同訂單)增速高達90.7%,超過了同期資本支出(約64%)的增速。這表明AI算力處于供不應求的狀態(tài)。

微軟手握近4000億美元的積壓訂單,亞馬遜AWS的積壓訂單也達2000億美元。在履約壓力下,巨頭們必須進行大量投資。樂觀者認為,面對這種史無前例的CapEx高峰,采用更長的折舊年限,將巨額成本平滑到未來5-6年的經營中,是一種避免當期利潤產生災難性波動、穩(wěn)定投資者預期的合理財務策略。

04、結語

AI芯片折舊問題,實質上是技術加速迭代與資產管理模式之間的一次錯配。

一方面,英偉達的1年迭代周期快速壓縮了前沿芯片的性能壽命;另一方面,超大規(guī)模企業(yè)通過價值級聯(lián)模式和爆棚的訂單需求,試圖構建一個可以讓芯片服役6-7年的經濟閉環(huán)。

這兩種邏輯的博弈意味著,評估AI巨頭真實能力的指標,不能再單純依賴受會計估計影響顯著的“凈利潤”。有分析師建議,應回歸到企業(yè)的“經營性現(xiàn)金流”(CFO)本身。

只有那些能夠通過真實的業(yè)務需求消化掉天量算力,并產生強勁現(xiàn)金流覆蓋資本支出的企業(yè),才能驗證價值級聯(lián)模式的有效性,并最終穿越技術迭代的周期。

無論如何,巨頭之間瘋狂的算力競賽已經無法回頭。馬克·扎克伯格在Meta 2025年三季度財報電話會提到,最糟糕的情況不過是提前建設了未來幾年所需的資源。但與其受限于資本支出,讓核心業(yè)務原本可盈利卻無法投入,還不如加快算力投資的進程,確保公司擁有足夠的算力。

扎克伯格口中的“最糟糕的情況”會僅僅如此嗎,還是像“大空頭”所言,是一場足以席卷整個AI行業(yè)的風暴?

 
本文為轉載內容,授權事宜請聯(lián)系原著作權人。