電子行業深度報告:如何展望GPT-5帶來的算力增長?從參數量、時間表、影響力三重視角-算力需求看點系列_第1頁
電子行業深度報告:如何展望GPT-5帶來的算力增長?從參數量、時間表、影響力三重視角-算力需求看點系列_第2頁
電子行業深度報告:如何展望GPT-5帶來的算力增長?從參數量、時間表、影響力三重視角-算力需求看點系列_第3頁
電子行業深度報告:如何展望GPT-5帶來的算力增長?從參數量、時間表、影響力三重視角-算力需求看點系列_第4頁
電子行業深度報告:如何展望GPT-5帶來的算力增長?從參數量、時間表、影響力三重視角-算力需求看點系列_第5頁
已閱讀5頁,還剩17頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

看點系列執業證書:S0600525020001執業證書:S0600125020002投資要點liyw@dwzq.co的發布時間或提前,或由于DeepSeek近期的重磅更新和亮眼表現對 場對于OpenAI產品迭代速度的預期在加快。方向仍處于激烈討論中,但頭部大模型廠商的萬卡集數量×token”的計算公式,在其他條件不變的前提下,2025年推理市),綜合下來26年推理算力需求有望達到25年的5.6倍左右。(與計算機聯合覆蓋)、龍芯中科、盛科通信(與通信聯合覆蓋)等。 4 4 5 7 93.1.影響#1大模型“標桿”再上 9 4 6 7 7 8 8 9 9 9 9 9 圖1:“獵戶座”和“草莓”進展預期數據來源:機器之心,量子位,網易新聞,每日經濟新聞,券商中國,智東西,華爾街見聞,東吳證券研究所 倍的運算能力。對比下來,二者口徑有所調整。我們認為,此前OpenAI或以“Orion” 市場對于OpenAI產品迭代速度的預期在加快。自GPT-4圖2:OpenAI融資與產品Roadmap時間表數據來源:鈦媒體,華爾街見聞,第一財經,財聯社,ECInnovations,機器之心,壹沓科技,每日經濟新聞,BFT白芙堂B站官方,東吳證券研究所對充裕(從“獵戶座Orion”訓練完成到下一輪融資節點還有大半年我們基于普遍應用的算力供給需求公式,討論公式中圖3:文本大模型AI訓練側算力供給需求公式數據來源:NVIDIA&StanfordUniversity&MicrosoftResearch《EfficientLarge-ScaleLanguageModelTrainingonGPUClustersUsingMegatron-LM》,新智元,CIBA新經濟,東吳證券研究所圖4:GPT-5預訓練情況測算數據來源:海外獨角獸,機器之心,英偉達,愛集微,新智元,東吳證券研究所圖5:OpenAI日本公司首席執行官長崎忠雄介紹GPT-Next模型數據來源:快科技,東吳證券研究所),算資源,倒推可測算得到GPT-5模型訓練用時大約需要203-225天。圖6:主流科技公司公開宣布的萬卡集群情況數據來源:消費日報網,機械之心,通信產業網,半導體行業觀察,格隆匯APP,東吳證券研究所注:本圖為非完全統計云服務廠商(CSP)占了數據中心業務的近一半營收,消費互聯網公司和企業大約占了圖7:北美四大云廠商各季度CapEx投入情況及增速(單位:億美元)0MircosoftMetaAWSGoogleYoY21Q121Q221Q321Q422Q1數據來源:各公司公告,Bloomberg,東吳證券研究所圖8:Google各季度CapEx投入情況GoogleCapEx(億美元)YoY0數據來源:公司公告,Bloomberg,東吳證券研究所圖10:Meta各季度CapEx投入情況MetaCapEx(億美元)YoY0數據來源:公司公告,Bloomberg,東吳證券研究所圖9:AWS各季度CapEx投入情況0AWSCapEx(億美元)YoY數據來源:公司公告,Bloomberg,東吳證券研究所圖11:Microsoft各季度CapEx投入情況MircosoftCapEx(億美元)YoY0數據來源:公司公告,Bloomberg,東吳證券研究所圖12:海外主流AI大模型訓練側算力供給需求情況數據來源:OpenAI論文,Google論文,Microsoft論文,Meta論文,GithubLlama開源ModelCard,新京報,大數據文摘,新智元,英偉達,谷歌研究院,騰訊科技,機器之心,中關村在線,AIGC開放社區,Llama中文社區,河北省科學技術廳,東吳證券研究所注1:由于各公司對于大模型的訓練數據披露口徑不一,以上為本文非完全統計注2:GPT4算力利用率在32-36%區間,本文取中值粗略計算注3:英偉達V100理論峰值為官網所示“深度學習|NVLink版本”性能圖13:國內主流AI大模型訓練側算力供給需求情況數據來源:騰訊混元論文&公眾號,通義千問官網&論文&公眾號&GitHub網頁,DeepSeek論文&公眾號,智譜論文&公眾號&Github網頁,百川大模型論文&公眾號&Github網頁,騰訊云,AI新榜,市界,華爾街見聞,東吳證券研究所注1:由于各公司對于大模型的訓練數據披露口徑不一,以上為本文非完全統計注2:Hunyuan、Hunyuan-Pro、Baichuan3參數量披露口徑較為模糊,分別為超千億參數/萬億參數/超千億參數,在本圖中不涉及左側第二列單位V3在預訓練階段每處理1Ttoken僅需180KH800GPU小時,即在配備2048個H800GPU的集群上僅需3.7天。因此,整個預訓練階段在不到兩個月內完成,總計使用了圖14:Deepseek、Kimi下載量(IOS+安卓,單位:次)KimiDeepseekKimi2025/03/092025/03/062025/03/092025/03/062025/03/032025/02/282025/02/252025/02/222025/02/192025/02/162025/02/132025/02/102025/02/072025/02/042025/02/012025/01/292025/01/262025/01/232025/01/202025/01/172025/01/142025/01/11數據來源:點點數據,東吳證券研究所圖15:國產AI大模型日度訪問量(單位:萬次)文心一言通義kimi星火豆包智譜清言2025/02/282025/02/252025/02/282025/02/252025/02/222025/02/192025/02/162025/02/132025/02/102025/02/072025/02/042025/02/012025/01/292025/01/262025/01/232025/01/202025/01/172025/01/142025/01/11數據來源:SimilarWeb,東吳證券研究所量已經超過3億,每一天用戶們都向ChatGPT發送超過10億條過推出可以幫助用戶執行網絡信息收集和購物等任務的AI智能體以及ChatGPT與蘋果量推斷25年推理算力需求,25年推理算力需求有望達到24年的3倍以上。據“推理圖16:文本大模型AI推理算力需求測算數據來源:OpenAI《ScalingLawsforNeuralLanguageModels》,思瀚產業研究院,極市平臺,東吳證券研究所注:GPT-5參數量為東吳測算結果,不代表產品實際發布情況期大模型訓練帶來大量算力需求之外,AI應用帶來的推理需求是長期維度

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論