半導體行業深度報告(十二)-AI大模型競賽方興未艾OpenAI與DeepSeek引領行業生態重構_第1頁
半導體行業深度報告(十二)-AI大模型競賽方興未艾OpenAI與DeepSeek引領行業生態重構_第2頁
半導體行業深度報告(十二)-AI大模型競賽方興未艾OpenAI與DeepSeek引領行業生態重構_第3頁
半導體行業深度報告(十二)-AI大模型競賽方興未艾OpenAI與DeepSeek引領行業生態重構_第4頁
半導體行業深度報告(十二)-AI大模型競賽方興未艾OpenAI與DeepSeek引領行業生態重構_第5頁
已閱讀5頁,還剩52頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

證券研究報告HTTP://WWW.LONGONE.COM.CN標配AI大模型競賽方興未艾,OpenAI與行行電子電子 2.海外科技股2024Q4業績持續回暖,DeepSeek大模型引燃AI云與端塊長期受益——半導體行業深度報告(十)能的技術,按照智能程度劃分,主要分為狹義人工智能、通用人工智能和超級自2020年起,全球AI市場規模以高于20%的同比增速呈現迅猛增長的態勢,從2019年的1.91萬億美元有望擴張至2024年的6.16萬億美元,同比增速逐年上升,整體市場有望在小對于模型性能提高的重要性。大模型的商業化落地形式主要包括通過API調用收費以及都將逐步收斂至頭部廠商,部分規模較小的模型廠商GPT與OpenAIo1系列模型分別驗證了算力投入在訓練側和推理側的重要性,而DeepSeek通過創新性的訓練方法和架構實現了較低的模型訓練成本,在未來大模創始人OpenAI自成立起先后發布了GPT系列模型和以OpenAIo1、o3為代表的深度推理在后訓練階段大規模使用了強化學習技術而不依賴監督微調,性能對齊OpenAI-o1正式證券研究報告HTTP://WWW.LONGONE.COM.CN2/38請務必仔細閱讀正文后的所有說鑫科技、中科藍訊、晶晨股份、瑞芯微、全志科技、炬芯科技、國科微等3)存儲板塊北京君正等4)光模塊、光器件、光芯片板塊關注中際旭創、天孚通信、新易盛、光迅石科技、光迅科技、川環科技、國芯科技等7)電源板塊關注麥格米特、光寶科技、中風險提示1)AI需求不及預期風險2)行業競爭過度風險3)國際貿易政策的變化證券研究報告HTTP://WWW.LONGONE.COM.CN3/38請務必仔細閱讀正文后的所有說 6 6 8 3.大模型創新迭代,性能提升與成本下行 3.3.AI大模型產業鏈半導體相關重點廠商 4.投資建議與風險提示 證券研究報告HTTP://WWW.LONGONE.COM.CN4/38請務必仔細閱讀正文后的所有說圖1人工智能發展歷程 6圖2按智能程度劃分的三類人工智能 7圖3GenAI的工作原理 7圖4GenAI在各領域的應用效果 7圖5AI的三大要素 8圖6AI算力的相關常用名詞及其含義 8圖7AI產業鏈 8圖8全球AI市場規模(十億美元)及同比增速 9圖9頭部主要廠商大模型迭代時間軸 圖10MLLM的架構示意圖 圖11訓練與推理示意圖 圖12模型性能與計算量、數據大小、參數量的關系 圖13大模型的涌現現象 圖14GPT系列模型迭代參數規模的變化 圖15海外云廠商2024Q1-Q4資本開支(億美元) 圖162020-2029E全球大模型市場規模(億美元)及增速 圖17大模型商業化模式 圖18模型推理部署四種主要形式的優劣 圖192024年國內各行業大模型公開披露的落地項目數量(單位:個) 圖202024年國內各行業大模型公開披露的落地項目金額(單位:億元) 圖21字節跳動Coze智能體創建界面 圖22大模型區別于互聯網時代的競爭特點 圖23海外主流AI大模型基準評分差距逐步縮小 圖24海外模型廠商競爭格局 20圖25大模型區別于互聯網時代的競爭特點 21圖262020-2024年阿里云業務營收占比 21圖27國內模型廠商競爭格局 22圖28OpenAI發展歷程以及重要模型發布節點 23圖29OpenAIGPT系列模型迭代相關性能參數 24圖30以GPT-4為例的GPT系列模型路徑 24圖31OpenAIo1與其他頭部模型評分對比 25圖32OpenAIo1在訓練和推理階段算力資源的投入與模型性能的關系 25圖33o1模型相比GPT-4o在推理密集型任務上的改進 26圖34未來GPT系列與o1系列模型或將收斂融合 26圖35DeepSeek發展歷程以及重要模型發布節點 26圖36DeepSeek用戶增長速度 27圖37海內外接入DeepSeek的廠商 27圖38DeepSeek-V3多項評測能力與海內外頭部模型對比 28圖39DeepSeek模型性能與價格比處于最優范圍內 28圖40DeepSeek-V3訓練成本 28圖41DeepSeek-V3的MLA和DeepSeekMoE架構 29圖42DeepSeek-R1在數學、代碼、自然語言推理等任務上的性能表現 30圖43DeepSeek-R1-Zero在訓練過程中的AIME準確性不斷上升 31圖44蒸餾后的小型模型在數學、代碼、自然語言推理等任務上的性能表現 32圖45AI服務器產業鏈 33圖46寒武紀2020-2024年總營收和歸母凈利潤與各自同比增速 33證券研究報告HTTP://WWW.LONGONE.COM.CN5/38請務必仔細閱讀正文后的所有說圖47海光信息2020-2024年總營收和歸母凈利潤與各自同比增速 33圖48恒玄科技2020-2024年總營收和歸母凈利潤與各自同比增速 34圖49樂鑫科技2020-2024年總營收和歸母凈利潤與各自同比增速 34圖50兆易創新2020年-2024Q1-Q3總營收和歸母凈利潤與各自同比增速 34圖51瀾起科技2020-2024年總營收和歸母凈利潤與各自同比增速 34圖52中際旭創2020-2024年總營收和歸母凈利潤與各自同比增速 35圖53天孚通信2020年-2024Q1-Q3總營收和歸母凈利潤與各自同比增速 35圖54鵬鼎控股2020-2024年總營收和歸母凈利潤與各自同比增速 35圖55勝宏科技2020-2024年總營收和歸母凈利潤與各自同比增速 35圖56浪潮信息2020年-2024Q1-Q3總營收和歸母凈利潤與各自同比增速 36圖57工業富聯2020-2024年總營收和歸母凈利潤與各自同比增速 36圖58麥格米特2020年-2024Q1-Q3總營收和歸母凈利潤與各自同比增速 36圖59歐陸通2020年-2024Q1-Q3總營收和歸母凈利潤與各自同比增速 36表1Transformer架構和MoE架構的對比 表2模型API服務的構成、重要性和主要指標 表3海內外代表大模型Token定價 證券研究報告HTTP://WWW.LONGONE.COM.CN6/38請務必仔細閱讀正文后的所有說(1)人工智能(ArtificialIntelligence,AI)是一種模擬人類智能的技術,旨在使機器能夠像人類一樣思考、學習和解決問題。AI涵蓋了多種技術和方法,包括深度學習、機器學習、計算機視覺和自然語言處理等。自1956年達特茅斯會議首次提出AI概念之后,AI經歷了早期的萌芽式發展,20世紀70年代出現的專家系統實現了AI從理論研究走向實際應用、從一般推理策略探討轉向運用專門知識的重大突破,但后續AI因為一系列問題陷入發展瓶頸,進入21世紀,隨著網絡技術的發展,數據的獲取變得更加容易,云計算的興起提供了強大的計算能力,為深度學習的應用提供了土壤,2010年起,以深度神經網絡為代表的AI技術蓬勃發展,應用落地場景多點開花,尤其在近幾年,大規模預訓練模型時代開啟,海內外以ChatGPT、DeepSeek等為代表的AI模型競賽如火如荼,標志著AI進入了一個新的紀元。圖1人工智能發展歷程(2)按照智能程度劃分,AI主要分為狹義人工智能(ANI)、通用人工智能(AGI)和超級人工智能(ASI目前AGI和ASI尚處于理論和探索階段。ANI(ArtificialNarrowIntelligence)又稱弱人工智能指專注于特定任務的人工智能系統,能夠高效執行特定功能,但其能力局限于預設任務,不具備通用智能。AGI(ArtificialGeneralIntelligence)指具備與人類相當的綜合智能,能夠理解、學習和執行任何智力任務,具備自主學習和推理能力。ASI(ArtificialSuperIntelligence)指在幾乎所有領域超越人類智能的人工智能,具備自我改進能力,可能在科學、藝術等領域遠超人類。目前,ANI已廣泛應用于圖像和語音識別、自動駕駛等場景,AGI尚未有實際應用,仍處于理論階段,但Sora的問世無疑使我們離AGI更進了一步。證券研究報告HTTP://WWW.LONGONE.COM.CN7/38請務必仔細閱讀正文后的所有說圖2按智能程度劃分的三類人工智能(3)生成式人工智能(GenerativeArtificialIntelligence,GenAI)是AI領域的重要分支,不同于傳統的AI僅對輸入數據進行處理和分析,GenAI能夠學習并生成具有邏輯的新內容。GenAI可以學習并模擬事物的內在規律,是一種基于算法和模型生成具有邏輯性和連貫性的文本、圖片、聲音、視頻、代碼等內容的技術。早期GenAI主要針對單一模態,如GPT系列生成文本、StyleGAN生成圖像。隨著技術進步,GenAI開始結合多模態模型,依賴于復雜的機器學習模型,實現異構數據的生成式輸出,創建跨模態原創內容(例如文本、圖像、視頻、音頻或軟件代碼)以響應用戶的提示或請求。在應用層面,GenAI可顯著提升生產效率,根據貝恩,GenAI可在營銷方面縮減30%-50%內容創造所需的時間消耗,在軟件開發方面縮短15%的代碼編寫時間。圖3GenAI的工作原理圖4GenAI在各領域的應用效果(4)AI具有算力、算法、數據三大要素,其中基礎層提供算力支持,通用技術平臺解決算法問題,場景化應用挖掘數據價值。數據是AI學習和成長的基石,決定了算法是否能得到有效的訓練和優化,數據的質量和數量也直接影響到AI模型的準確性和效率;算法是AI的靈魂,決定了AI如何處理數據和解決問題,其設計和選擇直接關系到AI的性能和應用效果;算力是AI運行的動力,算力提供了執行算法和處理數據所需的計算資源,強大的算力可以支持復雜和大規模的AI應用。其中算力指計算設備在單位時間內處理數據的能力,證券研究報告HTTP://WWW.LONGONE.COM.CN8/38請務必仔細閱讀正文后的所有說AI算力是專門針對AI任務(如矩陣運算、神經網絡訓練)優化的計算能力,需支持高并行性和大規模數據處理,通常用浮點運算次數(FLOPS)衡量,衍生的還有TFLOPS(萬億次/秒)、PFLOPS(千萬億次/秒)等常見單位,算力的核心硬件包括GPU、ASIC、FPGA等。圖5AI的三大要素圖6AI算力的相關常用名詞及其含義(1)AI產業鏈可大致分為基礎設施層、模型層、平臺層、應用層及服務層,其中基礎設施層包含芯片、存儲、網絡等,模型層包含通用模型、行業模型等。上游基礎設施層是AI產業鏈的基礎,主要涉及數據、算力等基礎軟硬件,包括AI芯片,代表廠商寒武紀、英偉達等;計算、存儲、網絡方面,代表廠商亞馬遜、微軟、阿里、三星電子等。模型層是AI產業鏈的核心部分,包括通用大模型和行業大模型等。平臺層和模型層深度綁定,使大模型更便于使用和普及。隨著AI大模型的發展,平臺中多種模型選擇、如何將大模型高效且可靠地部署于生產環境是當前的核心問題。應用層是AI產業鏈的終端環節,主要涉及AI在各個領域的應用和落地,而大模型的不斷更新升級有助于加速應用場景的創新及商業化落地。圖7AI產業鏈證券研究報告HTTP://WWW.LONGONE.COM.CN9/38請務必仔細閱讀正文后的所有說(2)2024年全球AI市場規模有望達到6.16萬億美元,同比增長30.1%。根據Frost&Sullivan,自2020年起,全球AI市場規模以高于20%的同比增速呈現迅猛增長的態勢,從2019年的1.91萬億美元有望擴張至2024年的6.16萬億美元,同比增速逐年上升,2025年開始雖然預計增速同比放緩,但整體市場有望在2027年擴張至11.64萬億美元,體現出全球AI行業井噴式的發展速度。圖8全球AI市場規模(十億美元)及同比增速04732.7201920202021202220232024全球AI市場規模(十億美元)yoy(右軸)資料來源:Frost&Sulliv證券研究報告HTTP://WWW.LONGONE.COM.CN10/38(1)AI大模型指使用大規模數據和強大的計算能力訓練出來的“大參數”模型,通常具有高度的通用性和泛化能力,可以應用于自然語言處理、圖像識別、語音識別等領域。2022年11月30日,伴隨著ChatGPT的推出,其亮眼的語言生成能力掀起了全球范圍內的AI大模型熱潮,Gemini、Llama、文心一言、SORA、DeepSeek等各類大模型如雨后春筍般涌現。大模型作為AI產業鏈中的核心環節,推動了自然語言處理、計算機視覺等領域的突破,顯著提升了AI的理解和生成能力,并且在醫療、金融、教育、自動駕駛等多個行業中得到廣泛應用,有望引領人類步入第四次工業革命。圖9頭部主要廠商大模型迭代時間軸(2)按照輸入數據類型的不同,大模型可分為大語言模型、視覺大模型、多模態大模型三大類;從訓練范式看,大模型也可分為基座模型、推理模型和多模態模型。1)從輸入數據類型看,大語言模型(LLM,LargeLanguageModel)是指在自然語言處理(NaturalLanguageProcessing,NLP)領域中的一類大模型,通常用于處理文本數據和理解自然語言,它們在大規模語料庫上進行了訓練,以學習自然語言的各種語法、語義和語境規則;視覺大模型是指在計算機視覺(ComputerVision,CV)領域中使用的大模型,通常用于圖像處理和分析,這類模型通過在大規模圖像數據上進行訓練以實現各種視覺任務,如圖像分類、目標檢測、人臉識別等;多模態大模型(MLLM,MultimodalLLM)是指能夠處理多種不同類型數據的大模型,例如文本、圖像、音頻等多模態數據,這類模型結合了NLP和CV的能力,以實現對多模態信息的綜合理解和分析,能更全面地理解和處理復雜的數據。2)從訓練范式看,除去上文提到的多模態模型,基座模型(FoundationModels)是一種大規模的預訓練模型,通常用于提供基礎的語言理解和生成能力,特點是參數數量龐大,能夠處理復雜的語言任務;推理模型(InferenceModels)是在基座模型的基礎上進行進一步訓練和證券研究報告HTTP://WWW.LONGONE.COM.CN11/38優化的模型,它專注于提升模型的推理能力,通常通過強化學習等技術來增強模型的性能,能夠處理更復雜的任務,具備自主規劃和決策的能力。圖10MLLM的架構示意圖(3)深度學習作為機器學習中的重要分支,也是大模型提供了強力的技術支撐,深度學習涵蓋訓練和推理兩個階段,其中訓練又分為預訓練、后訓練兩個步驟。訓練(Training)是指通過給定的訓練數據集,利用深度學習算法來不斷地調整和優化神經網絡模型的參數,使其能夠從數據集中學習并形成對未知數據的預測能力。其中預訓練(Pre-training)通常發生在模型開發的早期階段,目的是在大規模數據集上學習通用特征,為后續任務奠定基礎,預訓練不針對特定任務,而是追求廣泛的適用性。后訓練(Post-Training)發生在預訓練之后,模型部署前或部署初期,后訓練針對特定的任務或數據集進行額外訓練,以優化模型性能,包括SupervisedFine-tuning(SFT,監督微調)和ReinforcementLearningfromHumanFeedback(RLHF,人類反饋的強化學習)等環節。推理(Inference)是指在經過訓練后,將已經訓練好的模型應用到真實的數據上,讓模型對真實的數據進行預測或分類。圖11訓練與推理示意圖(4)ScalingLaw作為大模型預訓練第一性原理,仍是驅動模型進步的重要定律。規模定律(ScalingLaw)也稱尺度定律、縮放定律等,在AI領域中被業界認為是大模型預訓練第一性原理,描述了在機器學習領域,特別是對于大語言模型而言,模型性能(L,模型在測試集上的交叉熵損失)與模型的參數量大小(N)、訓練模型的數據大小(D)以及訓練模型使用的計算量(C)之間存在一種可預測的關系。這種關系通常表現為隨著這些因素的證券研究報告HTTP://WWW.LONGONE.COM.CN12/38增長,模型性能會按照一定的冪律進行改善。預訓練階段的ScalingLaw依然是目前GPT范式中成本最高的訓練階段,99%的計算在預訓練階段中。圖12模型性能與計算量、數據大小、參數量的關系Chess,Child,&etal.(202(5)大模型中存在一種“涌現”現象,進一步證明模型參數量等屬性大小的重要性。“涌現”在物理學中的解釋是指系統的量變引起行為的質變,在AI領域中,涌現能力(EmergentAbilities)在較小的模型中不出現,通常只在大模型中出現,尤其是大語言模型。下圖顯示了對于GPT-3等模型針對涵蓋數學、歷史、法律等等一系列主題的基準測試,結果顯示,對于GPT-3、Gopher和Chinchilla,小于等于10B參數時,準確率等表現結果并沒有超過隨機太多,但一旦參數量達到70B-280B時,性能大大超越了隨機效果,這個結果或意味著跨越某個閾值,模型解決大量以知識為基礎的、涵蓋多個領域的問題的表現會出現質的飛躍(對于沒有檢索或訪問外部內存的稠密語言模型來說進一步體現模型參數量、數據量等大小的重要性。圖13大模型的涌現現象證券研究報告HTTP://WWW.LONGONE.COM.CN13/38(6)盡管硬件層面限制等因素致使當前大模型參數規模的提升速度已經有所放緩,但各大頭部廠商仍在持續投入數據中心建設。以GPT系列模型為例,GPT-3的參數規模是GPT-2的100倍左右,而GPT-4相比GPT-3僅僅翻了10倍左右,下一代模型在參數規模上可能增加3-5倍。目前模型規模增加的主要限制因素在硬件層面,模型參數過大對于GPU訓練集群的內存要求和通信要求極高,但目前物理基礎設施能力的提升比軟件更慢,盡管如此,各大頭部云服務廠商仍在不斷加碼AI基礎設施投入,為未來更大規模的大模型作準備。圖14GPT系列模型迭代參數規模的變化圖15海外云廠商2024Q1-Q4資本開支(億美元)0(7)除了訓練與推理環節的投入之外,模型架構的創新也在不斷引領模型進步,目前主流的兩種模型架構分別為Transformer和MoE架構。1)Transformer是一種基于自注意力機制(self-attentionmechanism)的神經網絡架構,通過并行處理整個輸入序列。自注意力機制讓模型在處理每個單詞時,都能計算該單詞與其他所有單詞的關聯程度,給不同單詞分配不同的“注意力權重”,從而捕捉到文本中詞匯之間豐富的語義關系,理解上下文,提升了長序列的處理能力。標準的Transformer由多層堆疊的編碼器(Encoder)/解碼器(Decoder)組成,捕捉輸入序列的長距離依賴關系,但每個輸入樣本會經過所有層和所有參數的計算,屬于一種稠密(Dense)架構,計算量隨著序列長度的增加而顯著增加,需要大量的計算資源和內存來存儲中間結果。采用Transformer架構的大模型包括GPT-1、GPT-2、GPT-3等。2)MoE(MixtureofExperts,混合專家模型)通過組合多個專家網絡處理輸入數據,每個專家是一個獨立的神經網絡,專注于處理特定類型的輸入,由門控機制(gatingmechanism)根據輸入數據動態選擇最合適的專家,并將它們的輸出加權組合。區別于Transformer會激活所有參數,MoE只激活部分專家網絡,計算是稀疏(Sparse)的,可顯著降低計算成本,在模型規模擴展方面,MOE架構具有很強的靈活性。通過增加專家網絡的數量,就能輕松擴展模型的規模,提升模型的能力,而不需要對模型結構進行大規模改動。采用MoE架構的大模型如DeepSeek-V3。表1Transformer架構和MoE架構的對比(尤其是Sparsely-GatedMoE)證券研究報告HTTP://WWW.LONGONE.COM.CN14/38(1)未來五年全球大模型行業市場規模的CAGR有望達到36.23%。隨著AI技術的不斷進步和應用場景的日益豐富,大模型的市場規模日益擴展,2021年,全球大模型市場規模同比增長132%,2020年至2024年,全球大模型市場規模有望從25億美元飛速擴張至280億美元,增長十倍以上,2025年或將擴張至366億美元,同比增長30.71%,雖然增速有所放緩,但未來五年,全球大模型行業市場規模有望以36.23%的年復合增長率擴張至2029年的1314億美元。圖162020-2029E全球大模型市場規模(億美元)及增速86.21%33.33%36621020202021202220232024E(2)目前,大模型的主要盈利模式是基于用量的一種商業模式,核心理念是通過API調用收費,此外還有廣告、模型推理部署方向的業務模式。基于用量的收費模數主要按照Tokens、調用次數、時間區間等維度來收費,也是當前主流的盈利方式。除此之外,模型在云端或者本地部署也是模型盈利的重要形式,還有一些AI大模型相關的app因為下載量巨大,吸引到部分商家投放廣告,進而形成了廣告收入。證券研究報告HTTP://WWW.LONGONE.COM.CN15/38圖17大模型商業化模式(3)模型API本質是一種MaaS(Modelasaservice)模式,是海外大模型的核心商業模式,國內市場由于差異化程度較低,規模相對較小,低價競爭策略或將長期持續。API(ApplicationProgrammingInterface,應用程序編程接口)是一些預先定義的函數,目的是提供應用程序與開發人員基于某軟件或硬件得以訪問一組例程的能力,而又無需訪問源碼,或理解內部工作機制的細節,在大模型層面,開發者通過API這一標準化接口調用大模型功能,而無需從頭訓練模型,只需發送請求即可獲得模型的輸出。通過API調用從而盈利的特點是簡單易用、復雜性低和定制化程度低,模型能力是唯一的差異化之處,這本質是一種基于底層模型用量的模式,再增加一部分產品層的溢價構成定價。API行業需求方較為碎片化,來自各個行業,從供給層面看,模型API是海外大模型的核心商業模式,從國內市場看,由于國內模型能力缺乏差異化,行業低價競爭趨勢等因素,整體市場規模較小,難以成為模型廠商的主要收入來源。表2模型API服務的構成、重要性和主要指標構成重要程度(1-4星)含義及主要指標模型庫★包括模型廠商的自研模型和第三方開源模型(主要適用于云廠商,會提供MaaS服務)模型能力★★★★調用量由真實的市場需求產生(1)推理能力:核心指標,包括指令遵從、內容合規、用戶意圖理解等(2)上下文長度(ContextWindow支持的上下文窗口大小,決定模型可以處理的任務復雜度上限(3)多模態能力:文字、圖像、音視頻等模態的理解、生成、交互表現價格★★★和調用量、調用方式有關,總體上呈快速下降趨勢包括輸入價格(InputTokens)和輸出(OutputTokens)價格,以及更便宜的BatchAPIAPI性能★★★(1)延遲:FTL(FirstTokenlatency,從發出請求到收到第一個Token的時間,也稱TimetofirstToken)(2)吞吐量:RPM(Requestperminute,每分鐘請TPM(Tokensperminute,一分鐘輸出Token量)(3)輸出速度:Tokenspersecond(每秒輸出Token量)(4)穩定性:各項指標穩定性、波動水平、故障頻率安全合規★★用戶的數據隱私保護、內容安全合規性證券研究報告HTTP://WWW.LONGONE.COM.CN16/38(4)按照Token計價是大部分大模型API的收費方式,國內外大模型對于Token的標準并不統一,定價也差別較大,其余還有按照時間區間計價、調用次數等計價模式。Token在大模型中的含義是最小文本單元,可以直觀地理解為字或詞,但目前Token和單個漢字、英文字母之間的關系并沒有統一的計量標準,各大模型也各不相同,但總體來說1個token≈1-1.8個漢字,在英文文本中,1個token≈3-4個字母。定價方面,不僅對于不同大模型收費標準不同,對于一些大模型來說,在不同時間段使用的定價也不同。此外,按照時間區間計價主要是針對個人用戶的訂閱制收費模式,可按照年、月、周等維度購買服務(如ChatGPT按照調用次數的計價模式則方便用戶按需購買。表3海內外代表大模型Token定價大模型名稱輸入價格/百萬Tokens(緩存命中/cachehit)輸入價格/百萬Tokens(緩存未命中/cachemiss)輸出價格/百萬Tokens海外GPT-4.537.5美元75美元150美元GPT-4o1.25美元2.5美元10美元Gemini2.0Flash(Google)0.025美元0.1美元0.4美元Claude3.7Sonnet(Anthropic)3美元15美元國內DeepSeekR1(DeepSeek)0.14美元0.55美元2.19美元qwen-max(阿里)2.4元9.6元qwen2.5-72B(阿里)4元Kimi-latest-128k(月之暗面)60元SenseChat-Vision(商湯)60元hunyuan-TurboS(騰訊)0.8元2元doubao-1.5-pro-32k(字節)0.8元2元(5)定制化服務主要是指模型推理部署,包含云端、本地、邊緣及混合部署,是國內大模型市場的核心業務模式,貢獻了大部分營收,其中云端部署是目前最為普遍的大模型部署方式。1)云端部署是當前模型推理部署的主流方式,分為私有云部署和公有云部署,私有云部署是企業將模型部署在自己管理的云基礎設施上,結合了本地部署的控制權和云的靈活性,公有云部署則是企業將模型和數據托管在云服務商提供的基礎設施上;2)本地部署需要企業有完善的IT基礎設施,是將大模型部署在企業自己的物理服務器上,適用于需要極高數據隱私或對外部依賴有嚴格要求的場景;3)邊緣部署是指將原本運行在云端或大型服務器上的大模型通過優化和壓縮后,部署在靠近數據產生源頭或應用場景的“邊緣設備”(如手機、傳感器、本地服務器、IoT設備等)上運行的技術方案,核心目標是通過本地化處理,減少對云端服務器的依賴,從而提升響應速度、保護數據隱私,并適應網絡不穩定的環境;4)混合部署是將私有云和公有云結合使用,將一些關鍵任務(如訓練、大規模數據處理)放在私有云中,而將推理任務或其他非機密任務放在公有云中。證券研究報告HTTP://WWW.LONGONE.COM.CN17/38圖18模型推理部署四種主要形式的優劣(6)從國內大模型項目落地的應用領域看,2024年落地項目數量排在前三位的分別為通信、教科和政務,落地項目金額前三位分別是政務、教科和能源。從2024年國內公開披露的大模型落地項目看,在教科、通信、能源、政務、金融等行業數量和金額都相對較多。能源(11.18%)和金融(8.75%從金額維度看,排名前五的行業分別為政務(34.64%)、單個項目涉及金額較大,其次為能源。圖192024年國內各行業大模型公開披露的落地項目數量(單位:個)0圖202024年國內各行業大模型公開披露的落地項目金額(單位:億元)50資料來源:智能超參數,東海證券研究所資料來源:智能超參數,東海證券研究所(7)隨著模型能力不斷提升,業務不斷成熟,未來以AIAgent為代表的基于結果和價值創造的商業模式有望逐步落地。大模型的三種應用模式分別為Embedding、Copilot和Agent,在Embedding模式中,大模型被集成到現有的應用程序或服務中;Copilot模式中,大模型充當助手的角色,為用戶提供實時的建議和支持;Agent模式中,大模型被賦予了一定程度的自主權。近日,Manus作為“全球首款通用AIAgent”問世,引發市場熱情。AI證券研究報告HTTP://WWW.LONGONE.COM.CN18/38Agent以大模型為核心引擎,但是區別于用戶基于提示詞(prompt)與AI模型交互,AIAgent具備通過獨立思考、調用工具逐步完成用戶給定的目標的能力,主打“直接完成工作”,本質是一個控制大模型來解決問題的代理系統。與上文模型API不同,這種基于結果和價值創造的商業模式更加復雜,且需要可衡量的結果和交付價值,目前模型廠商的產品形態還幾乎不支持對直接基于模型產生的實際效益去定價,但這種模式能更好地滿足客戶需求。目前,Copilot類產品首先實現商業落地,AIAgent或首先從垂直場景開始逐步探索,未來在模型能力不斷上升、產品模式更加成熟后,有望成為新的下游應用增量點。圖21字節跳動Coze智能體創建界面2.3.大模型競爭日趨白熱,未來玩家格局或將逐(1)大模型的能力日新月異,護城河不明確,規模效應尚未顯現,廠商需要持續大量投入參與市場競爭。互聯網時代,廠商可以根據用戶畫像進行相關推薦,形成了較強的用戶關系網絡,規模效應能夠顯著降低成本,且部分APP的遷移成本較高,頭部廠家都形成了自己清晰的護城河,能夠維持穩定較好的利潤水平。區別于互聯網,大模型目前產品較為同質化,遷移成本較低,用戶關心的是模型的智能程度和成本,且目前行業仍處于前期大規模資本投入階段,大模型能力不斷突破上限,規模效應尚未顯現,因此廠商仍需要長期大量投入從而參與市場競爭,維持領先地位。證券研究報告HTTP://WWW.LONGONE.COM.CN19/38圖22大模型區別于互聯網時代的競爭特點(2)從海外大模型廠商來看,整體競爭格局日益白熱化,盡管GPT擁有先發優勢,但是以Claude、Gemini等為代表的大模型正在迅速追趕縮小性能差距。總體來說,模型能力決定市場份額,OpenAI在2023年初發布GPT-4時由于領先的模型能力在市場有較強的競爭力,但后續Anthropic、Google相繼迭代旗下的大模型,目前Claude、Gemini的最新旗艦版大模型已經在性能上逐步趕上或在某些領域超越GPT系列模型,模型差距相比2023年顯著縮小。圖23海外主流AI大模型基準評分差距逐步縮小(3)目前,OpenAI、Anthropic、DeepMind形成了海外大模型的第一梯隊玩家,第二梯隊包括xAI、Meta等,第三梯隊玩家逐步被頭部廠商吸收,小模型廠商在激烈的市場競爭下被淘汰出清,未來競爭格局將逐步收斂至頭部5家廠商。1)OpenAI目前和微軟深度綁定,目前營收仍處于領先地位,主要來自于GPT的訂閱服務。2)Anthropic營收構成與證券研究報告HTTP://WWW.LONGONE.COM.CN20/38請務必仔細閱讀正文后的所有說OpenAI差別較大,主要為API服務,目前和亞馬遜綁定,近一年來市場份額快速增長。3)DeepMind背靠谷歌,與谷歌工作流進行整合,發力針對中小企業的API市場。4)馬斯克帶領的xAI目前正在迅速發展,近期發布的Grok3宣稱在基準測試中擊敗GPT-4o,潛力巨大。5)區別于其他廠商,Meta選擇了開源路線,目前尚未通過模型進行商業化,構造圍繞Llama的開源生態。6)由于目前海外基礎模型需要數百億美元的持續投入,需要廠商本身較強的資本支撐和與巨頭的深度合作帶來資源支持,第三梯隊的模型廠商已經進入出清時期,部分被頭部模型廠商吸收合并,整體競爭格局已收斂。圖24海外模型廠商競爭格局(4)國內大模型廠商主要分為四類,分別為互聯網云廠商、大模型創業公司、模型推理平臺及技術類廠商,其中互聯網云廠商在模型、生態和渠道優勢各方面更為全面,具備較強的競爭力。對于大模型廠商來說,模型能力最為重要,其次是生態能力和渠道能力,國內互聯網云廠商和大模型創業公司均具備較高的模型能力,云廠商的生態能力和渠道能力同樣亮眼,優勢更為全面,代表廠商包括阿里、字節、百度、騰訊等。大模型創業公司也擁有優秀的模型能力,但是生態能力和渠道能力弱于互聯網云廠商,代表廠商包括DeepSeek、月之暗面、智譜AI等。模型推理平臺通常不自己研發模型,而是整合開源模型生態,通過API盈利,如硅基流動、無問芯穹等。傳統的技術類廠商擁有積累的較強的渠道能力,模型和生態能力也較強,代表廠商如商湯科技、科大訊飛、昆侖萬維等。證券研究報告HTTP://WWW.LONGONE.COM.CN21/38請務必仔細閱讀正文后的所有說圖25大模型區別于互聯網時代的競爭特點(5)以阿里為例,其云業務相關營收占比總體營收在逐年提升,體現頭部模型廠商在持續投入資源后,云業務或將成為其新的增長點。2020年,阿里云營收僅為555.76億元,到2024年,其云業務營收翻倍,達到1134.96億元,在總營收中的占比也從8.63%上升至11.56%,未來三年,阿里巴巴在云和AI基礎設施上的資本開支將達3800億元,體現了頭部云廠商對AI相關基礎建設的投入信心,AI業務有望成為頭部互聯網云廠商營收增長的重要支撐。圖262020-2024年阿里云業務營收占比8364.0586456442.088.65%555.76723.58775.92994.19 云業務營收占比(右軸)(6)由于通用基礎模型領域競爭較為激烈,一方面,國內頭部大廠將持續投入通用類產品,結合渠道實力打造生態壁壘,另一方面,部分模型廠商或將開始聚焦商業化層面,轉型至相對垂直的細分場景進行服務,增強差異化競爭力。國內第一梯隊的大模型廠商多數綜合布局,能夠承受大量投資和長期虧損的預期,且擁有豐富的消費端場景和自身現有業務產品背書,因此未來國內通用模型競爭格局同樣將收斂至第一梯隊的少數玩家。在這樣的行業背景下,模型創業公司或針對B端模型客戶將聚焦于更加垂直、細分的商業化場景。對于傳統的技術類廠商來說,目前多數在自身已有的渠道中服務,如部分政府和行業大客戶,未來或將嘗試將重心轉型至大模型。證券研究報告HTTP://WWW.LONGONE.COM.CN22/38請務必仔細閱讀正文后的所有說圖27國內模型廠商競爭格局證券研究報告HTTP://WWW.LONGONE.COM.CN23/38請務必仔細閱讀正文后的所有說3.大模型創新迭代,性能提升與成本下行或成為兩(1)OpenAI是一家致力于推動通用人工智能惠及人類的企業。OpenAI創立于2015年,最早為非營利組織,創始人包括薩姆·奧爾特曼(SamAltman)、彼得·蒂爾(PeterThiel)、里德·霍夫曼(ReidHoffman)和埃隆·馬斯克(ElonMusk)等,其中大多都有豐富的技術和商業背景,2016年,OpenAI發布首個產品OpenAIGym和Universe,2018年,GPT系列模型首次亮相,采用Transformer架構,參數規模達到1.17億,后續該系列模型不斷迭代,參數規模、訓練數據、上下文窗口大小呈指數級增長,模型性能相應也有顯著提升,此外,GPT系列模型也從最初單一的文本模態迭代成為GPT-4系列的多模態大模型,2025年,OpenAI將推出GPT-4.5大模型。除GPT系列外,OpenAI還推出了深度推理模型OpenAIo1、o3模型,以及文生視頻模型Sora等。圖28OpenAI發展歷程以及重要模型發布節點(2)基于GPT-3.5的ChatGPT的發布推動了AI技術的普及和AI產業的變革,是人工智能的重要里程碑之一。2022年11月30日,OpenAI正式發布聊天機器人ChatGPT,基于GPT-3.5架構,能夠回答問題、創作文章、編程,甚至可以模仿人類的對話風格,顛覆了人們對于通用大語言模型的認知。ChatGPT發布后,僅僅用了2個月用戶數量便達到億級,增速超越了TikTok、Instagram等全球頭部消費級應用。ChatGPT的發布標志著自然語言處理(NLP)技術的重大進步,改善了人機交互體驗,顯著提高了生產力,推動了AI行業變革。證券研究報告HTTP://WWW.LONGONE.COM.CN24/38請務必仔細閱讀正文后的所有說圖29OpenAIGPT系列模型迭代相關性能參數(3)GPT系列模型著重于預訓練階段的Scalinglaw,在預訓練階段投入了大部分算力資源,在后訓練階段采用SFT、RFHL等形式,整體來說更適合解決通識類知識。以GPT-4為例,其整體參數規模約為GPT-3的10倍,根據Semianalyst的《GPT-4Architecture,Infrastructure,TrainingDataset,Costs,Vision,MoE》文章中透露,GPT4在預訓練階段使用了25000張40G的英偉達A100訓練了90天以上,總耗費約6300萬美元,而模型能力也因此基本來自預訓練階段學習理解的大量多模態信息和知識,所以GPT系列模型針對問題能夠迅速反應并給出答案,擅長處理的也基本是通識類的知識。在后訓練階段,GPT采用SFT、RFHL(人類提供偏好反饋數據從而訓練強化學習的獎勵模型)方式,提升模型的實際應用效果。圖30以GPT-4為例的GPT系列模型路徑(4)OpenAI于2024年9月發布OpenAIo1模型,可以執行復雜的推理任務,MMLU評分超越一眾大模型。o1模型在回答問題之前會形成一條內部思維鏈(ChainofThought模擬人類的思考過程,其在物理、化學和生物學這些具有挑戰性的基準任務上的表現與博士生相似,在數學和編碼方面表現同樣出色。他的MMLU(知識問答,評估LLM的知識和推理能力)評分、Math(含代數、微積分、幾何、概率等多個領域)評分、GPQADiamond(全面的框架,測試模型在多種推理場景下的能力)評分均超過了當時的主流大模型,如Gemini2.0ProExperimental、Hunyuan-TurboS、Claude3.5Sonnet等,對比GPT-4o也有顯著提升。證券研究報告HTTP://WWW.LONGONE.COM.CN25/38請務必仔細閱讀正文后的所有說圖31OpenAIo1與其他頭部模型評分對比(5)o1模型的發布證明了推理側的算力資源投入同樣重要,“ScalingLaw”在推理階段或同樣適用。o1模型引入的思維鏈類似人類在回答困難問題之前的長時間思考,通過訓練時的強化學習,o1能夠鍛煉其思維鏈并改進其使用的策略,它還能夠識別并改正錯誤,將棘手的問題拆分成更簡單的步驟,如果目前的方式不奏效,o1還會嘗試不同的解決方式。上述思維鏈讓o1的推理能力大幅增強。從下圖可知,當推理側的算力資源增加時,模型處理問題的準確度顯著提升,代表著類似于預訓練階段的“ScalingLaw”在推理階段也同樣兌現了。圖32OpenAIo1在訓練和推理階段算力資源的投入與模型性能的關系(6)未來,GPT系列與o1為代表的深度推理系列模型或將互相補充。相比GPT-4o,o1在具有挑戰性的推理密集型任務中都有更為出色的表現,GPT系列類似于思維中的淺層、快速反應系統,能迅速處理日常生活中的直覺性反應和基礎認知任務,有更好的多模態交互能力,更大的參數規模、更優質的訓練數據、優化后的模型架構是GPT系列模型的發展方向。而對于以o1為代表的深度推理系列模型來說,類似于思維中的邏輯性系統,更擅長復雜的分析和經過深思熟慮后的決策提供,需要更多的推理時間和大量的思維鏈分析過程,后證券研究報告HTTP://WWW.LONGONE.COM.CN26/38請務必仔細閱讀正文后的所有說續發展更注重后訓練階段的“思考模式”優化,以及推理階段更多的算力資源投入。這兩類模型相互補充,GPT類模型可以作為o1類模型的基礎模型增強通識,o1類模型可以為GPT類模型生成高質量的推理數據,未來兩類模型或共同發展,相互促進。圖33o1模型相比GPT-4o在推理密集型任務上的改進圖34未來GPT系列與o1系列模型或將收斂融合(1)DeepSeek大模型的發布進一步帶動AI大模型熱潮。DeepSeek,全稱杭州深度求索人工智能基礎技術研究有限公司,由量化私募管理機構幻方量化成立,專注于開發先進的大語言模型和相關技術。DeepSeek創始人為梁文峰,有豐富的電子信息和人工智能相關背景。2024年12月26日,DeepSeek-V3發布,訓練成本約為GPT-4o的1/10,同時性能比肩頂尖閉源模型,DeepSeek-R1于2024年1月發布,性能對標OpenAI-o1正式版。DeepSeek的發布挑戰了純算力路徑,發布后海內外各大廠商爭相本地部署DeepSeek,云服務商也相繼入局,掀起AI云與端熱潮,算力芯片、服務器、算力云等產業鏈有望長期收圖35DeepSeek發展歷程以及重要模型發布節點(2)DeepSeek大模型發布后僅用七天用戶增長一億,海內外頭部廠商紛紛入場布局。相比ChatGPT先前兩個月的記錄,DeepSeek在DeepSeek-R1發布后,僅用七天就實現了用戶增長一億的成績,遠超各大頭部APP。其卓越的性能表現和開源特性,吸引了全球AI開發者和海內外頭部廠商布局,華為云與硅基流動聯合首發并上線基于華為云昇騰云服務的證券研究報告HTTP://WWW.LONGONE.COM.CN27/38請務必仔細閱讀正文后的所有說DeepSeekR1/V3推理服務,騰訊云則將R1大模型一鍵部署至高性能應用服務HAI上,開發者僅需3分鐘就能接入調用;海外AI芯片頭部廠商英偉達宣布DeepSeek-R1模型登陸NVIDIANIM,AMD宣布已將新的DeepSeek-V3模型集成到InstinctMI300XGPU上,針對AI推理進行了優化,云服務龍頭亞馬遜和微軟也紛紛接入DeepSeek-R1,共同推動AI技術的迅速發展和應用普及。圖36DeepSeek用戶增長速度圖37海內外接入DeepSeek的廠商(3)DeepSeek-V3性能對齊海外領軍閉源模型,訓練成本和定價卻遠低于后者。DeepSeek-V3于2024年12月底發布,為開源自研MoE模型,共671B參數,激活37B,在14.8Ttoken上進行了預訓練。根據測試,DeepSeek-V3的多項評測成績超越了Qwen2.5-72B和Llama-3.1-405B等其他開源模型,并在性能上和世界頂尖的閉源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。從API定價看,DeepSeek-V3每百萬輸入tokens0.5元(緩存命中)/2元(緩存未命中每百萬輸出tokens8元,遠低于其他廠商的頭部大模型。從訓練成本看,根據官方的《DeepSeek-V3TechnicalReport》,在預訓練階段,在每萬億個token上訓練DeepSeek-V3只需要18萬個H800GPU小時,即在擁有2048個H800GPU的集群上需要3.7天。因此,預訓練階段是在不到兩個月的時間內完成的,成本為266.4萬個GPU小時。再加上11.9萬個GPU小時用于擴展上下文長度和5000個GPU小時的后訓練,DeepSeek-V3的總訓練成本僅為278.8萬個GPU小時。假設H800GPU的租賃價格為2美元/每GPU小時,那總訓練成本僅為557.6萬美元(上述成本僅包括DeepSeek-V3的官方訓練,不包括與先前研究、架構、算法、數據和消融實驗相關的成本)。與GPT-4相比,上述成本不到其1/10,DeepSeek-V3的發布驗證了AI大模型低成本訓練的商業可行性。證券研究報告HTTP://WWW.LONGONE.COM.CN28/38請務必仔細閱讀正文后的所有說圖38DeepSeek-V3多項評測能力與海內外頭部模型對比資料來源:DeepSeek,東海證券研究所(注:加粗字體為最高分)圖39DeepSeek模型性能與價格比處于最優范圍內圖40DeepSeek-V3訓練成本(4)DeepSeek-V3創新性的架構特點是通過引入MLA實現高效推理,通過DeepSeekMoE實現成本更低的訓練。1)多頭潛在注意力機制(Multi-HeadLatentAttention,MLA)區別于Transformer架構的多頭注意力(Multi-HeadAttention,MHA)機制,顯著減少了鍵-值緩存的內存占用。MHA通過計算查詢(Query)、鍵(Key)和值(Value)矩陣之間的關系,使模型能夠關注輸入序列中的不同部分。然而,在自回歸生成過程中,為了避免重復計算,需要維護一個鍵-值(KV)緩存,該緩存存儲了所有先前生成令牌的鍵和值矩陣,同時帶來了顯著的內存挑戰,制約了模型的實用性。為了解決該類問題,MLA不直接存儲完整的鍵值矩陣,而是存儲一個維度更小的壓縮向量。在需要進行注意力計算時,再通過解壓縮重構出所需的鍵和證券研究報告HTTP://WWW.LONGONE.COM.CN29/38請務必仔細閱讀正文后的所有說值。這種壓縮-解壓縮機制使得模型可以在顯著減少內存占用的同時,保持甚至提升性能。DeepSeek-V2的技術報告顯示,MLA使KV緩存減少了93.3%,訓練成本節省了42.5%,生成吞吐量提高了5.76倍。2)DeepSeekMoE的基本架構建立在Transformer框架之上,在前饋網絡(FFN)層引入了創新的MoE機制。與傳統MoE使用較粗粒度的專家劃分不同,DeepSeekMoE采用了更細粒度的專家劃分方式,使每個專家能夠負責更具體的任務,從而提高模型的靈活性和表達能力。具體來說,DeepSeekMoE的每個MoE層由1個共享專家和256個路由專家組成,每個token會激活8個路由專家。這種設計使得模型能夠在保持高性能的同時,顯著減少計算資源的消耗。不同于傳統MoE中專家都是獨立的設計,DeepSeekMoE的共享專家負責處理所有token的通用特征,而路由專家則根據token的具體特征進行動態分配。這種分工不僅減少了模型的冗余、提高了計算效率,還使得模型能夠更好地處理不同領域的任務。圖41DeepSeek-V3的MLA和DeepSeekMoE架構(5)DeepSeek-R1性能對齊OpenAI-o1正式版。DeepSeek-R1于2025年1月20日發布,共671B參數,激活參數37B,在DeepSeek-V3-Base基礎上訓練而來。DeepSeek-R1在后訓練階段大規模使用了強化學習技術,在僅有極少標注數據的情況下,極大提升了模型推理能力。在數學、代碼、自然語言推理等任務上,性能比肩OpenAIo1正式版。證券研究報告HTTP://WWW.LONGONE.COM.CN30/38請務必仔細閱讀正文后的所有說圖42DeepSeek-R1在數學、代碼、自然語言推理等任務上的性能表現(6)DeepSeek-R1表明通過強化學習可以直接提升推理能力,能夠在不依賴監督微調的情況下實現強大的推理表現,同時蒸餾技術也能夠將大模型的推理能力轉移到更小的模型上,提升它們的表現。1)DeepSeek-R1-Zero通過強化學習訓練,展現了“自我驗證、自我反思”和“生成長鏈推理”的能力,DeepSeek-R1在此基礎上做了改進,加入了冷啟動數據和多階段訓練流程,從而進一步提升了推理能力并改善了可讀性。過去的大多數模型依靠大量的監督數據來提升模型性能,但監督數據的搜集耗時耗力,而DeepSeek-R1-Zero僅從基礎模型開始,在后訓練中通過純粹的強化學習(RL)過程進行自我進化。為了節省RL的訓練成本,R1-Zero采用了組相對策略優化(GroupRelativePolicyOptimization,GPRO)方法,讓模型針對每個問題生成多個輸出,通過比較這些輸出的相對表現來調整策略。而在訓練時,獎勵模型(RewardModeling)決定了模型優化的方向。R1-Zero采用了包括準確性獎勵和格式獎勵的基于規則的獎勵系統,而沒有采用基于神經網絡的獎勵模型,為了避免出現獎勵欺騙的情況。在自我進化的過程中,隨著推理運算時間的增加,模型解決復雜推理任務的能力也在不斷增強,此外還涌現出了“反思”等復雜行為,模型會重新審視和評估自己先前的步驟,還會自發地探索解決問題的其他方法。R1-Zero雖然推理能力強,但存在推理過程可讀性差、語言混雜等問題,因此DeepSeek-R1在R1-Zero的基礎上引入了“冷啟動”策略和多階段訓練,冷啟動是指先用少量高質量的CoT數據對模型進行初步訓練,相當于給模型一個“熱身”,目標是讓模型既能保持強大的推理能力,又能生成清晰、用戶友好的回答。證券研究報告HTTP://WWW.LONGONE.COM.CN31/38請務必仔細閱讀正文后的所有說圖43DeepSeek-R1-Zero在訓練過程中的AIME準確性不斷上升2)模型蒸餾技術是一種將知識從復雜的大型模型(教師模型)轉移到更小、更高效的模型(學生模型)的方法,旨在保持性能的同時減少計算資源和存儲需求。DeepSeek-R1證明了較大模型的推理模式可以被蒸餾到較小的模型中,比在小模型上通過RL訓練的推理模式表現更好。DeepSeek利用DeepSeek-R1生成的推理數據,對多個稠密模型進行了微調,結果表明,蒸餾后的小型稠密模型在基準測試中表現非常出色,其中32B和70B模型在多項性能上比肩OpenAIo1-mini。證券研究報告HTTP://WWW.LONGONE.COM.CN32/38請務必仔細閱讀正文后的所有說圖44蒸餾后的小型模型在數學、代碼、自然語言推理等任務上的性能表現(1)根據大模型產業鏈上游涉及到的半導體相關環節,我們將其主要劃分為AI芯片(云端與端側)、存儲、光模塊、PCB、服務器、電源等幾個板塊。如下圖所示,AI產業高速發展離不開AI服務器的基礎功能,AI服務器產業鏈整體包括上中下游,上游硬件部分是AI產業構建的基礎,核心是AI服務器展開的相關零組件,隨著AI產業的高速發展,上游電子零部件板塊或將也高速增長。證券研究報告HTTP://WWW.LONGONE.COM.CN33/38請務必仔細閱讀正文后的所有說圖45AI服務器產業鏈(2)云端AI芯片指面向AI應用,針對AI算法(如深度學習等)進行特殊加速設計的芯片。AI芯片是大模型的“大腦”,提供算力支持,主要包括GPU、FPGA、ASIC等。國內相關廠商包括寒武紀、海光信息、龍芯中科等。圖46寒武紀2020-2024年總營收和歸母凈利潤與各自同比增速資料來源:Wind,東海證券研究所(注:2024年為業績快報)圖47海光信息2020-2024年總營收和歸母凈利潤與各自同比增速(3)端側AI芯片是指應用于AI應用,如智能手機、筆記本電腦、智能攝像頭等各種終端設備的芯片,核心特點包括低功耗、高算力、低延遲和高集成度等。端側AI芯片能夠在設備本地完成復雜的AI任務,減少數據傳輸和云端計算的依賴,從而提升設備的智能化水平和用戶體驗,國內相關重點廠商包括恒玄科技、樂鑫科技、中科藍訊、晶晨股份、瑞芯微、全志科技、炬芯科技、國科微等。證券研究報告HTTP://WWW.LONGONE.COM.CN34/38請務必仔細閱讀正文后的所有說圖48恒玄科技2020-2024年總營收和歸母凈利潤與各自同比增速資料來源:Wind,東海證券研究所(注:2024年為業績快報)圖49樂鑫科技2020-2024年總營收和歸母凈利潤與各自同比增速(4)存儲包括存儲模組和存儲芯片,包括DRAM、NANDFLASH、HBM等。AI的發展由海量數據支撐,對數據處理提出了極高的要求,因而需要更大的內存去存儲更多的數據,國內相關重點廠商包括兆易創新、江波龍、佰維存儲、德明利、瀾起科技

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論