




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
AI仍是科技產業(yè)主旋律,當前正步入AI
Agent階段早期2023年ChatGPT開啟AI的“iPhone”時刻,AI行業(yè)經歷2年左右時間發(fā)展,2H24以來步入AI
Agent階段的早期:AI
大模型階段:
2023
年
ChatGPT
開啟 AI
的“iPhone
時刻”,拉開AI大模型時代的序幕。Open
AI、谷歌、百度、阿里巴巴、騰訊、字節(jié)跳動、商湯科技等大型互聯網廠商&科技公司紛紛發(fā)布旗下AI大模型、并持續(xù)加大AI大模型的研發(fā)投入,“百模大戰(zhàn)”一觸即發(fā)。AIAgent階段:2024年9月,Open
AI發(fā)布o1模型,基于RL(強化學習)+CoT(思維鏈)
,為具備自主規(guī)劃能力的AI
Agent奠定基礎。當前隨著AI應用商業(yè)化落地進程加快,
生成式AI對各種使用場景、應用領域、終端的滲透率提升,當前產業(yè)正步入AI
Agent階段的早期:1)AI算力需求從訓練逐步向推理過渡,產業(yè)鏈延續(xù)高景氣;2)AI大模型逐步滲透至手機、PC、汽車、機器人等終端,端側生態(tài)蓬勃發(fā)展;3)AI應用與具體業(yè)務場景的融合不斷強化,具備爆款潛質的應用開始萌芽。AGI通用人工智能階段:長遠來看,隨著AI算力基建擴容和大模型技術的不斷迭代,
人工智能的“涌現”將帶領人類社會步入AGI時代。圖表1:AI應用發(fā)展可分成AI大模型、AI
Agent和AGI三階段請務必參閱正文之后的重要聲明1資料來源:光大證券研究所繪制把握AI算力-終端-應用全產業(yè)鏈投資機會主線請務必參閱正文之后的重要聲明2我們認為AI仍是2025年全球科技的核心主題,AI大模型的迭代、新應用的落地持續(xù)帶來算力基礎設施增量需求,亦將助力終端生態(tài)和交互的新變革,賦能千行百業(yè)迎來新奇點。本篇報告系統(tǒng)化梳理AI科技行業(yè)變化、技術趨勢,詳細拆解產業(yè)鏈各環(huán)節(jié)競爭格局,圍繞算力-終端-應用三大主線,深度分析投資邏輯、及重點標的,對應投資機會的分析和把握:算力為基:多模態(tài)+AI推理+多元客戶驅動需求持續(xù)高漲,供給改善強化業(yè)績增長確定性,持續(xù)看好25年英偉達及算力集群產業(yè)鏈投資機會。24Q2以來,半導體復蘇節(jié)奏呈現整體表現偏弱、不同領域分化的特點,美股市場對AI算力產業(yè)鏈公司的投資整體趨于理性,核心聚焦業(yè)績兌現度、行業(yè)格局變化、技術演進趨勢,綜合:1)短期高業(yè)績支撐性及兌現度,2)具備強邏輯的長期行業(yè)成長性,3)高AI敞口,我們梳理四條核心投資主線:AI算力“賣鏟人”:AI大模型Scaling
Law構建算力增長底層邏輯,英偉達憑借單卡性能+軟件生態(tài)+通信組網的綜合優(yōu)勢,
手握大量確定性訂單,23Q1至24Q3業(yè)績持續(xù)高增。CoWoS-L供給情況改善后,看好2025年英偉達業(yè)績在Blackwell出貨推動下持續(xù)高速增長。推薦:英偉達。英偉達產業(yè)鏈:1)CoWoS:先進封裝CoWoS產能成AI算力供應瓶頸,關注:臺積電、Amkor科技。2)存儲:行業(yè)開啟漲價周期,AI手機/AIPC提升容量需求,云端算力帶動HBM供不應求、市場規(guī)模高速增長。關注:美光科技;3)服務器:AI算力需求強勁帶動AI服務器出貨量攀升、在手訂單高漲,關注:戴爾科技、惠普、慧與、IBM、超微電腦;受益于AI算力大規(guī)模集群化:
2024年英偉達發(fā)布基于Blackwell
GPU的NVL機架系統(tǒng),大規(guī)模AI算力集群成為趨勢,
AI算力產業(yè)紅利進一步外溢,1)網絡:萬卡算力集群化趨勢驅動通信互聯需求,且更多供應商獲得英偉達認證,利好網絡通信相關中小盤標的。關注:①交換機相關:
Arista網絡、Juniper網絡、Marvell科技、博通;②DSP芯片:Credo科技、Marvell科技、博通;③光模塊:Coherent、應用光電、先科電子;④線纜:安費諾、Credo科技、Lumen科技。2)液冷:AI芯片性能增強,風冷散熱能力達到極限,未來大型算力集群中液冷將成為必選項,關注:Vertiv。ASIC定制化芯片設計:
Meta、Google、微軟、亞馬遜為主的互聯網大廠布局芯片自研,AI算力需求由通用芯片向配合行業(yè)和公司特性的專用定制AI芯片轉型。關注:博通、Marvell科技。把握AI算力-終端-應用全產業(yè)鏈投資機會主線請務必參閱正文之后的重要聲明3終端為繼:AI大模型發(fā)展有望驅動PC、手機、智能汽車、機器人等終端的軟硬件生態(tài)持續(xù)迭代,看好AI趨勢對產業(yè)升級+下游需求的催化作用。AI
手機&PC:AI升級帶動智能手機、PC更加高效智能+個性化,
Apple、微軟、安卓、聯想等操作系統(tǒng)&終端陣營相繼布局完善生態(tài),硬件創(chuàng)新與換機周期有望迎來共振。持續(xù)推薦蘋果、小米集團,關注聯想集團、戴爾科技、惠普。看好多模態(tài)背景下影像光學+聲學產業(yè)鏈,關注高偉電子、瑞聲科技、舜宇光學科技。智能駕駛:車企智能化的迭代節(jié)奏進入加速階段,搭載多融合傳感器+智能駕駛AI算法優(yōu)化的智能汽車或將成為行業(yè)未來發(fā)展方向,建議關注智駕能力領先廠商特斯拉,關注智駕芯片廠商地平線;關注激光雷達廠商禾賽科技、速騰聚創(chuàng);關注智能車載屏顯廠商京東方精電。機器人:多模態(tài)規(guī)劃大模型+端到端神經網絡有望持續(xù)賦能具身智能機器人,人形機器人商業(yè)化進展持續(xù)推進,建議關注技術+落地領先廠商特斯拉、優(yōu)必選。把握AI算力-終端-應用全產業(yè)鏈投資機會主線請務必參閱正文之后的重要聲明4應用為核:AI算力開支的變現依賴于下游應用場景的增長。美股AI應用公司24Q3業(yè)績基本面轉暖,底層大模型迭代、特朗普勝選疊加降息對美國經濟預期更加樂觀。看好AI應用將驅動美股AI應用在25-26年迎來大周期:短期:關注生成式AI的低代碼、可視化能力對核心體驗提升較直觀的領域,以及受益于決策式AI的領域,關注:1)IT運維:ServiceNow、Datadog、Gitlab、Dynatrace;2)廣告營銷:AppLovin、Meta、谷歌、Zeta;3)數據治理:Palantir、C3.AI;4)網絡安全:CrowdStrike、Palo
Alto網絡、Cloudflare。中期:從底層改變企業(yè)運營治理,利用AI打通數據孤島,融入企業(yè)工作流。幫助行業(yè)客戶簡化AI探索、優(yōu)化企業(yè)運營效率的平臺將具備巨大的潛在需求,推薦微軟,關注:1)大型企業(yè)服務平臺:ServiceNow、Salesforce、SAP、Oracle。2)特定業(yè)務流:Workday、Atlassian、Zoom、Twilio、Asana。長期:隨著各行業(yè)AI與具體業(yè)務場景的融合效果得到驗證,AI應用相對傳統(tǒng)應用的比例將不斷提升,對應的上游需求將水漲船高,關注:1)NoSQL數據庫/數據倉庫:Snowflake、MongoDB;2)可觀測性:Datadog、Confluent;3)訓練數據版權:Reddit、Shutterstock。4、行業(yè)垂類:隨著LLM推理成本的持續(xù)降低,以及多模態(tài)、Agent等技術的迭代,AI+行業(yè)垂類將打開廣闊的市場空間,建議關注:1)AI+多媒體:Adobe、SoundHound。2)AI+教育:Duolingo、Coursera;3)AI+金融:Intuit、FICO、Lemonade、CCC智能,Guidewire。4)AI+電商:亞馬遜、Shopify。風險提示:AI產業(yè)鏈產能擴產可能存在瓶頸;AI行業(yè)競爭加劇的風險;AI大模型迭代及下游應用進展不及預期,大模型訓練和推理的算力需求的下行風險;下游需求不及預期風險;市場競爭加劇風險;市場拓展不及預期;商業(yè)化進展不及預期風險;國內外政策風險。算力為基:AI
Agent+多模態(tài)+推理支撐新需求,算力集群趨勢帶動產業(yè)紅利終端為繼:AI
+終端百花齊放,邊緣SoC+生態(tài)系統(tǒng)+硬件迭代構筑端側智能體應用為核:海外AI應用大周期拉開帷幕,各細分領域行情分階段演繹風險提示請務必參閱正文之后的重要聲明5AI
Agent+多模態(tài)+推理支撐新需求,算力集群趨勢帶動產業(yè)紅利請務必參閱正文之后的重要聲明6供需:未到“思科時刻”,AI
Agent+推理+供給改善助力持續(xù)高景氣芯片:英偉達龍頭引領,產業(yè)鏈迎來ASIC和組網集群新紅利機遇服務器:未交付訂單金額持續(xù)增長,但短期盈利能力有所承壓供需:未到“思科時刻”,AI
Agent+推理+供給改善助力持續(xù)高景氣產業(yè)鏈梳理:AI算力高景氣,單卡到組網集群各環(huán)節(jié)均受益AI
Agent新階段,預訓練、后訓練和測試時間三類Scaling
Law齊頭并進需求:英偉達未到“思科時刻”,客戶后續(xù)資本開支投入可見度高技術供給:AI芯片迭代助推算力成本下降,為推理側和應用發(fā)展蓄力產能供給:CoWoS預計2025年翻倍擴產,12層HBM3E已實現量產請務必參閱正文之后的重要聲明7生成式AI浪潮推動AI大模型研發(fā)和相關應用開發(fā)需求,算力硬件公司作為“賣鏟人”持續(xù)受益。芯片側,GPU
直接受益,英偉達Blackwell需求強勁、供不應求。ASIC定制化積極配合云廠商等大客戶。芯片制造和CoWoS封裝產業(yè)鏈因旺盛需求積極擴產。服務器側,AI芯片積極出貨進而帶動服務器訂單高增,同英偉達密切合作的公司受益程度更高。AI服務器同時
帶動HBM和SSD等存儲需求。數據中心側,算力集群化趨勢帶動網絡互聯需求,利好光模塊、交換機、線纜等。數據中心的電力需求激增,推高清潔能源和液冷需求。產業(yè)鏈梳理:AI算力高景氣,單卡到組網集群各環(huán)節(jié)均受益圖表2:AI算力硬件產業(yè)鏈梳理資料來源:應用光電官網,先科電子官網,C114通信網,36氪,網易,搜狐,華爾街見聞,光大證券研究所整理繪制請務必參閱正文之后的重要聲明8需求:AI大模型積極迭代,Scaling
Law構建算力增長底層邏輯模型Lab發(fā)布時間參數量ChatGPT
o1-previewOpenAI2024年9月12日ChatGPT
4oOpenAI2024年5月13日Qwen2.5阿里云2024年5月9日Claude
3.5
SonnetAnthropic2024年6月21日DeepSeek
-V2.5深度求索2024年9月6日236BGLM-4-Plus智譜AI2024年8月29日405BStable
LM
2Stability
AI2024年1月19日1.6BGemini
1.5Google2024年2月15日Llama
3.2Meta
AI2024年9月25日lightweighttext-only:1B&3B;larger:11B&90BMixtral
8x22BMistral
AI2024年4月10日141BSoraOpenAI2024年2月15日PalM2Google2023年5月10日Claude
2Anthropic2023年7月11日ChatGPT
4OpenAI2023年3月14日ChatGPT3.5OpenAI2022年11月30日生成式AI競賽中,各公司加快訓練大模型,模型發(fā)布時間縮短,帶動所需算力增長。單以OpenAI為例,2024年已推出文生視頻大模型Sora、多模態(tài)大模型GPT-4o和擅長解決數學、代碼等復雜推理問題的o1。AI大模型仍在積極迭代、向更強性能和更多功能沖刺。Scaling
Law:OpenAI于2020年的一篇論文提出,大模型最終性能主要與計算量、模型參數量和訓練數據量三者的大小相關,而與模型具體結構(層數/深度/寬度)基本無關;而且AI大模型規(guī)模(參數量和數據集)擴大,除了提升原有性能表現外,還會“涌現”原來不具有的能力。Scaling
Law奠定了客戶提升大模型性能必須購買堆疊AI算力的底層邏輯。圖表3:近兩年已發(fā)布的重點AI大模型情況匯總 圖表4:大模型表現隨著模型計算量提升而變佳請務必參閱正文之后的重要聲明9資料來源:Epoch
AI資料來源:OpenAI官網,
Stability
AI官網,
Anthropic官網,Google官網,Meta
AI官網,53AI網,華爾街見聞,新華網,網易新聞,新浪財經,光大證券研究所整理需求:AI大模型積極迭代,Scaling
Law構建算力增長底層邏輯資料來源:Life
Architect,騰訊云,36氪,Lambda,Medium,光大證券研究所整理計算量的增長驅動AI大模型開發(fā)廠商構建更大的AI芯片算力集群。OpenAI訓練GPT-4時,在大約2.5萬個A100上訓練了90到100天;而OpenAI訓練GPT-3時,在大約1萬個V100上訓練了15天。68倍計算量增長驅動OpenAI采用性能增強的AI芯片、更多芯片數量的算力集群、增長訓練時間。各大模型廠商紛紛囤積AI芯片用于模型訓練。Meta
CEO扎克伯格表示2024年底Meta將擁有35萬塊H100,擁有近60萬個GPU等效算力;根據The
information預測,截至2024Q1,OpenAI用于模型訓練的服務器集群約包括12萬個英偉達A100,而2024年全年的訓練成本(包括支付數據的費用)可能由原先最早計劃的8億美元增至30億美元。圖表5:OpenAI
GPT-4的訓練算力需求相較GPT-3大幅增加參數量Tokens數據規(guī)模FLOPS訓練芯片型號芯片數量訓練時長(B)(B)(GB)(天)GPT-417601300050002.15
e25A1002500095GPT-31753005703.14
e23V1001000015請務必參閱正文之后的重要聲明10需求:RL+CoT推動AI
Agent,疊加多模態(tài)推動推理算力大幅提升RL+CoT
對于實現能自主規(guī)劃的
AI
Agent
至關重要。
AI
Agent應當擁有自主理解、規(guī)劃和執(zhí)行復雜任務的能力,是打破AI應用發(fā)展瓶頸的關鍵,可以將簡單的指令自主拆分成多個步驟并精細化執(zhí)行,將上一環(huán)節(jié)的輸出作為下一環(huán)節(jié)的輸入。強化學習(RL)具備自主探索和連續(xù)決策的能力。其中包括self-play和蒙特卡洛樹搜索(MCTS)。思維鏈(CoT)通過分步推理,要求模型在生成最終答案前生成一系列中間推理步驟,實現“內部思維”的推理過程。強化學習推理推出測試維度Scaling
Law,提升推理算力需求。強化學習范式使得推理過程包含多次推理迭代、更加復雜的搜索算法或模型的深度思考,因此推理中的思考時間(即測試時間)產生的數據量需要投入更多計算資源。圖表6:o1在AIEM測試中的準確率與“訓練時間計算”和“測試時間計算”呈正比資料來源:華爾街見聞,光大證券研究所請務必參閱正文之后的重要聲明11資料來源:論文《
The
Illustrated
Transformer
》(作者Jay
Alammar),《Enhancing
Jujube
Forest
Growth
Estimation
andDisease
Detection
Using
a
Novel
Diffusion-Transformer
Architecture》(作者Xiangyi
Hu),Creative
Commons,21經濟,光大證券研究所整理繪制圖表7:各模態(tài)切片匯總,音頻、圖片、視頻切片后對應的Tokens數相較文字大幅增加多模態(tài)大模型輸入輸出Tokens規(guī)模較純文本數據大幅提升。圖片和視頻形式需要矩陣級分割成Tokens。RL+COT帶來測試維度Scaling
Law,多模態(tài)要求推理階段更多Tokens輸入輸出,均驅動推理算力需求大幅上升,但不代表訓練算力需求會停止增長。1)AI
Agent和多模態(tài)要求新模型持續(xù)研發(fā);2)預訓練階段同樣需要消耗大量的算力;3)強化學習推理和多模態(tài)大模型均并不意味著模型參數停止擴張,因為主模型參數提升可能會產生更好的推理路徑和表現。需求:RL+CoT推動AI
Agent,疊加多模態(tài)推動推理算力大幅提升請務必參閱正文之后的重要聲明12需求:英偉達未到“思科時刻”,跟蹤客戶訂單和資本開支計劃資料來源:鳳凰網,英偉達官網,投資界,光大證券研究所整理宏觀背景①突發(fā)事件的宏觀擾動(2020年的新冠/2022年2月的俄烏戰(zhàn)爭
vs
1990年的海灣戰(zhàn)爭/1997年的亞洲金融危機)②新政府的財政刺激(2022年拜登政府的“芯片法案”
vs
1993年克林頓政府的“信息高速公路計劃”)③降息周期的寬松環(huán)境(2024年底開啟的降息周期
vs
1990年至1999年的階梯式降息長周期)④經濟軟著陸后的需求回歸(2024年的經濟軟著陸
vs
1994年的經濟軟著陸)中觀背景①新技術迭代(大模型
vs
萬維網)②“賣鏟”公司壟斷(2023年英偉達的GPU
vs
1993年思科的路由器/交換機
)③標志應用的推出(2023年ChatGPT
vs
1995年Netscape
)行業(yè)需求英偉達下游AI初創(chuàng)公司及云廠商的大量資本開支明確用于AI基礎設施建設,AI芯片獲取直接決定下游公司產品迭代速度,行業(yè)實際需求強勁。大量互聯網公司資金大量投入廣告和推廣而非產品和技術投入,需求泡沫堆積,缺乏更新換代動力,基礎設施建設完成后需求迅速下降。客戶分布AI初創(chuàng)及云服務大客戶資本充裕穩(wěn)定,下游客戶領域仍在多元擴展:主權AI、垂直大模型、跨行業(yè)應用方興未艾。 客戶集中于有線電視和電信行業(yè),存在資本支出周期。行業(yè)競爭壁壘AI芯片技術、資金壁壘高,創(chuàng)新難度大,龍頭企業(yè)先發(fā)優(yōu)勢和經驗積累優(yōu)勢明顯,不易受挑戰(zhàn)者沖擊。交換機和路由器技術壁壘相對較低,思科受到華為等后發(fā)競爭對手在價格和性能上的威脅,迅速失去市場份額。短期需求各主要客戶陸續(xù)披露資本開支計劃和芯片需求,短期需求可見度高,強勁需求趨勢延
2000年前思科戰(zhàn)略決策已經呈現過度擴張趨勢,大量囤積庫存、瘋狂收購、擴續(xù)。 張產品線等策略埋下隱患。AI算力產業(yè)鏈相較互聯網時期的“思科泡沫”
,存在客戶積極研發(fā)投入、行業(yè)競爭壁壘高等優(yōu)勢。1)AI算力客戶群體(云廠商、AI初創(chuàng)公司)投入大量資本開支用于AI基礎設施建設,思科對應的互聯網公司資金除產品技術投入外更多投入廣告宣傳;2)AI芯片技術和資金壁壘高,思科的路由器、網絡技術壁壘低,后期市場競爭激烈。“思科泡沫”警醒應緊密跟蹤AI算力需求和訂單變化,當前英偉達Blackwell芯片訂單可見度高。互聯網泡沫破滅時,思科存在22億美元過剩庫存,因此應短期監(jiān)控客戶訂單、中長期跟蹤下游客戶需求和資本開支計劃。圖表8:當前英偉達和思科崩盤前的背景、行業(yè)和公司表現對比英偉達 思科請務必參閱正文之后的重要聲明13需求:北美科技巨頭資本支出持續(xù)增加,短期算力需求仍有支撐圖表10:科技公司資本支出占營運現金流的比例變化趨勢資料來源:彭博,光大證券研究所整理,已排除自由現金流為負的年份和極端值,24E數據為彭博一致預期80%60%40%20%0%100%
140%120%2015 2016 2017 2018 2019 2020 2021微軟 亞馬遜
谷歌
Meta
特斯拉2022 2023 2024EOracle
100%圖表9:北美科技巨頭23Q1-24Q2資本支出與同比增速(單位:億美元)資料來源:各公司公告,光大證券研究所整理23Q123Q223Q323Q424Q124Q2微軟78.0107112115109.5190YoY23.8%23.0%69.7%69.1%40.4%77.57%谷歌62.968.980.6110120131YoY-35.7%0.9%10.7%45.1%90.8%90.13%Meta70.963.567.6796785YoY27.7%-18.0%-28.9%-14.4%-5.5%33.86%亞馬遜131104113133139169YoY-4.4%-26.2%-24.7%-14.2%6.1%62.50%北美科技公司陸續(xù)進入新一輪AI投資周期,資本支出大幅增加,短期內對高端AI芯片的需求仍較為強勁根據Omdia,23年微軟、Meta共計購買15萬張H100
GPU,谷歌、亞馬遜共計購買5萬張H100
GPU。由于谷歌、亞馬遜擁有自研AI芯片的儲備,對第三方芯片供應商的依賴較弱,但隨著LLM性能迭代和用戶對AI服務的要求提升,當前階段訓練和推理均需要高性能GPU和大規(guī)模集群算力的支撐,幫助科技巨頭培養(yǎng)早期口碑、搶占市場先機。雖然科技巨頭仍有充足的營運現金流支持資本開支持續(xù)增加,但仍面臨一定的成本壓力,長期AI投資策略可能發(fā)生變化從資本支出占營運現金流的比例來看,利潤壓力較大的亞馬遜、Meta、Oracle大幅削減了資本支出的占比,谷歌資本支出占比無明顯變化,微軟、特斯拉資本支出占比均呈上升趨勢。而根據公司指引,2024年和2025年科技巨頭有望繼續(xù)增加資本支出,Meta則明確指出持續(xù)增加的投資會使2025年的折舊成本大幅提升。根據彭博一致預期,2024年科技巨頭資本支出占營運現金流的比例將普遍達到40%以上。因此,在AI的投資回報率尚不明顯的現狀下,科技巨頭會更加重視AI戰(zhàn)略的性價比。請務必參閱正文之后的重要聲明14需求:云廠商注重AI產品創(chuàng)新,AI算力公司對長期增速表態(tài)樂觀資料來源:新浪財經,南方財經,BiaNews,華盛通,騰訊,智通財經,芯智訊,光大證券研究所整理云廠商和OpenAI積極研發(fā)投入,產品創(chuàng)新和模型推理運作將為主要工作負載。OpenAI表示2030年前預計累計投入2000億美元;云廠商方面更注重針對不同行業(yè)和客戶需要開發(fā)具備實用性、創(chuàng)新性的功能,激發(fā)客戶的購買和復用意愿。AI芯片廠商預計AI芯片市場規(guī)模長期維持較快復合增速。AMD預計2028年數據中心人工智能加速器市場規(guī)模將達到5000億美元(2023年~2028年期間的年均復合增速60%+);英偉達和Dell科技預計數據中心由通用計算向加速計算轉型,帶來萬億級別數據中心市場空間。圖表11:各公司對AI算力產業(yè)鏈相關需求的表述與預期匯總請務必參閱正文之后的重要聲明15行業(yè)公司對于未來長期AI算力需求的表述AI大模型OpenAI預計2030年前累計花費2000億美元,其中60%-80%將用于訓練和運行模型;2026年的大模型訓練成本或提高至95億美元。云廠商MetaAI模型會針對不同行業(yè)和用戶進行大量產品和應用創(chuàng)新,具備更多實用性功能。新一代
Llama
模型的訓練需求,資本支出將在2025年顯著增長,投入注重大模型訓練、推理和業(yè)務支持。GoogleAI大模型正在整合基礎功能,未來的重點是基于這些功能構建解決方案。Microsoft公司將在未來幾個季度繼續(xù)加大資本支出,以擴展基礎設施建設。當前大部分AI工作負載來自推理運行工作。Amazon生成式AI仍處非常早期階段,公司已在AI領域實現數十億美元收入,而需求增長仍非常顯著,看好AI未來持續(xù)發(fā)展。AI芯片英偉達未來幾年內,總值達1萬億美元的數據中心將全部實現加速計算。當前客戶對于Blackwell需求旺盛,供不應求使得客戶關系緊張。AMD預計2023年~2028年數據中心人工智能加速器市場將以每年60%+的速度增長,2028年市場將增長至5000億美元。此前曾預計2027年市場規(guī)模達4000億美元。Marvell科技Marvell對應的數據中心TAM將從2023年的210億美元增長至2028年的750億美元,年復合增長率29%。其中,預計ASIC加速計算芯片業(yè)務2028年市場規(guī)模將達429億美元。服務器Dell科技未來數據中心將更多轉向采用GPU和AI加速器以滿足對復雜AI工作負載的支持。請務必參閱正文之后的重要聲明16供給:AI芯片迭代助推算力成本下降,為推理側和應用發(fā)展蓄力圖表12:已發(fā)布重點AI芯片情況匯總資料來源:英偉達官網,谷歌云官網,新浪財經,芯智訊,IT之家,搜狐,TOP
CPU,新浪科技,36氪,信息化觀察網,hpcwire,icsmart,光大證券研究所整理圖表13:AI芯片算力成本出現下降趨勢資料來源:騰訊網,新浪財經,光大證券研究所整理底層邏輯提升芯片性能以降低算力單位成本,進而幫助AI為“推理”運行服務。單芯片改善提升單顆芯片峰值算力。機架級改善基于芯片和網絡互聯的性能提升,GB200
NVL72相較等數量的
H100Tensor
Core
GPU,可為LLM推理工作負載提供30倍性能,同時將成本和能耗降低25倍,大幅降低單位算力成本。AI芯片廠商產品迭代加速,英偉達性能優(yōu)勢明顯。自2023年以來,英偉達、AMD和博通等AI芯片廠商均積極進行產品迭代。性能提升幫助算力成本下降,降低AI應用推理運行門檻,幫助硬件和應用形成正向循環(huán)。單芯片性能提升、算力集群整體運行效率增強均幫助單位算力成本下降,有望促進AI應用和產品研發(fā)和使用,豐富的AI應用則將為AI算力帶來持續(xù)需求。供給:產能瓶頸CoWoS和HBM的供給情況均在積極改善資料來源:TrendForce,光大證券研究所資料來源:格隆匯,新浪財經,IT之家,TheElec,光大證券研究所整理公司CoWoS產能情況臺積電2024年底CoWoS月產能4萬片;2025年底CoWoS月產能預計爬升至8萬片。聯華電子2023年8月消息,英偉達打造非臺積電CoWoS供應鏈,其中聯華電子將擴充旗下硅中介層(silicon
interposer)產能,把月產能由3千片擴增至1萬片。三星電子2024年4月消息,三星電子已經成功拿下英偉達2.5D封裝訂單,提供Interposer(硅中介層和I-Cube先進封裝產能,以補充臺積電CoWoS產能缺口。CoWoS:AI芯片擴產瓶頸之一是CoWoS先進封裝中的硅中介層(interposer)產能。1)臺積電克服土地和廠房等擴產限制,2025年底CoWoS月產能預計由2024年底4萬片翻倍擴至8萬片;2)英偉達積極擴展非臺積電的CoWoS供應鏈,吸納聯華電子和三星電子實現對臺積電的產能補充。HBM:根據TrendForce,英偉達和AMD的AI芯片積極提升搭載HBM規(guī)格,由HBM3向HBM3E更迭,由8層堆疊向12層堆疊更迭,并不斷提升HBM容量和內存帶寬。圖表14:CoWoS供應鏈的擴產情況匯總 圖表15:英偉達和AMD
AI芯片采用HBM產品的規(guī)格情況預測請務必參閱正文之后的重要聲明17供給:12層HBM3E于2024H2量產,HBM42025年蓄勢待發(fā)圖表16:三大存儲廠商的HBM3E研發(fā)和供應進展資料來源:
TrendForce,光大證券研究所公司最新財報AI業(yè)務表述HBM擴產計劃HBM產品迭代SK海力士1)24Q3
,
HBM營收環(huán)比增長70%,同比增長330%;
Q3中HBM銷售額占DRAM
的30%
,
預計Q4將實現40%。2)24Q3,eSSD營收環(huán)比增長20%,同比增長430%。)
2024
年
SK
海力士HBM產能預計翻倍;)
2024
年
SK
海力士HBM產能售罄,且2025年也基本售罄。1)
據Q3業(yè)績會,
12層HBM3E產品將于
2024Q4
出貨,
預計2025H1HBM3E12H將
占HBM3E總出貨量的50%;2
)
據
Q2
業(yè)績會
,
2024
年HBM3E將占HBM出貨量的50%3)
據Q2業(yè)績會,
2025年12層HBM3E將成為旗艦產品;4)
據Q2業(yè)績會,
2025H2推出12層堆疊HBM4。三星電子1)24Q2
,
HBM營收環(huán)比增長50%+;2
)
24Q2
,
服務器SSD營收環(huán)比增長約40%;3)
24Q3,
HBM3E營收占HBM總收入比重略高于10%,預計Q4將增至50%。HBM3E全面增產1)24Q1向客戶發(fā)送8層HBM3E樣品,24Q3正在量產8層和12層HBM3E產品;2)12層HBM3E已完成開發(fā),目前已發(fā)送樣品并完成增產準備,預計24H2根據客戶需求情況擴大供應;3
)
HBM4
按計劃研發(fā),
預計
2025H2發(fā)布。美光科技2024年和2025年的HBM產品均已售罄,
且定價已確定-2024年3月,12層HBM3E產品送樣,并預計2025年大批量生產。請務必參閱正文之后的重要聲明18圖表17:三大存儲廠商的HBM產品的業(yè)績、產能和技術情況匯總資料來源:三星電子官網,美光科技官網,新浪財經,新浪科技,理財網,華爾街見聞,光大證券研究所整理HBM供不應求,三大存儲廠商積極擴產,驅動相關收入高增。美光表示其HBM產品2024年和2025年產能均已售罄,三大廠商均加大產能供給,2025年預計HBM出貨量持續(xù)高增以驅動收入增長。存儲廠商競相推出新款HBM技術,并加速量產出貨。2024年HBM芯片將向HBM3E產品迭代,其中三大存儲廠商均發(fā)布8層HBM3E;三星和SK海力士于24Q3量產出貨12層HBM3E,美光科技將于2025年大批量出貨12層HBM3E;SK海力士和三星電子預計于2025H2推出HBM4。芯片:英偉達龍頭引領,產業(yè)鏈迎來ASIC和組網集群新紅利機遇英偉達:Blackwell交付順利,系統(tǒng)級機架出貨支撐2025年業(yè)績高增速AMD:MI325x注重推理,仍需關注集群算力產品和客戶拓展博通:大廠自研趨勢助推ASIC芯片業(yè)務,算力集群化利好通信業(yè)務臺積電:掌握先進制程和先進封裝優(yōu)勢,AI時代下“強者恒強”請務必參閱正文之后的重要聲明1920英偉達:股價歷史復盤,多輪業(yè)績超預期驅動股價快速抬升請務必參閱正文之后的重要聲明資料來源:彭博,光大證券研究所繪制。注:股價截止日期為2024年12月11日英偉達股價可分成邏輯推演期和業(yè)績兌現期:1)邏輯推演期(23M1~23M5):英偉達收割生成式AI算力紅利“鏟子”邏輯突出,市場預期AI算力需求強勁、英偉達手握大量確定性訂單;2)業(yè)績兌現期(23M5~至今):
亮眼業(yè)績不斷推高盈利預測,進而帶動股價提升。業(yè)績驅動股價:英偉達憑借其技術優(yōu)勢,奪得絕大部分AI
GPU市場份額,成為收獲AI算力紅利的主要受益公司。AI算力需求幫助英偉達數據中心業(yè)務營收高速增長,同時高價值量的AI
GPU幫助英偉達盈利能力爬升。根據股價拆分圖,盈利預期提升成為英偉達市值持續(xù)增長的主要原因。圖表18:英偉達強勁業(yè)績驅動股價大幅抬升請務必參閱正文之后的重要聲明英偉達:發(fā)布超級芯片GB200,機架系統(tǒng)級性能和能效大幅提升圖表19:GB200超級芯片由2個B200
GPU和1個Grace
CPU組成B200
SXMH200
SXMH100
SXMA100(80GB)
SXMGPU
SubsystemHBM3eHBM3eHBM3HBM2eMemory
Bandwidth8TB/s4.8TB/s3.35TB/s2TB/sVRAM192GB(2*96GB)141GB80GB80GBFP8
Tensor
Core9000
TFLOPS3958
TFLOPS3958TFLOPS624TOPSFP16
Tensor
Core4500
TFLOPS1979TFLOPS1979TFLOPS312TFLOPSTF32
Tensor
Core2250
TFLOPS989TFLOPS989TFLOPS156TFLOPS(tensore
float)FP64
Tensor
Core40
TFLOPS67TFLOPS67TFLOPS19.5TFLOPSInterconnectNVLink
5:1800GB/sNVLink
4:
900GB/sNVLink
4:
900GB/sNVLink
3:
600
GB/sPCIe
Gen5:
256GB/sPCIe
Gen5:
128GB/sPCIe
Gen5:
128GB/sPCIe
Gen4:
64
GB/sTDP1000W700W700W400W資料來源:英偉達官網,光大證券研究所整理21圖表20:Blackwell平臺產品涉及GPU、CPU、網絡等多類產品資料來源:英偉達官網 資料來源:英偉達官方材料圖表21:英偉達AI芯片性能匯總,B200(SXM)單卡峰值算力提升至H200(SXM)的兩倍以上(除FP64精度)Blackwell全新架構實現單卡芯片算力密度及峰值算力較上代
Hopper
躍升。Blackwell
GPU實現兩個GPU
die雙芯片堆疊,
晶體管數量較Hopper
GPU提升160%
,
B200
同精度的峰值算力也較H200均提升至少一倍(除FP64精度外)。弱化單獨GPU芯片,英偉達推出當前最強AI
芯片GB200
。GB200
通過NVLink-C2C接口連接兩個
Blackwell GPU
和一個
Grace
CPU,GB200推理速度為H100的7倍,訓練速度為H100的4倍(基于GPT-3模型)。互聯技術幫助GB200機架系統(tǒng)實現通信速度和整體性能的大幅提升。GB200還可擴充
至機
架系
統(tǒng)
級
產
品
,
DGX
GB200NVL72機架通過18個NVLink
Switch芯片連接36個GB200,幫助Blackwell機架級系統(tǒng)推理性能較Hopper算力集群提升至30倍(基于GPT-MoE模型)。請務必參閱正文之后的重要聲明22英偉達自研通信芯片,實現通信能力持續(xù)增強。1)NVLink
5.0在B200上實現1.8TB/s的數據傳輸,較4.0提升一倍;2)NVLink
Switch是第一款機架級交換機芯片,能夠在無阻塞計算結構中支持多達
576
個完全連接的
GPU。圖表22:英偉達、AMD和博通的芯片通信產品發(fā)布時間表資料來源:英偉達官網,騰訊云,搜狐,36氪,智東西,IThome,光大證券研究所整理繪制英偉達:自研通信芯片成為組建大規(guī)模算力集群系統(tǒng)的關鍵資料來源:英偉達官網,光大證券研究所整理NVLink和NVLink
Switch是英偉達創(chuàng)建無縫、高帶寬、多節(jié)點GPU集群的關鍵。NVLink
Switch互連技術幫助已連接的GPU共享計算結果,提高通信速度,降低集群損耗。NVLink
Switch可組建連接GB200
NVL72的GPU實現全通信連接,并可進一步擴展、最多連接576個GPU,從而形成高效的數據中心大小的GPU算力集群。圖表23:英偉達NVLink通信芯片歷次迭代產品性能匯總表請務必參閱正文之后的重要聲明232nd
Generation3rd
Generation4th
Generation5th
GenerationNVLink
bandwidth
per
GPU300GB/s600GB/s900GB/s1,800GB/sMaximum
Number
of
Links
per
GPU6121818Supported
NVIDIA
ArchitecturesNVIDIA
Volta?
architectureNVIDIA
Ampere
architectureNVIDIA
Hopper?
architectureNVIDIA
Blackwell
architectureFirst
GenerationSecond
GenerationThird
GenerationNVLink
SwitchNumberofGPUswithdirectconnection
within
a
NVLink
domainUp
to
8Up
to
8Up
to
8Up
to
576NVSwitch
GPU-to-GPU
bandwidth300GB/s600GB/s900GB/s1,800GB/sTotal
aggregate
bandwidth2.4TB/s4.8TB/s7.2TB/s1PB/sSupported
NVIDIA
architecturesNVIDIA
Volta?
architectureNVIDIA
Ampere
architectureNVIDIA
Hopper?
architectureNVIDIA
Blackwell
architecture資料來源:英偉達官網,光大證券研究所整理圖表24:英偉達NVLink
Switch通信芯片歷次迭代產品性能匯總表英偉達:自研通信芯片成為組建大規(guī)模算力集群系統(tǒng)的關鍵英偉達:GB200
NVL72等機架系統(tǒng)大幅強化新一代AI計算能力HGX
B200HGX
B100GPU組成8
x
B200
SXM8
x
B100
SXMFP4
Tensor
Core144
PFLOPS112
PFLOPSFP8/FP6
Tensor
Core72
PFLOPS56
PFLOPSINT8
Tensor
Core72
POPS56
POPSFP16/BF16
Tensor
Core36
PFLOPS28
PFLOPSTF32
Tensor
Core18
PFLOPS14
PFLOPSFP64
Tensor
Core320
TFLOPS240
TFLOPS存儲高達1.5TBNVIDIA
NVLinkNVLink
5.0NVIDIA
NVSwitchNVSwitch
4.0GPU間帶寬1.8
TB/s總聚合帶寬14.4
TB/s資料來源:英偉達官方,光大證券研究所資料來源:英偉達官網,光大證券研究所圖表26:英偉達GB200
NVL72和GB200
NVL36的機架內部構成和結構圖表25:英偉達Blackwell系列服務器規(guī)格英偉達產品形態(tài)包括芯片、服務器和機架系統(tǒng)三個層級,存在依次組成構建的關系。芯片級:英偉達官方當前公布的芯片款式包括B100、B200和GB200三類,其中GB200由2個B200和1個CPU構成;服務器級:8個B100或B200芯片組成對應8卡服務器,GB200超級芯片服務器則配備兩個GB200超級芯片;機架系統(tǒng):服務器通過機架式設計,可實現多個服務器連接形成更多GPU互連,例如72個GPU連接的GB200
NVL72。機架系統(tǒng)組成:1)GB200
NVL72:計算部分由18個GB200
服務器構成(36個GB200超級芯片,即36個Grace
CPU+72個BlackwellGPU),中間通過9個NVLink
Switch
Tray實現通信共享;機架還可橫向拓展,如8個GB200
NVL
72機架可組成一個SuperPOD,創(chuàng)建一個576個GPU互連的大型算力集群。2)GB200
NVL36:單機柜形式,計算部分由9個GB200服務器構成,其中機架上方放置5個、機架下方放置4個,中間通過9個NVLink
Switch
Tray連接。請務必參閱正文之后的重要聲明24圖表27:英偉達和AMD的AI軟件生態(tài)系統(tǒng)結構圖英偉達:CUDA成為生態(tài)護城河,積極打造軟件配套服務圖表28:英偉達、AMD和Intel的AI軟件生態(tài)布局對比資料來源:AMD官網,HPCwire,騰訊云,光大證券研究所整理繪制資料來源:英偉達官網,AMD官網,光大證券研究所整理繪制請務必參閱正文之后的重要聲明25CUDA成英偉達生態(tài)護城河,AMD依賴遷移+開源追趕。英偉達CUDA具備豐富訓練框架和強大算子庫,開發(fā)者使用粘性強。CUDA支持JAX、PaddlePaddle、MXNet、PyTorch
Geometric、DGL等深度學習框架,且CUDA-XAI軟件加速庫具備豐富的數學、數據處理、圖像視頻、通訊等庫,以及TensorRT、cuDNN兩個專門綁定英偉達GPU的深度學習核心庫。英偉達打造軟硬一體解決方案。1)DGX平臺,打造從硬件到軟件的企業(yè)級AI平臺;2)AI
Enterprise軟件套件,幫助客戶靈活部署、加速降本,提供包括NeMo、Riva、NIM容器式微服務等應用。26請務必參閱正文之后的重要聲明資料來源:英偉達官網,AMD官網,光大證券研究所整理繪制;英偉達選取“Tensor
Core”,AMD選取“with
Structured
Sparsity”資料來源:新浪財經,光大證券研究所整理AMD:MI325x注重推理,仍需關注集群算力產品和客戶拓展NVIDIA
B200NVIDIAH200
SXMAMD
MI325XAMD
MI300XMemory
Clock8Gbps
HBM3eHBM3e6
GHz
HBM3E5.2
GHz
HBM3MemoryBandwidth8TB/s4.8TB/s6
TB/s5.3
TB/sVRAM192GB(2*96GB)141GB256GB192GBFP8稀疏4500TFLOPS3958
TFLOPS5.22
PFLOPs5.22
PFLOPsFP16稀疏2250TFLOPS1979TFLOPS2.61
PFLOPs2.61
PFLOPsTF32稀疏1100TFLOPS989TFLOPS1.3
PFLOPs1.3
PFLOPsFP64稀疏40TFLOPS67TFLOPS81.7
TFLOPs81.7
TFLOPsInterconnectNVLink
5:1800G/sNVLin
4:900GB/sInfinity
Fabric:128GB/sInfinity
Fabric:128GB/sAMD
MI325x發(fā)布,公司注重提升內存和推理性能。MI325x芯片采用MI300X相同的基本設計和CDNA
3
GPU架構,但配備256GB
HBM3e內存;注重推理性能,單顆MI325x在執(zhí)行Llama
3.1
70B等大模型的推理性能比英偉達H200快20%~40%,MI325X服務器在運行Llama
3.1405B時,較英偉達HGX
H200推理性能可提高40%。而AMD指引2024年AI芯片收入由原先40億美元上調至45億美元,主要系MI300貢獻。AMD積極彌補通信和軟件生態(tài)短板。1)通信:使用Infinity
Fabric,并推出業(yè)界首款支持UEC超以太網聯盟的AI網卡Pensando
Pollara
400和性能翻倍提升的Pensando
Salina
400
DPU。2023年7月,微軟、Meta、AMD、博通等公司組建UEC,致力于建立AI時代下的超大型網絡標準。2)生態(tài)系統(tǒng):AMD推出ROCm
6.2生態(tài)系統(tǒng),平均推理/訓練性能提高2.4倍。后續(xù)關注AMD的集群系統(tǒng)、軟件生態(tài)和客戶進展。AI工作負載由訓練向推理轉變,算力性能和軟件生態(tài)面臨的壁壘降低,但AMD仍較英偉達存在差距,我們建議關注后續(xù)進展突破。1)英偉達已推出機架級系統(tǒng),市場期待AMD的超大規(guī)模算力產品的推出;2)AMD積極推出通信產品,但實際可能較英偉達仍有差距,例如單顆MI325x訓練Llama
2
7B的速度超過單顆英偉達H200,但8張MI325X訓練Llama
2
70B的性能同英偉達HGX
H200相當;3)客戶當前以微軟為主,OpenAI、Meta、Cohere、xAI為其戰(zhàn)略合作伙伴,關注后續(xù)下單潛力。圖表29:英偉達和AMD新款AI芯片單芯片性能對比 圖表30:AMD公布后續(xù)AI芯片產品迭代路線圖資料來源:博通Hot
Chips
2024
PPT資料來源:博通投資者日PPT博通:大廠自研趨勢助推ASIC芯片業(yè)務,算力集群化利好通信業(yè)務定制芯片趨勢已來。相較英偉達等通用芯片,定制AI芯片ASIC具備低成本同時實現最大限度提高客戶關心性能的優(yōu)勢。博通當前已具備四家重要ASIC客戶,分別為Google、Meta、字節(jié)跳動和OpenAI,其中博通已幫助Google研發(fā)五代TPU芯片。通信成為組建大型算力集群的關鍵,博通以太網成為重要技術。GPU、網卡、內存之間需要高速傳輸數據,業(yè)界發(fā)明RDMA技術,使網卡接管數據,在發(fā)送方和接收方的內存間直接傳輸數據,從而繞過緩存和操作系統(tǒng)。英偉達主導的infiniband和以太網都支持RDMA,而博通以太網具備成本和開放生態(tài)優(yōu)勢,可供客戶組建大型算力系統(tǒng)時自由選擇軟硬組件。博通推出共同封裝光學器件(CPO)集成至ASIC芯片。共同封裝光學器件(CPO)這一新技術可提供功耗和成本領先優(yōu)勢,且顯著減少了系統(tǒng)延遲,并提高了數據傳輸速度、能效和頻寬。CPO技術已被使用在博通新一代的Tomahawk
5
Bailly交換機,目前博通在致力于開發(fā)硅光子學與共封裝光學器件的結合,以實現AI加速器ASIC芯片的進一步升級。圖表31:博通發(fā)布集成在ASIC的硅光子學和共封裝光學器件(CPO)技術 圖表32:AI數據中心算力集群需網絡通信產品連接,博通通信產品覆蓋較為全面27請務必參閱正文之后的重要聲明圖表33:CoWoS-S和CoWoS-L的區(qū)別對比資料來源:老虎說芯,華爾街見聞,光大證券研究所整理資料來源:華爾街見聞臺積電:掌握先進制程和先進封裝優(yōu)勢,AI時代下“強者恒強”圖表34:臺積電公布代工制程工藝的技術演進路線CoWoS-SCoWoS-L中介層硅中介層RDL中介層和LSI芯片尺寸和布線密度硅中介層尺寸受限,布線密度較低滿足更大尺寸需求,布線密度較高性能需求能夠支持更高的帶寬和更低的延遲滿足了性能和成本之間的平衡應用場景主要用于需要極高性能和高密度互連的應用,如HPC、AI加速器和高端服務器適用于兼顧性能和成本的應用,如網絡設備、通信基站和某些高端消費電子產品制造復雜性制造工藝復雜且對精度要求高,通常只在對性能要求極高且能夠承受較高制造成本的應用中使用制造復雜度高于CoWoS-S,能夠實現復雜系統(tǒng)集成的需求技術成熟度良率較高,目前高達99%良率偏低,目前約為90%AI芯片廠商為保證性能領先,均采取臺積電的先進制程和先進封裝工藝用于芯片生產,臺積電享受AI發(fā)展紅利。臺積電負責為英偉達、AMD和博通等AI芯片公司代工制造數據中心服務器端AI芯片,當前其CoWoS先進封裝產能已成AI芯片產能瓶頸。CoWoS-L成為英偉達Blackwell生產的關鍵。臺積電CoWoS-L較此前CoWoS-S技術,能夠幫助AI芯片實現更高布線密度和更大尺寸。3nm進入量產階段,2nm工藝預計于2026年量產。臺積電先進制程向2nm和3nm轉移,當前服務器端AI芯片、手機芯片、PC芯片等下游客戶向3nm過渡,支撐起臺積電未來強勁業(yè)績表現。28請務必參閱正文之后的重要聲明服務器:未交付訂單金額持續(xù)增長,但短期盈利能力有所承壓全球AI服務器市場規(guī)模有望持續(xù)高增,市場競爭格局較為分散三大服務器廠商AI服務器營收&未交付訂單金額增長,印證行業(yè)高景氣AI服務器賽道競爭激烈,三大品牌服務器廠商短期盈利能力承壓請務必參閱正文之后的重要聲明29資料來源:Counterpoint,光大證券研究所整理資料來源:
Statista
,光大證券研究所整理314052678811520040608010012014020232024E2025E2026E2027E2028E(十億美元)AI服務器市場規(guī)模全球AI服務器市場規(guī)模有望持續(xù)高增,市場競爭格局較為分散受益于生成式AI的數據分析、訓練、推理等多方面需求,AI服務器行業(yè)有望維持高景氣度。Statista研究數據顯示,2023年全球AI服務器市場規(guī)模為310億美元,預計2024年達到400億美元、2028年將達到1150億美元左右,2024-2028年間CAGR約30%。除云廠商委托ODM定制的AI服務器外,品牌服務器廠商DELL
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年03月寧波市海曙區(qū)古林鎮(zhèn)人民政府公開招聘3人筆試歷年典型考題(歷年真題考點)解題思路附帶答案詳解
- 廣東省東莞市實驗中學2024-2025學年高一下學期3月月考數學試卷(含答案)
- 南京郵電大學通達學院《中華音樂英文演繹》2023-2024學年第二學期期末試卷
- 西安外事學院《篆書》2023-2024學年第一學期期末試卷
- 寧夏大學新華學院《工程三級實訓(數據可視化技術)》2023-2024學年第一學期期末試卷
- 上海震旦職業(yè)學院《構成基礎》2023-2024學年第二學期期末試卷
- 麗江文化旅游學院《醫(yī)學統(tǒng)計學實驗》2023-2024學年第一學期期末試卷
- 濱州職業(yè)學院《小學課堂觀察》2023-2024學年第二學期期末試卷
- 貴州航空職業(yè)技術學院《交通運輸工程》2023-2024學年第二學期期末試卷
- 渤海理工職業(yè)學院《體適能理論與實踐》2023-2024學年第一學期期末試卷
- GB/T 21566-2008危險品爆炸品摩擦感度試驗方法
- GB/T 17207-2012電子設備用固定電容器第18-1部分:空白詳細規(guī)范表面安裝固體(MnO2)電解質鋁固定電容器評定水平EZ
- 國開電大《人員招聘與培訓實務》形考任務4國家開放大學試題答案
- 臨時用電現場安全檢查表
- 豬營養(yǎng)體系課件
- 青少年模擬法庭劇本(敲詐勒索)
- 中考復習確定二次函數的解析式課件
- 萬用表校準報告
- 公司金融課件(完整版)
- 地鐵盾構法施工技術試題
- 高處作業(yè)審批表
評論
0/150
提交評論