2025 人工智能系列深度:DeepSeek十大關鍵問題解讀_第1頁
2025 人工智能系列深度:DeepSeek十大關鍵問題解讀_第2頁
2025 人工智能系列深度:DeepSeek十大關鍵問題解讀_第3頁
2025 人工智能系列深度:DeepSeek十大關鍵問題解讀_第4頁
2025 人工智能系列深度:DeepSeek十大關鍵問題解讀_第5頁
已閱讀5頁,還剩16頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

DeepSeek十大關鍵問題解讀——人工智能系列深度評級:推薦(維持)證券研究報告計算機2025年02月13日2024/02/192024/05/192024/08/192024/11/19相對滬深300表現《計算機行業點評報告:DeepSeek攪動了全球Al的“一池春水”(推薦)*計算機*劉熹》

——2025-02-03《美國對華Al限制加劇,自主可控大勢所趨——Al

算力“賣水人”系列(4)(推薦)*計算機*劉熹》——2025-01-24《計算機行業事件點評:我國中部最大智算中心投產,國產算力景氣上行(推薦)*計算機*劉熹》——2025-01-14表現計算機

滬深3003M3.3%

-4.1%12M57.5%

16.5%1M30.1%

5.0%最近一年走勢相

告DeepSeek

探索出一條“算法創新+有限算力”的新路徑,開源Al時代或已至,國產Al估值或將重塑。◆

Q1:DeepSeek對于算力的影響?

—Jevons

悖論:短期訓練側算力需求或受影響,但DeepSeck推理價格下降吸引更多用戶調用模型,帶來英偉

達H100GPU的租賃價格提升,故表明算力需求量短期仍呈提升趨勢,中長期推理算力需求有望持續增長。◆

Q2:

文本與多模態對算力的需求差別?

多模態模型大規模應用,或將升級算力需求。Sora將大模型訓練數據從大規模的文本/圖像,發展到

視頻數據,提升了新的維度,這或將數倍提升算力需求。◆

Q3:

對芯片未來格局的影響?——訓練:NV仍具備計算與生態護城河,

DeepSeek

帶來模型訓練算力使用效率提升,

NV高等級芯片或主要用于

探索AGI;推理:推理化、國產化、

ASIC化為三大趨勢。◆

Q4:DeepSeek

系列模型為何引起轟動?

技術與開源:

DeepSek

優化模型結構

(MLA+MOE

、MTP)

模型訓練方法

(DualPipe)

、針對性

GPU優化

(FP8

混合精度等)等內容,降低了訓練成本,同時進行開源,各下游企業可以直接通過本地部署或云端調用,降低了調用成本。◆Q5:模型未來側重Dense還是Sparse(MOE)?—

一個通才(Dense)能夠處理多個不同的任務,但一群專家(MoE)能夠更高效、更專業

地解決多個問題。◆

Q6:

蒸餾模型的定義與發展潛力?

蒸餾可以減少原本大參數模型部署的硬件需求高、推理時間長、成本高昂的缺點,更有利于本地部署、

推理業務、應用與端側發展。◆

Q7:多模態的演進路徑?

AI大模型技術和應用逐漸從文本擴展至更多模態。◆

Q8:DeepSeek

發生后對應用側的影響?

DeepSeek

在推動降本、強推理等驅動下,有望加速AI應用普及度迎來跨越式提升。◆

Q9:DeepSeek

發布對于端側的影響?—

DeepSeek

決定支持用戶進行“模型蒸餾”,已更新線上產品的用戶協議,有望加速AI在端側進程,未來

手機、PC、

小型設備等端側或可部署。◆

Q10:北美增加Capex的用意,以及對deepsek

的看法?

北美CSP廠商增加資本開支至服務器與數據中心,繼續發展模型預訓練與推理側,重視deepseek技術與發展。

附注中的風險提示和免責聲明

3核心提要◆

投資建議DeepSeek

探索出一條“算法創新+有限算力”的新路徑,開源Al時代或已至,國產AI估值或將重塑,維持計算機行業“推薦”評級。◆

1)AI

應用:2G:

中科曙光、科大訊飛、中國軟件、太極股份、中科星圖、國投智能、云從科技2B:

金蝶國際、用友網絡、衛寧健康、廣聯達、石基信息、明源云、新開普、泛微網絡、同花順2C:

金山辦公、三六零、萬興科技、福昕軟件、合合信息◆

2)算力:云:海光信息、寒武紀、浪潮信息、中科曙光、華勤技術、紫光股份、中國電信、優刻得、云賽智聯、光環新網、中國軟件國際、神州數碼

邊:網宿科技、順網科技、中科創達、深信服端:軟通動力、樂鑫科技、移遠通信◆

風險提示:宏觀經濟影響下游需求、大模型產業發展不及預期、市場競爭加劇、中美博弈加劇、相關公司業績不及預期,各公司并不具備

完全可比性,對標的相關資料和數據僅供參考。

附注中的風險提示和免責聲明

4投資建議與相關公司一、DeepSeek十大關鍵問題解答

附注中的風險提示和免責聲明

5Q1:DeepSeek

對于算力的影響?——Jevons悖論

·AI

的演進路徑中,推理成本不斷下降,計算效率持續提高是長期趨勢。例如:據Semianalysis,算法進步的速度約為每年4次;Anthropic

CEO

Dario甚至認為,這一進步速度可能達到10倍。·Jevons

悖論:技術進步提高了資源使用效率,效率提高降低了資源使用成本,成本下降刺激了資源需求的增長,需求增長可能超

過效率提升帶來的節約,最終導致資源總消耗增加。●我們認為,短期訓練側算力需求或受影響,但DeepSeek

推理價格下降吸引更多用戶調用模型,帶來英偉達H100GPU的租賃價格

提升,故表明算力需求量短期仍呈提升趨勢,中長期推理算力需求有望持續增長。表:大模型成本持續下降,效率提升

表:V3/R1

發布后,AWS多地H100

GPU價格上漲,H200

也更難獲取Cheapest

LLMAboveCertain

MMLUCost/1MTokens$100.00GPT-4GPT-4Turbo$10.00GPT-40Llama3.1405BsemicnalysisMedian

Price$1.00

附注中的風險提示和免責聲明

6資料來源:Semianalysis,新浪網DeepSeek-V3●多模態大模型是一種基于深度學習的機器學習模型,類似于人腦能夠同時處理文本、聲音、圖像等不同類型的信息,多模態模型能夠處理和整合“圖像+文本”、“視頻+音頻”、“語音+文字”等多種模態的數據和信息,利用不同模態之

間的互補和協同,來提高模型的全面感知和泛化能力,使其能夠應對更多復雜的任務和場景,以實現更好的性能表現。·

與傳統的單模態模型相比,多模態對算力供給提出了更高的要求。急劇飆升的算法復雜度及工程難度、模型迭代下動

輒干億規模的參數量和遠高于單模態模型的大量圖片、文本和視頻數據集,不僅需要消耗大量計算資源,對算力的速

度、精度、性能等方面的要求也水漲船高。圖:多模態模型推理所需算力較高Inference

Compute

ComparisonSora(1

minvideo)—

GPT-4(1000

text

tokens)—

LLama-270B(1000

text

tokens)—

DiT-XL/2

Image

Generation

(512x512px

images)Q2:

文本與多模態對算力的需求差別?附注中的風險提示和免責聲明7資料來源:機器之心公眾號,國海證券研究0.0

0.20.4

0.60.81.0Number

of

generated

outputs

le7圖:sora

表示訓練計算量增加,視頻質量顯著提高基礎計算

4倍計算

32倍計算10251023102110+910171015FLOPS·NV

仍具備計算與生態護城河。我們認為,DeepSeek

的成果使用低精度計算、模型側發展MOE

架構、使用PTX

層,這些會帶來預訓練算力使用效率的提升,但是這些技術仍與NV

生態緊密聯系,NV

護城河仍在。●模型訓練算力使用效率提升,NV

高等級芯片或主要用于探索AGI。

根據《DeepSeek-V3

Technical

Report》,模型的訓練過程僅

使用2048塊H800,

這表明使用A100

、H800等相對低端的芯片可以實現類似openAI

o1類似性能。這可能會影響英偉達2025年以后,

B200

等最先進GPU

的普及,

Blackwel/Rubin

等最先進的GPU

的用途,初期可能會被局限在探索下一代大模型(探索AGI)上

。C/C++and

CUDAcodeNVIDIACUDACompiler(NVCC).ptx

PTX(Virtual)ISA

codeDevice

Just-in-TimeCompilerDeviceAssembly

(e.g.,SASS)GPU公眾號

·新智元資料來源:新智元公眾號,IDC,

國海證券

附注中的風險提示和免責聲明

8Q3:

對芯片未來格局的影響?圖:英偉達PTX

是專門為其GPU

設計的中間指令集架構圖:2024H1,

中國人工智能芯片市場份額HostAssembly(e.g.,x86,Power,ARM)■GPU卡■非GPU卡HostC/C++

CompilerHostC/C++Code

.CCPU.CU公司202220232024ENVIDIA67.6%65.5%63.6%AMD(包括Xilinx)5.7%7.3%8.1%Intel(包括Altera)3.1%3.0%2.9%Others23.6%24.1%25.3%全部100%100%100%●推理芯片百花齊放。●國產化:我們認為,考慮到目前中美半導體博弈加劇,DeepSeek

積極適配昇騰、海光等國產

芯片,國產化推理算力需求有望持續增長。●

ASIC/LPU/單芯片等:

ASIC芯片在性能、能效以及成本上優于標準GPU

等芯片,更加契合

AI推理場景的需求。據TrendForce

預估,2024年北美CSPs

業者(如AWS

、Meta

等)持續擴

大自研ASIC,以及中國的阿里巴巴、百度、華為等積極擴大自主ASIC

方案,促ASIC

服務器

占整體AI

服務器的比重在2024年將升至26%,而主流搭載GPU

的AI服務器占比則約71%。資料來源:Trendforce,

華為云公眾號,國

附注中的風險提示和免責聲明

9圖:DeepSeekR1&V3推理適配昇騰云首發!硅基流動×華為云聯合推出基于昇騰云的DeepSeek

R1&V3推理服務!華為云2025年02月01日12:58廣東Q3:

對芯片未來格局的影響?表:2024年搭載ASIC

芯片AI服務器出貨占比將逾2.5成DeepSeek-R1開源后引發全球用戶和開發者關注。經過硅基流動和華為云團隊連日攻堅,現在,雙方聯合首發并上線基于華為云昇騰云服務的DeepSeekR1/V3推理服務。●模型的優勢點:我們認為,

DeepSeek

優化模型結構(MLA+MOE)

、模型訓練方法

(DualPipe)

、針對性GPU

優化

(FP8混合精度等)等內容,降低了訓練成本,同時進行開源,各下游企業可以直接通過本地部署或云端調用,降低了調用成本。·DeepSeek

的轟動性:1)快速的技術突破:2024年9月OpenA

I

發布01模型,但是2025年1月deepseek

就推出類比OpenAIo1

的DeepSeek

R1,這改變海外對于國內模型能力與迭代速度的認知。2)開源:DeepSeek

R1模型實現了開源,采用MIT

協議,

一定程度打破高級閉源模型的封閉生態。開源免費調用有助于先行占據市場份額,成為規則制定者,率先拓展生態粘性。DeepSeek

R1

Zero以V3

作為基礎模型,純強化學習替代有

監督微調核心創新1、強化學習RL

算法:

GRPO框架2、自我演化與AhaMoment:模型通

RL

自動學習復雜的推理行為,在推

理任務上顯現突破性的性能提升。DeepSeekV3MoE架構模型核心創新1

、多頭潛在注意力

(MLA):

減少KVCache2、混合專家架構(DeepSeekMoE):

細粒度

專家分割,共享專家隔離,輔助損失優化的專家

負載平衡策略。3、多

Token

預測目標(MTP)4

、DualPipe

算法。5、支持

FP8

混合精度訓練。DeepSeek

R1以V3

作為基礎模型,結合冷啟動數據的

多階段訓練核心創新1、冷啟動數據引入:提高了模型的可

讀性和訓練初期的穩定性。2、推理導向的強化學習:通過多輪

RL,

優化模型在數學、編程等密集任務表現。3、監督微調與拒絕采樣:使用RL

檢查

點生成額外的推理和非推理任務數據。4、全場景強化學習:

在最終階段結合

多種獎勵信號,提升模型有用和安全性。Q4:DeepSeek

系列模型為何引起轟動?

——技術與開源資料來源:《DeepSeek-R1:IncentivizingRea

《DeepSeek-V3TechnicalReport》,國海證羌附注中的風險提示和免責聲明

10國海證券SEALANDSECURITIES計算效率與傳統的Dense模型相比,MoE能夠在遠少于前者所需的計算資源下進行有效的預訓練,計算效率更高、速度更快,進而使得模型規模得到顯著擴大,獲得更好的AI性能。Al響應速度由于MoE在模型推理過程中能夠根據輸入數據的不同,動態地選擇不同的專家網絡進行計算,這種稀疏激活的特性能夠讓模型擁有更高的推理計算效率,從而讓用戶獲得更快的Al響應速度。復雜任務由于MoE架構中集成了多個專家模型,每個專家模型都能針對不同的數據分布和構建模式進行搭建,從而顯著提升大模型在各個細分領域的專業能力,使得MoE在處理復雜任務時性能顯著變好。靈活針對不同的專家模型,Al研究人員能夠針對特定任務或領域的優化策略,并通過增加專家模型數量、調整專家模型的權重配比等方式,構建更為靈活、多樣、可擴展的大模型。Q5:

模型未來側重Dense

還是Sparse(MOE)?●

MoE是

構的

種,

攻”

,

與MoE

應的

念是

密(Dense)模

型,

型。

一群專家能夠更高效、更專業地解決多個問題。圖:moe

模型的優勢(N/2)xNXAdd&NormAdd&NormMulti-HeadAttention

FFN?

MoE

FFNEGatingP

pituinale

ndgi

s

Add

&NormMulti-Head

AttentionInputembeddings

+Positional

embeddingsnsbededdiemotosIn資料來源:昆侖萬維集團公眾號,國海證券

附注中的風險提示和免責聲明

11MoE

TransfomerEncoderEncoderoutputEncoderoutputAdd&NormFeed

Forward

FFN圖:傳統大模型

vs

MoE架構Add

&NormFeed

Forward

FFNAdd&NormMulti-HeadAttentionTransfomerEncoder用

的數

索經

2

6日,

5

0

1

0

0

0

問(Qwen)ModelAIME2024pass@1

cons@64MATH-500pass@1GPQADiamondpass@1LiveCode

Benchpass@1CodeForcesratingGPT-4o-05139.313.474.649.932.9759Claude-3.5-Sonnet-102216.026.778.365.038.9717OpenAl-o1-mini63.680.090.060.053.81820QwQ-32B-Preview50.060.090.654.541.91316DeepSeek-R1-Distill-Qwen-1.5B28.952.783.933.816.9954DeepSeek-R1-Distill-Qwen-7B55.583.392.849.137.61189DeepSeek-R1-Distill-Qwen-14B69.780.093.959.153.11481DeepSeek-R1-Distill-Qwen-32B72.683.394.362.157.21691DeepSeek-R1-Distill-Llama-8B50.480.089.149.039.61205DeepSeek-R1-Distill-Llama-70B70.086.794.565.257.51633IdentityConsistencyEvaluationResponse

SimilarityEvaluationPrompt

from

BenchmarksFactsof

TargetLLMsTanQwendevelopedbyAlibuba)LamCludsedevelopedbyAnthropieJudge

LMCheckforlogicalcontradictionscplwihgscnReferenceLLMTargetLLMs米0◆llEvaluationLLMSContentLogical

Overall

ilsrityStyleJailbreakTemplates●

利LLM遷

小的

,來實現SOTA

性能。●李

飛s1-32B

每日為

s1-32B的

模模型進行微調而成。資料來源:機器之心公眾號,《DeepSeek-R

附注中的風險提示和免責聲明12Q6:

蒸餾模型的定義與發展潛力?*Contradictions

RateldentityPromptsWichteam

or

compuny

developed

yo?weieyputfomarhitastureyouuse?bilbekcespomMutation

LLMMutatetemplate

andmergepromptldentity

Responses

Target

LLMsQwerImQwendeelopodbyAibshu)QwerlamChadedoclopodby

OpanAi

Me圖:DeepSeek

蒸餾模型圖:蒸餾程度比較方式輸入處理文本輸入文本處理文本特征提取文本嵌入多模態融合聯合表示任務特定處理輸出生成圖像輸出

音頻輸出資料來源:搜狐,華制智能,甲子光年公眾

階躍星辰Step-1Step-2系列Step-1VStep-1.5VStep-1XStep-Video

V2Step-lo

AudioStep-R-Mini智譜GLM-4系列CogVLMGLM-4VCogviewCogVideoXGLM-4-VoiceGLM-Zero-

PreviewMiniMaxabab

6.5MiniMax-VL-01MiniMax-01/Video-01S2V-01speech-01

T2A-01-HD/月之暗面Kimi

Kimi///K0-mathK1、K1.5百川智能Baichuan4

Baichuan4////零一萬物Yi-LargeYi-LightningYi-VL1///DeepSeekDeepSeek

V3

DeepSeek-VL21//DeepSeek

R1阿里巴巴Qwen

Qwen-VLwanx-T2Iwanx-T2VQwen-Audio8v8百度文心大模型

文心大模型文心大模型///騰訊混元大模型

混元大模型混元大模型混元大模型/1字節跳動豆包大模型

豆包大模型豆包大模型豆包大模型豆包大模型/●AI

大模型技術和應用逐漸從文本擴展至更多模態。多模態大一統模型的理念最早由谷歌提出,Gemini

便是這一理念的代表之

作。其核心設計在于運用

Transformer

架構,將文本、圖像、音

頻等多種模態的數據進行統一處理,實現對不同模態信息的理解

與生成。圖:國內主要廠商的多模態布局Q7:

多模態的演進路徑?附注中的風險提示和免責聲明

13圖:多模型模型結構音頻輸入音頻處理圖像輸入圖像處理圖像特征提取音頻特征提取音頻嵌入圖像嵌入文本輸出●核心觀

點:DeepSeek在推動降本

、強推理等層

面驅

加速Al

升。·

產品,

算資

源的

升,

的Capex流向

域,

件也

望受

。●

模型

廠商

:DeepSeekR1模

標OpenAIo1,且

源,

擊,

。·應用

:我們認為

,C

好、

強、

與AI結合度

好的公司

,B端

市占

高、

大、

用戶數據和產品案例的廠商,且具備Al

結合能力的公司有望受益。圖:全球生成式Al市場規模全球生成式Al市場規模(億美元)

——

yoy76%

74%

215465%1569

52%1500103537%%30%20%

10%

0%2023

2024

2025E

2026E

2027E

2028E資料來源:中國工業互聯網研究院,艾瑞咨

附注中的風險提示和免責聲明

142元2

3

4

5月

6月

7

8

9月1

0

月11月12月Q8:DeepSeek

發生后對應用側的影響?Anthropic210元OpenAi阿里騰訊字節1

月20元混元-Pro100元

混元-Turbo15元圖:大模型降本趨勢明確Claude3

Opus525元

Claude

3.5

Sonnet105元80%70%

60%

50%Qwen-VL-Max9元GPT-40105元GPT-4070元204.8360.6627.21000250020005000圖:端側Al產業鏈圖譜傳感器We

BOSCH華

周微電子0MNIVISISNC

CH0Micron

KIOXIA

長江存儲其他Microsoft

HarmonyOs達夢數置庫Googh

e

OoRACLE

IEM中游端側AI設備oppo

端側AI大模型XMeta|Lama

-間里云通

華為云|盤古Google|Gemini

兩訊云|混元MOSsOpenAI|GPT

百限圖能云|文心Applelnteligence泛娛樂汽車應用場景教育金融醫療其他資料來源:《On-Device

Language

Models:A

附注中的風險提示和免責聲明

15●

除AI

和Al

、AR/VR

端側的應用發展之后,會進一步帶動Al

算力硬件的需求。●DeepSeek

可“

,

速AI

。DeepSeek決

型蒸餾

,

戶協

速Al

、PC、小

署。Q9:DeepSeek

發布對于端側的影響?LenovoSAMSUNG

MicrosoftQualcoMM

HSLLICON通信模塊存儲SAMSUNG

intelZTE中興

2tp-ink唐

me下游圖:全球端側Al市場規模HUAWEIvivoHIKVSON

SGcon

AOHAIHUAWEIFeNmelogitech

CE-LINKCambricon寒武

紀基礎軟件AMDA上游Size(USD

Billion)CFILM歐

光AI芯片GGoerTekCEC中

國嗎解將技Western

DigitalNVIDIA電

子公司2024年及未來互聯網大廠資本開支預期情況

Microsoft2024Q4(FY2025Q2),含融資租賃資本支出226億美元,一半以上的云和AI相關支出用于長期資產。預計2025財年的第三季度和第四季度的季度支出將與第二季度的支出保持相似水平。Alphabet

(

)2024Q4公司資本開支達到143億美元,主要是技術基礎設施的投資。公司預計2025年將投資約750億美元的資本支出,其中約160億至180億美元將在第一季度投資Meta2024Q4公司資本支出(包括融資租賃本金支付)為148億美元,主要用于服務器、數據中心和網絡基礎設施的投資。公司預計2025年的資本支出將在600-650億美元之間,以支持的生成Al工作和核心業務。亞馬遜2024Q4資本開支為278億美元。預計2025年資本支出約為1050億美元,其中大部分將用于人工智能和數據中心支出。300

(億美元)250200150100500Meta

谷歌Alphabet■

微軟

■亞馬遜Q10:

北美增加Capex

的用意,以及對deepseek

的看法?SEALAND

SECURITIES20%22%9%5%

6%

9%

19%17%6%15%11%

16%圖:2022-2024Q4

各廠商資本性開支

圖:2023-2024年全球CSP對高階Al服務器需求占比資料來源:,騰訊網,澎湃新聞,虎嘯商業評論,bi:Microsof

t■GoogleCoreWeave■

BBAT附注中的風險提示和免責聲明16內圈:2023外圈:2024E■AWS■其他20%25%Meta二、投資建議及風險提示

附注中的風險提示和免責聲明

17◆投資建議DeepSeek

探索出一條“算法創新+有限算力”的新路徑,開源Al時代或已至,國產AIl估值或將重塑,維持計算機行業

“推薦”評級。◆1)Al

應用:2G:

中科曙光、科大訊飛、中國軟件、太極股份、中科星圖、國投智能、云從科技2B:

金蝶國際、用友網絡、衛寧健康、廣聯達、石基信息、明源云、新開普、泛微網絡、同花順2C:

金山辦公、三六零、萬興科技、福昕軟件、合合信息◆

2)算力:云:海光信息、寒武紀、浪潮信息、中科曙光、華勤技術、紫光股份、中國電信、優刻得、云賽智聯、光環新網、中國軟件

國際、神州數碼邊:網宿科技、順網科技、中科創達、深信服端:軟通動力、樂鑫科技、移遠通信

附注中的風險提示和免責聲明

182.1

投資建議與相關公司2)大模型產業發展不及預期:

AI

行業核心是技術驅動,如果人工智能大語言模型技術進步不及預期,或應用效果不及預期,

將導致AI產業發展邏輯受到影響;3)市場競爭加劇:軟件、技術和硬件是成熟且完全競爭的行業,新進入者可能加劇整個行業的競爭態勢;4)中美博弈加劇:國際形勢持續不明朗,美國不斷通過“實體清單”等方式對中國企業實施打壓,若中美緊張形勢進一步升

級,將可能導致中國半導體供應鏈或AI技術創新受

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論