面向6G物聯網的端側計算白皮書_第1頁
面向6G物聯網的端側計算白皮書_第2頁
面向6G物聯網的端側計算白皮書_第3頁
面向6G物聯網的端側計算白皮書_第4頁
面向6G物聯網的端側計算白皮書_第5頁
已閱讀5頁,還剩24頁未讀, 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

面向

6G

物聯網的端側計算白皮書2023

8

月1前

言6G

技術將提供更高的速率、更多的連接,以及更廣的網絡覆蓋,以滿足在高度動態環境中的各類應用需求。6G“萬物智聯,數字孿生”的愿景對終端處理時延、功耗、數據隱私保護等提出更高要求。面向6G

物聯網的端側計算在云、邊、端構成的立體計算范式中的作用日益凸顯,但端側計算的概念、技術架構、發展趨勢還不明確。中國移動希望聯合產業合作伙伴共同推動面向

6G

的端側計算整體架構和關鍵技術的成熟,推動面向

6G“萬物智聯,數字孿生”的立體計算架構的發展和落地應用。本白皮書由中移智庫、中國移動研究院、清華大學、北京郵電大學、北京知存科技有限公司聯合撰寫,版權歸中國移動及合作伙伴所有,未經授權,任何單位或個人不得復制或拷貝本建議之部分或全部內容。目錄1

概述

.......................................................................

11.1

背景與意義

...........................................................

21.2

內容與目的

...........................................................

32

典型應用場景

...............................................................

42.1

大流量場景

...........................................................

52.2

實時計算場景

.........................................................

52.3

隱私保護場景

.........................................................

62.4

離線自治場景

.........................................................

73

關鍵技術及挑戰

.............................................................

83.1

算力受限

.............................................................

93.2

功耗敏感

............................................................

103.3

信息孤島

............................................................

124

新興技術

..................................................................

134.1

存算一體:打破后摩爾時代的算力危機

..................................

144.2

類腦智能:低功耗的下一代人工智能

....................................

154.3

端邊云協同:泛在算力

................................................

184.3.1

縱向端邊云協同

................................................

184.3.2

橫向端端協同

..................................................

205

總結展望

..................................................................

23縮略語列表

..................................................................

25參考文獻

....................................................................

261

概述6G

物聯網終端實時數據爆炸式增長,芯片先進工藝的發展帶來單位算力成本下降,AI

模型及軟硬件協同創新帶來算法性能提升,新型人工智能場景對低時延計算需求強勁,端側實時計算迎來新機遇。11.1

背景與意義實時數據爆炸式增長。物聯網應用實現了更大連接、更廣覆蓋和更優體驗,連接規模已經實現了“物超人”。隨著聯網設備的進一步增多和高帶寬業務的進一步普及,全網數據吞吐量將呈現爆發式增長。據預測,到

2030

年,網絡吞吐量將達到

5000EB/月,隨著實時數據的井噴,云計算架構面臨網絡壓力大、響應速度慢、數據安全及隱私保護不足等問題。新型場景不斷涌現。人工智能技術與智能終端的結合對終端實時計算提出了新的需求,以智能終端

XR

場景為例,包含追蹤定位、沉浸聲場、手勢追蹤、眼球追蹤、三維重建、機器視覺、肌電傳感、語音識別、氣味模擬、虛擬移動、觸覺反饋、腦機接口等多個環節,需要低時延計算能力提升用戶實時體驗。IDC

預計,2023

年中國搭載

3D

空間性和運動性傳感技術的終端設備將超過

40%。算力成本逐步下降。芯片先進工藝制程逐步提升,據

IDC

預計,2022

7nm制程芯片將成為主流,搭載

7nm

芯片的智能終端設備占比將超過

32%。芯片制程的提升將使單位算力的成本逐步下降,如圖

1

所示,7nm

制程的芯片單位算力成本僅為

16nm

制程的

19.4%。圖

1

TOPS

算力成本隨著工藝逐步下降(數據來源:IBS)算法性能持續提升。人工智能算法性能隨著算法創新、軟件優化、硬件加速等持續提升。算法方面,深度學習網絡模型不斷演進,AI

模型輕量化等技術不斷發展,模型的尺寸和計算量大幅縮減。據

OpenAI

統計,自

2012

年以來,人工智能模型在

ImageNet

分類中訓練神經網絡達到相同性能所需的計算量,每

162個月減少了

2

倍。軟件方面,面向移動端的

AI

計算框架發展迅猛,對終端兼容性越來越好且對

AI

模型的推理性能持續提升。硬件方面,通過增加深度學習專用硬件電路等方式,可大幅提升

AI

計算性能。綜上,隨著

6G

物聯網實時數據的爆炸式增長、新型場景不斷涌現、算力成本的逐步下降、算法性能的持續提升,端側計算將迎來前所未有的發展新機遇。1.2

內容與目的端側計算,指在具備一定的計算能力和存儲能力的物聯網終端設備中進行計算。端側計算主要滿足低功耗、高隱私保護、低時延的計算需求,應用場景包括大流量智能視頻監控、低時延的自動駕駛、高隱私性保護的人臉識別和離線自治的智能家居等。6G

物聯網,即

6G

使能的物聯網,是以

6G

網絡為通信基礎設施的物聯網?;?/p>

6G

技術的深度賦能,物聯網端到端系統將能夠實現更強大的智能和自主性,能夠實時精準感知環境、做出智能決策并提供個性化的服務。端

側計算在云、邊、端構成的立體計算范式中的作用日益凸顯。本文希望系統梳理端側計算的場景需求、關鍵技術挑戰以及新興端側計算技術。目前端側計算技術整體發展仍處于初級階段,未來還有很多技術和商業層面的挑戰,中國移動希望聯合產業合作伙伴共同推動端側計算整體架構和關鍵技術的成熟,推動面向

6G

物聯網的立體計算架構的發展和落地應用。32

用場景42.1

大流量場景視頻物聯網近年來呈逐年增長趨勢。據IDC

Global

DataSphere,2020

全球視頻監控產生的數據約

18.1PB(1PB=1024TB),占同期物聯網總數據量

83.1%。智慧城市、智慧交通、智能家居等物聯網領域中存在大量的視頻終端。使用MPEG-4

壓縮,30fps/1280×1024

分辨率的單一連續視頻每天產生約

128G數據;搭配了攝像頭和雷達的L2

輔助駕駛系統的車載系統每

30

秒就會生成超過

6GB的數據。此類視頻分析場景特別是高清視頻分析類場景需要占用大量的帶寬資源,并且大流量的視頻數據傳輸易引發網絡擁塞、服務質量下降等問題。端側計算應用于此類大流量場景,可第一時間對收集的視頻數據進行處理分析,將處理和分析后的結果再上傳至云側數據中心,大幅減少網絡數據傳輸、降低網絡帶寬負荷、緩解云數據中心存儲與計算的壓力,并能夠提升系統的實時響應能力。隨著端側AI芯片的性能不斷提升,AI安防等視頻監控應用向端側前移趨勢愈加明顯。AI安防端側算力需求如表

1

所示。表

1

AI

安防端側算力支持像素算力2M0.5TOPS<1w4M1TOPS1w8M16M4TOPS3w2TOPS2-2.5w功耗2.2

實時計算場景在自動駕駛、工業控制、虛擬現實等時延敏感類應用場景中,終端采集數據上傳到云端,云端計算后再將結果返回終端,將會引入網絡和平臺處理時延,考慮網絡不穩定等因素,時延可能會更大。隨著

6G人工智能技術的進一步發展,車聯網將在深度學習、多傳感器融合等方法的使能下形成車輛、路

側、云端的全場景一體化感知決策架構,實現協同決策,更好地助力自動駕駛。IDC報告顯示,2022

年第一季度L2

級自動駕駛在乘用車市場的新車滲透率達

23.2%,整個市場處于L2

向L3

發展的階段。輔助駕駛對于端到端時延的要求在

100

毫秒,自5動駕駛對于端到端時延的要求進一步提高到

20~100

毫秒。在工業控制中,診斷信息的時延要求為

10

毫秒,運動控制的時延要求提高至

25-100

微秒。虛擬現實的需要保證所有捕捉動作到頭顯中動作小于

20ms,以避免用戶產生眩暈感。端側計算應用于此類實時計算場景中的全部或者部分計算,可有效降低端到端時延,滿足業務低時延實時計算需要。目前芯片廠商紛紛布局端側大算力,助力自動駕駛等實時計算場景。自動駕駛算力需求如表

2

所示。表

2

自動駕駛算力需求自動駕駛級別算力L210

TOPS5wL3L4100

TOPS50wL530~60

TOPS15~30w1000

TOPS500w功耗2.3

隱私保護場景在人臉驗證、可穿戴設備等隱私保護場景下,用戶對個人數據的隱私性較為敏感,對于在設備端讀取的用戶人臉、語音、視頻等數據上傳云端進行分析,存在數據安全與隱私泄露風險。據中國互聯網協會《中國網民權益保護調查報告(2021)》顯示,82.3%的網民親身感受到了由于個人信息泄露對日常生活造成的影響,49.7%的網民認為個人信息泄露情況嚴重或非常嚴重。端側計算應用于此類隱私保護場景,可在端側對數據完成預處理,對數據進行去標識化、匿名化處理等,將脫敏數據與平臺進行交互,提升用戶隱私數據保護能力。端側人臉識別算力需求如表

3

所示。表

3

端側人臉識別算力需求場景算力功耗手機人臉驗證閘機1TOPS1w視頻監控<4TOPS<3w1TOPS1w62.4

離線自治場景在智能家居等場景下,由于終端設備網絡不穩定,斷網時需要能夠持續穩定的運行。IDC

預計未來五年中國智能家居設備市場出貨量將以

21.4%的復合增長率持續增長,2025

年市場出貨量將接近

5.4

億臺。當前智能家居正在向著構建單用戶畫像,理解用戶生活行為,提供“千人千面”的個性化服務的方向發展。如果上述服務完全部署在云端,斷網時終端設備無法正常響應,將嚴重影響用戶體驗。端側計算在端側部署服務,在云端保存一個映射。這樣既保證內網設備穩定有效的運行,也保障用戶在外網狀態時可以遠程操作家里的智能設備。智能家居算力需求如表

4

所示。表

4

智能家居算力需求場景算力功耗入戶監控1~3TOPS~1w全屋安全3~10

TOPS1~5w全屋智能>10TOPS>5w73

關鍵技術及挑戰83.1

算力受限為了降低人工智能模型對計算空間及時間的消耗,模型壓縮作為以深度學習為代表的人工智能領域研究的一個重要的分支,旨在對原有的人工智能模型進行參數壓縮、維度縮減等操作或者重新設計輕量化的網絡結構,以提高網絡的訓練和推理速度。雖然模型壓縮在一部分場景下取得了比較好的效果,但在一些場景下壓縮后的模型可能引起推理精度的嚴重下降,另外壓縮后的模型存在難以應用于通用計算平臺等問題。在對精度要求較高的場景下,依然優先用硬件滿足需求。圖

2

不同精度計算的消耗能量和硅片面積然而端側單點算力的提升面臨瓶頸。一方面隨著工藝的制程升級,摩爾定律已經開始放緩。到了

2018

年,根據摩爾定律得出的預測與當下實際能力差了

15倍。另一方面,登納德縮放比例定律似乎已經失效。盡管集成電路中的晶體管數量仍在增加,但由此帶來的性能改善卻更為緩慢。主要原因是在芯片尺寸不變,晶體管數量變多的情況下,電流泄漏會帶來更大的挑戰,也會導致芯片升溫,從而造成熱失控的威脅,從而進一步增加能源成本。如圖

3

所示(數據來源:

JohnL.

Hennessy,

David

A.

Patterson.

2019)。9(a)摩爾定律在放緩(b)登納德縮放定律失效圖

3

單點算力面臨瓶頸當前的端側計算芯片仍然基于馮諾依曼架構,其數據存儲與處理分離,存儲器與處理器之間通過數據總線進行數據傳輸。隨著半導體技術的發展,存儲單元性能發展遠落后于計算單元,如圖

4

所示(引用自

JohnL.

Hennessy

et

al.)。在面向大數據處理等應用場景中,這種計算架構帶來的存儲墻和功耗墻已成為高算力與低功耗設備的主要瓶頸之一。相關研究報告指出,在

22

納米工藝節點下,一比特浮點運算所需要的數據傳輸功耗是數據處理功耗的約

200

倍。存儲墻與功耗墻問題并稱為馮諾依曼架構瓶頸。數據的爆發式增長進一步加劇了馮諾依曼架構瓶頸。圖

4

處理器和存儲器的性能差3.2

功耗敏感一方面根據摩爾定律,集成電路每隔

18-24

個月性能提升一倍,智能手機的AI

計算、設備互聯等功能不斷增加;另一方面

5G

手機采用

Massive

MIMO

的技術以增強手機對信號的接收,耗能顯著增加。然而,電池領域卻沒有摩爾定律,受能量密度和電池尺寸限制,電池容量僅能以較低幅度線性提升,電池性能增速遠慢于需求,如圖

5

所示。所以,用戶時常感覺手機續航的“力不從心”,如何在保證終端性能的同時更好控制功耗成為關鍵。10圖

5

終端電池能力增速遠慢于需求異構芯片以追求最高的性能功耗比為目標。對比云數據中心常用的

CPU、GPU、TPU,端側更多地使用

FPGA

ASIC。FPGA

的電路可直接實現算法,沒有指令譯碼和解讀的過程,減少反復冗余訪問外部存儲器的需求,存儲器帶寬需求及能耗較低,能效比是

CPU

10

倍以上、GPU

3

倍,處理速度和效率要高于

GPU。此外,ASIC

性能上的優勢也非常明顯,具有最高的能效比。圖

6

比較了不同硬件的速度和能耗(圖片來源:Prof.

Luca

Benini.

ACM

HPC)。圖

6

不同硬件的速度和能耗作為對比,如圖

7

所示,AlphaGo

作為擁有

176

GPU,1202

CPU,功耗約為

150,000

瓦,而與之對弈的柯潔,其大腦功耗只有約

20

瓦。再比如蜜蜂的大腦,只有

100

萬個神經元,0.1mW

的功耗,相當于一個紐扣電池可以驅動幾個月的時間。因而我們需要以生物神經元為目標,尋找更低功耗的類腦算法。11圖

7

深度學習模型和生物的功耗對比3.3

信息孤島人工智能算法的設計與提升往往需要大量且多樣化的數據以及大算力進行訓練。根據機器學習的

VC

維度(Vapnik–Chervonenkis

dimension),用于深度學習訓練的數據量應該至少是模型參數量的

10

倍。和云計算相比,端側計算的優勢之一是將數據保存在數據生產者的位置,這樣可以最大限度地不暴露用戶的隱私。但同時,由于不同終端產生的數據無法匯聚用戶訓練,因而也導致模型質量無法保障。同時,隨著傳感器、計算芯片、AI

等技術的發展,諸如

AR、數字人、機器人搜救等更復雜任務被不斷提出,完成一項完整的智能任務往往需要經過多個階段,具有多樣化的需求,包括數據采集、預處理、計算、交互、控制和反饋等。而由于終端設備尺寸限制,一般只能具備少數能力,例如只負責完成計算任務,難以滿足日漸復雜的智能任務的需求。以

XR

為例,需要實現追蹤定位、手勢追蹤、眼球追蹤、語音識別、環境理解、肌電傳感、腦機接口等諸多感知技術,在此基礎上建立沉浸式聲場、氣味模擬、三維重建,并通過近眼顯示技術進行展示。這需要多個傳感器、計算、通信、顯示設備的協同工作才能完成。124

新興技術134.1

存算一體:破解后摩爾時代的算力危機當前業界對于存算一體技術的定義和分類尚未完全統一,學術界聚焦利用存儲介質直接進行計算,即狹義存算一體;工業界關注商用化進程,提出廣義存算一體概念,可分為三種方案。一是近存計算(Processing

Near

Memory

PNM),將存儲和計算模塊集成到一個部件或一個芯片中,通過增加帶寬或減少數據搬移量來對原有架構進行優化,提升數據運算效率。該技術仍基于馮·諾依曼架構,主要產品形態包括

SmartSSD、智能網卡等,產業成熟度較高。但該技術并未實現計算與存儲的真正融合。二是存內處理(Processing

in

Memory,

PIM),該方案的本質在芯片制造的過程中,將存和算集成在一個晶圓

Die

中,使存具備了算的能力。主要形態是基于

DRAM

的存內處理產品。三是存內計算(Computing

in

Memory,

CIM),可使用存儲單元完成計算功能實現存算零距離,真正實現“存算一體化”,也是業內通常意義上的狹義存算一體。圖

8

廣義存算一體分類狹義的存算一體技術旨在把數據存儲與計算融合一體化,以減小數據搬運,克服馮諾依曼架構瓶頸。存算一體技術的基本概念最早可以追溯到上個世紀七十年代,但是受限于當時的芯片設計復雜度與制造成本問題,以及缺少殺手級大數據應用進行驅動,早期的存算一體技術僅僅停留在研究階段,并未得到實際應用。近年來,隨著數據爆發式增大以及內存芯片技術的提高,存算一體技術重新得到人們的關注。存內計算的介質目前來看有兩大類,一是由傳統硅基材料制成的SRAM

Nor

Flash

等,其中

SRAM

已廣泛應用于

CPU

的緩存,Nor

Flash

主要用來存放固件程序,廣泛應用于網卡、手機等設備;二是非硅基的新型材料,包括基于金屬氧化物的

RRAM/ReRAM(憶阻器)、基于硫系化合物的

PCM/PRAM(相變14存儲器)、基于鐵磁材料的

MRAM(自旋磁存儲器)等。近年來,基于各類存儲介質的存算一體芯片研究百花齊放,潛在應用場景也豐富多彩,包括視覺類、聽覺類、分析類、人機交互等。但是,上述這些存儲介質都存在各自的一些優缺點,如表

5

所示,在大規模量產時需要有針對性地進行優化。表

5

基于不同存儲介質的存內計算芯片性能比較標準SRAM否Flash是DRAM否RRAM是PCM是MRAM是FeFET是非易失性多比特存儲能力否是否是是否是面積效率寫入速度功耗效率成本低很快低高較慢高高快高較快高高較慢高快高快低較高高高高低較低測試芯片低較低較低測試芯片較低器件技術成熟度

測試芯片量產產品測試芯片測試芯片此外,存算一體技術存在一些共性的挑戰需要行業共同努力。一是大部分新型存內計算器件成熟度低,加工工藝不夠完善,計算精度、耐久性、功耗、性能等還在快速迭代中演進。二是芯片研發周期較長,產業化存在不確定性,相關產線在后道工藝如金屬與介質填充、刻蝕、清洗等環節可能涉及改造,并且芯片良率和性能依賴長期流片積累經驗,走向成熟需要

5

10

年。三是缺少成熟的

EDA輔助設計和仿真驗證工具,使得存內計算的架構設計效率較低,且無可復用的IP

核,設計水平參差不齊。綜上分析,存算一體技術需要產業鏈上下游和科研機構共同努力,推動技術工程化和產業化。4.2

類腦智能:低功耗的下一代人工智能相對于目前已被廣泛應用和研究的深度人工神經網絡,類腦智能更多地借鑒了生物神經網絡的功能機制和行為特點,以便能夠達到能夠媲美人腦的能效表現15和學習能力。類腦智能技術路線總體上可分為三個層次:結構層次模仿腦,器件層次逼近腦,智能層次超越腦。在結構層次,人類大腦是一個極度優化的系統,人腦包含大約

1000

億個神經元,每個神經元都有數千個突觸連接。它的工作耗能缺僅為

25

瓦特。盡管單個神經元是神經系統的基本單位,但正是它們的突觸連接模式使神經元能夠形成神經網絡和主導各種腦功能的神經環路,從而使大腦成為強大的計算設備,完成當前更高能耗的計算機無法完成的任務。因此,人們希望能模仿人腦的工作方式來處理信息,構建新的神經網絡模型。腦科學是一門實踐性很強的交叉學科,包含了神經科學,醫學,數學,計算科學等多門學科。腦科學的目的是認識腦,保護腦和模擬腦,其中模擬腦是人工智能的重要靈感來源和終極目標。具體來說,模

Neurobiology

ComputationalNeuroscience)基礎上實現。神經生物學側重研究神經元和突觸等腦組織的生物學機理;計算神經學主要通過生物學機理對神經元以及神經突觸等結構進行數學建模,并在模擬環境仿真以求其特征與生物腦相近。在器件層次,生物神經網絡中的神經元具有復雜且龐大的空間結構,主要分為突觸、神經元、樹突等幾個部分。通過傳統的

CMOS(complementary

metal

oxidesemiconductor)電路可以實現大規模的人工突觸及人工神經元。

例如,IBM

設計并研制了

TrueNorth

芯片,

Intel

設計并研制了

Loihi

芯片,

它們模擬了神經元和突觸對脈沖的響應,

并且具備并行運算的能力,

可以降低推理及訓練所需的功耗。但是,

在這些芯片中,

每個神經元或者突觸都需要采用數十個

CMOS

器件來實現,

因此,

人們嘗試采用憶阻器來實現神經元和突觸的功能。憶阻器與生物神經元在結構、物理行為和功能上有著極高的相似性,

可以用于模擬神經單元豐富的行為特征,天然適合構建類腦神經器件。例如非易失憶阻器的電導狀態隨外加電壓產生連續變化,可用于模擬突觸單元在脈沖刺激下的權重調制;閾值開關器件兩端施加不同的電壓可以讓器件電導產生突變,可用于模擬神經元的積分-發放行為;動態憶阻器的具有非線性的

I-V,并且其電導隨時間指數衰減,可用于實現樹突單元的非線性濾波特性?;诖祟愋滦蛻涀杵鳂嫿ㄐ滦蜕窠浽娐方Y構及適配的網絡算法,有望能夠實現更高效的神經形態計算硬件系統,模擬生物神經網絡強大的學習能力,并為進一步研究生物神經網絡的運作機制提供高效16的計算平臺。圖

9

包含三種神經形態器件(突觸、神經元、樹突)的網絡系統在智能層次,脈沖神經網絡(spiking

neural

network,

SNN)作為第三代神經網絡,

與目前流行的神經網絡和機器學習方法有著根本上的不同,它使用脈沖信號而非連續信號傳遞信息,更容易模擬人腦低功耗高性能的處理方式。在該過程中,

神經元接收到足夠的興奮信號產生脈沖,

通過突觸傳遞給下一個神經元。脈沖神經網絡通過

2

個層面提升信號處理的效率,降低功耗:一是在積分-泄露-發放(leaky

integrate

and

fire,

LIF)神經元模型中,神經元對輸入的脈沖持續進行積分,當積分電位達到脈沖發放閾值后,神經元才發放脈沖傳遞到下一層網絡,該機制可以大幅降低未激活狀態下的神經元靜態功耗。二是通過引入自適應行為,使得神經元的脈沖發放頻率受到其興奮程度(閾值)的負反饋調節,有助于提高網絡穩態,進一步減少網絡中神經元的激活次數。此外,由于脈沖序列可以攜帶時間信息,神經元的

LIF

特性和突觸的

STDP、STP

特性使得

SNN

在處理大量時空信息上具有優勢,基于脈沖神經元構建多層神經形態網絡有望能夠提高網絡對于時序信息的處理能力。由于

SNN

中涉及復雜的時空動力學和不可微分的尖峰激活函數,開發用于深度

SNN

的高效學習算法是一項持續的研究挑戰。此外,SNN

需要輸入脈沖數據,當前直接獲得脈沖信號的傳感器還比較少,研究主要采用將傳統數字信號經過一定規則轉換為脈沖信號的方式,因而應用場景有限,精度也還不足以與卷積神經網絡相匹敵。因而我們相信,未來應該是類腦計算與傳統數字計算平臺并存,互17為補充。數字計算平臺面向云中心、高精度等計算需求。而隨著面向類腦計算的傳感器不斷涌現,類腦計算有望在終端實現感知、存儲、處理功能于一體,

極大程度底緩解物聯網實時數據爆炸的問題,實現更高效更低能耗的端側推理。4.3

端邊云協同:面向

6G

物聯網的泛在算力隨著物聯網的持續快速發展以及百億連接的移動通信設備下海量數據的產生,物聯網場景逐步呈現計算邊緣化、聯接泛在化、應用碎片化及終端智能化等趨勢,云計算、邊緣計算等傳統計算范式已經無法滿足日益增長的場景需求,因此端邊云協同計算成為了端側計算的新興技術之一。云側中央服務器聚合了大量的硬件資源,具備強大的計算能力和存儲能力,適合模型訓練、資源調配;邊緣服務器算力有限,可協同減輕云端的計算壓力,提升服務的多樣性,適合模型更新、異構匯聚;終端設備算力較小、靠近用戶側,可根據本地環境收集不同類型數據,有利于保護行業數據隱私性,適合模型推理、個性化服務。因而

6G

物聯網需要根據計算任務的相應需求選擇更靈活的計算范式,按需靈活部署,從而制定全局最優的資源分配及任務調度方案,滿足中心級、邊緣級、現場級的需求。4.3.1

縱向端邊云協同端邊云協同技術的發展可分為以下三個階段。圖

10

端邊云協同的三個層次第一階段是聚合樣本資源的數據協同,在該階段中,端側終端設備采集本地數據,傳送至云側進行數據處理分析、特征提取、訓練推理等計算工作,最終云側返回計算結果,其中,端、邊、云三方間的協同交互只存在于源數據層面。受18帶寬、隱私泄露、數據量等因素的影響,數據協同方式會面臨難分析、難處理的困境,因此已逐漸被模型協同、算力協同所替代。第二階段是部署智能服務的模型協同,該階段將面向用戶的人工智能服務部署到端側、邊側、云側,為用戶提供低時延、高精度、具備安全保障的優質體驗,其中端、邊、云三方間的協同交互主要面向模型參數層面。在該階段中,模型如何部署取決于用戶需求,如為保障數據隱私安全,可采用聯邦學習技術,即端側上傳模型參數或中間結果,邊側或云側基于多個端側設備的虛擬數據構建全局模型;為保障實時性需求,可采用模型壓縮技術,即將云側或邊側訓練好的大模型通過剪枝等方式獲取對應的小模型,并部署在端側設備上進行推理,縮短推理時間;為保障個性化需求,可采用遷移學習技術,即云側或邊側訓練通用模型,端側基于本地實際場景的數據進行部分參數固定、部分參數微調,從而適應實際業務需求。由于模型協同具備更強的靈活性及更高的服務質量,因此近年來工業界及學術界不斷進行探索,并取得了階段性的成果,成為了主流的端邊云協同方式。第三階段是優化資源調配的算力協同,該階段利用優化算法實現端側、邊側、云側算力資源的分配及任務調度,使得資源高效利用,降低計算成本。隨著國家“東數西算”工程及運營商“算力網絡”規劃建設的提出,打造端邊云多層次、立體泛在的分布式算力體系成為新的研究熱點,端邊云協同也逐步打破常規,向“以算為中心”的方向發展。其中,學術界率先發力,將高性能終端與邊緣側、云端的資源整合,根據實際需求,將部分任務的執行保留在本地或通過直通鏈路卸載到其他終端,可以實現更靈活、高效的網絡部署,同時降低上級網絡負荷。目前,算力協同還處于起步階段,將端邊云的算力資源進行連接與協同已經成為

5G/6G

網絡發展的業界共識,然而,領域內仍然存在一些共性的挑戰需要行業共同努力。一方面,對于終端側,國內企業將主要關注點投放在智能設備的多種功能模組硬件升級、操作系統和一站式應用平臺的搭建等,對端側算力的調用、端側協同機制和傳輸方法鮮有涉及。另一方面,學術界雖然已經有部分工作針對端邊云算力協同優化,但是沒有對業務場景進行針對性強的全面考慮,缺少端邊云三個層級的通信、計算和存儲跨域資源聯合協同。此外,多級分布式協同需要考慮服務需求差異化、部分信息可觀測、接入網環境和資源狀態復雜等現實因素對跨域資源協同和網絡優化帶來的影響。194.3.2

橫向端端協同圖

11

端端協同的四個層次端端協同

1.0

是基于

D2D

的數據共享。借助近距離直通

D2D

技術,用戶可以從鄰近的已獲得媒體業務的用戶終端處獲得該媒體內容——系統層面可以緩解運營商蜂窩網絡的下行傳輸壓力,用戶層面有助于降低時延及增強覆蓋。對于這種端端協同實現數據共享的服務模式,從具體場景出發包括:(a)通過挖掘用戶數據維度的興趣共性、社交共性,將用戶持有內容通過

D2D

鏈路推送至潛在的共性內容需求用戶,完成數據層和通信層融合服務;(b)對于請求同一媒體內容的區域用戶群,由

D2D

多跳鏈路構成無線內容分發網絡,完成快速內容共享,釋放蜂窩網下行傳輸壓力;(c)同用戶多個設備之間通過

D2D

鏈路實現內容遷移,相較于傳統短距離通信方式,提供更穩定優質的用戶體驗;(d)環境感知場景中(車聯網/物聯網),多個用戶設備可以通過直通鏈路(V2V/M2M)將個體感知數據進行轉發共享,擴大單車/單機視野,進而提升相應場景下(例如智慧交通、智能制造等)服務效率和可靠性。端端協同

2.0

是基于無縫連接的任務卸載。隨著物聯網設備數量和種類的迅速發展和提升,智能應用服務通過設備間的發現、連接和任務卸載調度來提升用戶服務體驗越發的重要。在單用戶設備比較少的時候,用戶通過手動操作的方式進行設備之間的連接,比如,手機連接藍牙耳機。隨著外圍設備越來越多,手動操作的方式不方便,甚至會影響用戶的體驗。在端端協同

2.0

階段,通過藍牙Mesh、分布式總線等方式能夠讓設備間形成方便、高效的互聯,從而可以實現任20務按需在不同設備間進行卸載。從具體場景出發包括:(a)設備之間即連即用,無需繁瑣的配置。在智能家居場景中烹飪時,手機可以通過碰一碰與烤箱連接,并將自動按照菜譜設置烹調參數,控制烤箱來制作菜肴。(b)多設備聯動,提升用戶體驗。在多屏聯動課堂中老師通過智慧屏授課,與學生開展互動,營造課堂氛圍,學生通過平板完成課程學習和隨堂問答。統一、全連接的網絡確保了傳輸通道的高帶寬、低時延、高可靠。端端協同

3.0

是面向碎片化能力匯聚的超級終端。隨著電子芯片、嵌入式、數字集成技術的發展,智能終端的性能正在經歷前所未有的飛躍。智慧屏、智能家電、VR

頭顯、機器人等終端設備,能夠滿足生產生活中的用戶高級體驗;而具有不同功能或不同體量的多個設備組合起來,可以構成一個虛擬的“超級終端”,為用戶提供更靈活的媒體業務形式和更高效的資源共享方案。具體來說包括以下幾方面。(a)通過蜂窩網絡或本地局域網將多個異構設備進行聯通,設備具有的不同功能聚合,極大的提升用戶體驗。例如,智能手機、智慧屏和

6

個音箱構成的

5.1

聲道環繞立體聲設備群互聯,可以為用戶在播放手機視頻時提供影院級視聽體驗。(b)通過蜂窩或局域網絡將一個用戶可支配的多個設備進行聯通,實現計算和存儲資源共享。例如,智能手機、平板電腦和筆記本電腦互聯,用戶可以通過筆記本電腦像操作自帶硬盤一樣,控制手機和平板的存儲空間,或通過D2D

建立協同計算任務。(c)不同用戶持有的終端設備可借助

D2D

傳輸進行計算卸載,這種方式充分調用空閑設備的計算能力,將部分任務的執行通過直通鏈路卸載到其他設備。多用戶之間進行資源共享,也可看作是一種“超級終端”形態,實現更靈活、高效的網絡部署,同時降低上級蜂窩網絡負荷。端端協同

4.0

是群體智能構成的超級大腦。在工業物聯網、車聯網和一些應急場景下,往往需要多個無人系統、多個機器人構成工作組,協同完成特定的目標任務,而這種終端設備之間的協同作業,依托于去中心化的自組織智能協作方式,將端端協同技術推進到“超級大腦”層次范疇。例如,在應急通信場景下,多個無人機組成的空中基站群可以為用戶提供通信和計算服務,無人機之間通過去中心化的分布式協作機制完成編隊、任務分配、任務卸載轉移等過程。這種多終端之間的協同機制起源于“群體智能”這一概念,是人們通過生物群體活動的自然現象中所發現,并加以探究的結果。人工智能技術的發展,進一步優化提升21了多智能體協同工作的性能。在上面的例子中,無人機可利用深度強化學習算法,從當前狀態下通過神經網絡智能學習下一步動作(軌跡、任務分配決策),并不斷與環境交互更新模型、優化參數,從而提升協作效率和服務質量。此外,以上談及的端端協同技術仍然存在一些共性挑戰,需要在實際的網絡協議和優化配置中解決。一是不同用戶終端之間數據和資源共享的激勵機制設置:在數據共享和計算卸載過程中,需要內容或資源提供方消耗設備能量、蜂窩數據流量、CPU

資源等,因此設置合理的激勵機制是十分必要的。二是

D2D

多跳轉發協議設計:在內容分發場景下,核心問題是解決內容的轉發路由方案,同時需要聯合考慮內容廣播、頻譜接入、同步等通信協議設計問題。三是協同傳輸和計算中的數據安全性保障:用戶終端之間的協同不可避免的帶來隱私數據泄漏的隱患,在物理層、數據層、模型層面上需要設計相應的安全性方案,實現端側協同對用戶隱私數據的保護。四是分布式協作中的信令交互機制設計:多智能體協同依托于去中心化的自組織群體智能,在沒有中心控制節點的分布式拓撲中如何進行智能體之間的信令交互,以便能夠滿足協同工作要求并提升通信效率,是實現端端協同“超級大腦”愿景需要探究的問題。225

總結展望促進存算一體工程化和產業化推動低功耗類腦智能算法成熟推動面向

6G

物聯網的立體計算23我們看到,端側計算具有低時延、高隱私、個性化等優點,有望在

6G

物聯網大流量、實時性、隱私性、自治性等場景有了廣泛的應用,并且隨著新興技術的發展,其場景在不斷豐富。但端側計算技術整體還處在初級階段,面臨芯片計算資源受限、技術架構碎片化、兼容性差等問題,帶來開發的難度,制約其發展和應用。推動端側計算的早日成熟,有如下幾點建議:一是產學研協同促進存算一體工程化和產業化,提升單點算力與能效。存算一體正處于多技術路線探索階段,產業鏈尚處于初級階段,我國與其他國家“旗鼓相當、齊頭并進”,有望實現計算芯片自主可控替代,避免“卡脖子”。但其產業化尚處于起步階段,部分器件的準確性、計算精度、陣列規模有待提升;不同芯片廠家開發的軟件工具鏈互不兼容,影響存算一體芯片產業生態構建?;谧灾餍酒漠a業生態尚未形成。二是跨學科聯動推動面向端側的低功耗類腦智能算法技術成熟。類腦智能算法的目前還處于初步階段,對大腦運行機制、仿人腦神經元器件、神經形態算法等研究還不夠成熟。類腦智能體系涉及要素較多,需要跨學科緊密合作,深化多方協同,加大對人腦運行機制/仿神經元器件/關鍵算法/軟件等加大支撐投入力度,共同推動技術實現體系化的創新。三是推動面向

6G

物聯網的端邊云協同立體計算。當前的邊云協同的標準不斷推進、技術日趨成熟、生態蓬勃發展;但是端側計算的技術架構還獨立在邊云協同之外,在立體計算中,端側還主要承擔數據采集的角色,和邊、云的協同計算還處在初始階段。面向

6G

物聯網的業務需求,需要不斷加強端側和邊云的協同。中國移動希望聯合產業合作伙伴共同推動存算一體芯片關鍵技術研發,共同推動面向異構芯片架構的通用化軟件工具鏈研發、打造標準軟件運行環境,加快存算一體芯片產業化進程,研發基于存算一體技術的類腦硬件及類腦智能算法,推動其在人工智能、物聯網等領域應用。研投協同加速構建新型計算領域自主可控產業和生態,助力我國在先進計算領域實現彎道超車。同時,面向

6G

物聯網,中國移動希望聯合合作伙伴聚焦典型計算場景,搭建面向

6G

物聯網端邊云協同計算標準體系、完善端邊云協同計算技術架構、并通過典型案例推動端邊云協同計算落地應用。24縮略語列表縮略語IDC全稱解釋國際數據公司International

Data

CorporationSpike

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論