


下載本文檔
版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
計(jì)算機(jī)視覺(jué)算法開(kāi)發(fā)到應(yīng)用實(shí)現(xiàn)簡(jiǎn)介概述計(jì)算機(jī)視覺(jué)是使用計(jì)算機(jī)及相關(guān)設(shè)備對(duì)生物視覺(jué)的一種模擬,是人工智能領(lǐng)域的一個(gè)要部分,它主要任務(wù)是通過(guò)對(duì)采集的圖片或視頻進(jìn)行處理以獲得相應(yīng)場(chǎng)景的信息。傳統(tǒng)的計(jì)算機(jī)視覺(jué)系統(tǒng)的主要目標(biāo)是從圖像中提取特征,包括邊緣檢測(cè)、角點(diǎn)檢測(cè)、基于顏色的分割等子任務(wù)。這種方法的主要問(wèn)題是需要告訴系統(tǒng)在圖像中尋找哪些特性。在實(shí)現(xiàn)中,算法性能差可以通過(guò)微調(diào)來(lái)解決,但是,這樣的更改需要手工完成,并且針對(duì)特定的應(yīng)用程序進(jìn)行硬編碼,這對(duì)高質(zhì)量計(jì)算機(jī)視覺(jué)的實(shí)現(xiàn)造成了很大的障礙。當(dāng)前,深度學(xué)習(xí)系統(tǒng)在處理一些相關(guān)子任務(wù)方面取得了重大進(jìn)展。深度學(xué)習(xí)最大的不同之處在于,它不再通過(guò)精心編程的算法來(lái)搜索特定特征,而是訓(xùn)練深度學(xué)習(xí)系統(tǒng)內(nèi)的神經(jīng)網(wǎng)絡(luò)。目標(biāo)檢測(cè)目標(biāo)檢測(cè)分為以下幾個(gè)步驟:訓(xùn)練分類器所需訓(xùn)練樣本的創(chuàng)建:訓(xùn)練樣本包括正樣本和負(fù)樣本;其中正例樣本是指待檢目標(biāo)樣本(例如人臉或汽車(chē)等),負(fù)樣本指其它不包含目標(biāo)的任意圖片(如背景等),所有的樣本圖片都被歸一化為同樣的尺寸大小(例如,20x20)。特征提取用訓(xùn)練樣本來(lái)訓(xùn)練分類器:確定模型,構(gòu)建算法,用訓(xùn)練集優(yōu)化參數(shù)。為了使分類檢測(cè)準(zhǔn)確率較好,訓(xùn)練樣本一般都是成千上萬(wàn)的,然后每個(gè)樣本又提取出了很多個(gè)特征,這樣就產(chǎn)生了很多的的訓(xùn)練數(shù)據(jù),所以訓(xùn)練的過(guò)程一般都很耗時(shí)的。利用訓(xùn)練好的分類器進(jìn)行目標(biāo)檢測(cè):一般的檢測(cè)過(guò)程是這樣的:用一個(gè)掃描子窗口在待檢測(cè)的圖像中不斷的移位滑動(dòng),子窗口每到一個(gè)位置,就會(huì)計(jì)算出該區(qū)域的特征,然后用訓(xùn)練好的分類器對(duì)該特征進(jìn)行篩選,判定該區(qū)域是否為目標(biāo)。學(xué)習(xí)和改進(jìn)分類器用交叉驗(yàn)證集來(lái)改進(jìn)參數(shù)誤差,用測(cè)試集來(lái)驗(yàn)證模型的正確性。以下是神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測(cè)的流程圖:制學(xué)習(xí)橫式郵加溶計(jì)算中閩咨舌單元的妙入和折忸JE新
孕習(xí)電H計(jì)心出S**7t的挈入和留EJ計(jì)寒此山用身單無(wú)的校制學(xué)習(xí)橫式郵加溶JE新
孕習(xí)電H計(jì)心出S**7t的挈入和留EJ計(jì)寒此山用身單無(wú)的校五陳計(jì)算中網(wǎng)R3■單元的枝正詛撐國(guó)贓中可息卒摘卅屋之向的重缺理物品盛答4ML的事出由佩全部頓式HI株完??蟀入層至中何房皂間的鹿授心中間屈件無(wú)十輸苫闊恒GPU應(yīng)用CUDA(ComputeUnifiedDeviceArchitecture)是由英偉達(dá)公司推出的GPU通用并行計(jì)算平臺(tái)。CUDA(ComputeUnifiedDeviceArchitecture)是由英偉達(dá)公司推出的GPU通用并行計(jì)算平臺(tái)。GPU的強(qiáng)大計(jì)算能力得益于其多核的設(shè)計(jì),目前一般民用CPU的核心數(shù)量在4~8核,而同時(shí)期的桌面版GPU一般都擁有上千個(gè)計(jì)算核心,GPU可以作為CPU的協(xié)處理器與CPU做并行計(jì)算。此處就以五層神經(jīng)網(wǎng)絡(luò)為例:在CUDA架構(gòu)下,一個(gè)程序分為兩個(gè)部分:host端和device端。host端是指在CPU上執(zhí)行的部分,而device端則是在GPU上執(zhí)行的部分°device端的程序又稱為Kernel。通常host端程序會(huì)將數(shù)據(jù)準(zhǔn)備好后,復(fù)制到顯卡的內(nèi)存中,再由GPU執(zhí)行device端程序,完成后再由host端程序?qū)⒔Y(jié)果從顯卡的內(nèi)存中取回。GPU上神經(jīng)網(wǎng)絡(luò)前向傳播算法基本過(guò)程是逐層計(jì)算各層的所有神經(jīng)元的值。輸入層神經(jīng)元值已知,其余每層有一個(gè)Kernel函數(shù)來(lái)計(jì)算該層的所有神經(jīng)元的值,上述的神經(jīng)網(wǎng)絡(luò)需要4個(gè)Kernel函數(shù)。并行計(jì)算只能體現(xiàn)在一層中,不同層之間沒(méi)有并行性。首先將輸入層的神經(jīng)元值和每層的權(quán)值保存在5個(gè)數(shù)組中,并從host內(nèi)存?zhèn)鬟f到device內(nèi)存。由于每層的權(quán)值是不變的,所以可以將這些權(quán)值傳遞到device的常量?jī)?nèi)存中,由于常量?jī)?nèi)存有cache,這比放到全局內(nèi)存的存取速度要快很多。在device中為第二到第五層的神經(jīng)元值分配內(nèi)存空間,第一個(gè)Kernel函數(shù)根據(jù)輸入層的神經(jīng)元值和權(quán)值計(jì)算第二層神經(jīng)元值,第二個(gè)Kernel函數(shù)根據(jù)第二層的神經(jīng)元值和權(quán)值計(jì)算第三層神經(jīng)元值,如此往下,第四個(gè)Kernel函數(shù)計(jì)算出第五層即輸出層的值,然后將該值從device內(nèi)存?zhèn)鬟f到host內(nèi)存。神經(jīng)網(wǎng)絡(luò)的連接體現(xiàn)在每個(gè)Kernel函數(shù)處理計(jì)算過(guò)程里。卷積神經(jīng)網(wǎng)絡(luò)最主要也最耗時(shí)的操作在于感受野的卷積操作,為了能夠提升效率,使用CUDA平臺(tái)提供的深度學(xué)習(xí)庫(kù)CUDNNoCUDNN庫(kù)針對(duì)深度學(xué)習(xí)中常用的一些操作提供了一些API接口。這些接口結(jié)合GPU的硬件特性,在效率上都進(jìn)行過(guò)深度的優(yōu)化,是卷積神經(jīng)網(wǎng)絡(luò)在GPU上加速的核心。此處以卷積神經(jīng)網(wǎng)絡(luò)在GPU實(shí)現(xiàn)為例:1.卷積網(wǎng)絡(luò)層結(jié)構(gòu)設(shè)計(jì):卷積神經(jīng)網(wǎng)絡(luò)最主要的部分在于每層網(wǎng)絡(luò)的設(shè)計(jì),層采用繼承派生的設(shè)計(jì),卷積網(wǎng)絡(luò)的所有層都繼承自虛基類Layer,所有層都需要實(shí)現(xiàn)6個(gè)虛函數(shù),函數(shù)的名稱參數(shù)和功能如下所示:setTopLayer(Layer*):關(guān)聯(lián)當(dāng)前層的差量輸入與上一層的差量輸出,僅在訓(xùn)練時(shí)需要setBottomLayer(Layer*):關(guān)聯(lián)當(dāng)前層的輸入和上一層的輸出createLayer():創(chuàng)建該層,主要完成內(nèi)存分配和變量初始化的工作cnnForward():該層網(wǎng)絡(luò)的前饋運(yùn)算cnnBackward():該層網(wǎng)絡(luò)的反饋運(yùn)算updateCoeff():根據(jù)反饋運(yùn)算的差值更新權(quán)值、偏置參數(shù)輸入層、卷積層從Layer虛基類派生。輸出層從卷積層派生,并且重寫(xiě)前饋和反饋操作函數(shù)。采用這種設(shè)計(jì)結(jié)構(gòu),能夠使得整個(gè)卷積神經(jīng)網(wǎng)絡(luò)變得易于管理,只需要將基類的指針保存在動(dòng)態(tài)數(shù)組中,初始化時(shí)根據(jù)網(wǎng)絡(luò)的層數(shù),將第一層與最后一層分別使用輸入層與輸出層來(lái)初始化,其余層使用卷積層來(lái)初始化即可。層的繼承派生關(guān)系如圖1所示。2.使用API接口前饋操作調(diào)用了一組函數(shù)CUDNN的接口函數(shù),包括:cudnnConvolutionForward、cudnnAddTensor和cudnnActivationForward。其中,cudnnConvolutionForward主要完成感受野的卷積計(jì)算,該函數(shù)會(huì)根據(jù)輸入圖像描述符、濾波器描述符和卷積運(yùn)算描述符來(lái)完成卷積運(yùn)算。cudnnAddTensor主要完成矩陣的相加,使用該函數(shù)為給每個(gè)感受野添加偏置oCudnnActivationForward則是實(shí)現(xiàn)了激活函數(shù),API中提供了Sigmoid、ReLu和Tanh三種激活函數(shù),在層初始化的時(shí)候可以根據(jù)需要進(jìn)行設(shè)置。反饋操作部分則相反,可以使用了cudnnActivationBackward、cudnnConvolutionBackwardData、cudnnConvolutionBackwardFilter和cudnnConvolu
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 鄰里火災(zāi)糾紛協(xié)議書(shū)
- 非自愿簽婚內(nèi)協(xié)議書(shū)
- 裝修安全保證協(xié)議書(shū)
- 銷(xiāo)售車(chē)輛合同協(xié)議書(shū)
- 首付付款比例協(xié)議書(shū)
- 餐廚垃圾合同協(xié)議書(shū)
- 苗圃現(xiàn)金收購(gòu)協(xié)議書(shū)
- 轉(zhuǎn)讓藥廠設(shè)備協(xié)議書(shū)
- 加入俱樂(lè)部合同協(xié)議書(shū)
- 協(xié)會(huì)副會(huì)長(zhǎng)合同協(xié)議書(shū)
- 2025-2030年中國(guó)腰果酚市場(chǎng)競(jìng)爭(zhēng)格局及發(fā)展前景研究報(bào)告
- 智能制造對(duì)融資租賃行業(yè)影響-全面剖析
- 2025年新高考語(yǔ)文【語(yǔ)言運(yùn)用新題型】考前訓(xùn)練試卷附答案解析
- GB 29743.2-2025機(jī)動(dòng)車(chē)?yán)鋮s液第2部分:電動(dòng)汽車(chē)?yán)鋮s液
- 安全人機(jī)工程學(xué)-人因事故分析與預(yù)防報(bào)告課件
- 生物有機(jī)肥試驗(yàn)方案
- 2025年小升初語(yǔ)文《分析人物形象》教學(xué)講義及專項(xiàng)練習(xí)題(附答案)
- 超星爾雅學(xué)習(xí)通《中華文化才藝(中國(guó)海洋大學(xué))》2025章節(jié)測(cè)試附答案
- 大數(shù)據(jù)與人工智能在財(cái)務(wù)管理中的深度應(yīng)用研究
- 《AI技術(shù)術(shù)語(yǔ)解析》課件
- 康姿百德入職培訓(xùn)
評(píng)論
0/150
提交評(píng)論