人工智能及大數據學習-object_第1頁
人工智能及大數據學習-object_第2頁
全文預覽已結束

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

anchor_based-anchor_freeobject ,比較火的就是anchorbased和anchor anchor_based-anchor_freeobjectanchorbasedanchoranchorbasedanchorfreeAnchor-based和Anchor-free方法的輸出在定位方式和置信度得分方面差異顯著,直 Anchor-based方法處理的尺度范圍雖小,但更精準;Anchor-free其一,對于Anchor-based方法,groundtruthIoU≥0.5的 訓練樣本??梢园l現,正負樣本的定義與邊界框回歸結果無關,這就導致Anchor-based分支每個 Anchor-free方法,網絡訓練方式類似于目標分割任務。輸出的特征圖reference:人臉檢測江湖的那些事兒——從曠視說起: 和時間。對于單階段算法來說,為了使其更為有效的檢測小目標,通常進行FPN結構以總而言之,Anchor-basedAnchor-freeanchorbasedanchorfree方anchor (0.50.7)的目標,anchor數量,檢測層Pn的感受野ooAnchorFaster錨框:AnchorboxanchorFSAFforSingle-ShotObjectDetection:在RetinaNet基礎上添加了anchorht,個人感覺是不是只在最后又監督信息,訓練難度是否要大些。參考:GuidedAnchoringanchor-prior-freeanchor-based一致,所以可以到現有的anchor-based的方法里面然后以結果作為anchor進行進一步地修正。FoveaBox:假設FPN中每一個層一定范圍內的boundingbox,而每個特征金字塔都有一basicarea32*32512*512FoveaBox為了使每個層 y_1, y_1,x_2,y_2) 關系(t_{x_1},t_{x_2},接著使用簡單的L1z=\sqrt{S_l一個歸一化因子,將輸出空間到中心為1的空間,使得訓練穩定。最后使用log空間函數進行但仍然需要手工的去設置參數,比如每層的area的范圍,以及正樣本區域的縮放因子的參數??偟膩碚f還是不錯的,吸取了DenseBox的大量優點,也對其 一個distance,而是去學習 FCOS:FCNs的網絡在密集檢測例如語義分割任務都有很好的效果,那 存在一個問題,就是真實的區域交疊問題,如果那個分割區域交疊了,那么存在一個問題,就是真實的區域交疊問題,如果那個分割區域交疊了,那么A.FPN結構來在每一層加以限定,因為這兩者之間的尺度相差較大,文章5個區間來限定B.如果一個像素點在同一層落到了多個GT區域,這樣也會ambiguous。這是作ItisworthnotingthatFCOScanleverageasmanyforegroundsamplesaspossibletotraintheregressor.Herel?,t?,r?andb?arethedistancesfromthelocationtothefoursidesoftheboundingbox借鑒了關鍵點檢測的思路來做detection:CornerNet,第一個貢獻是設計了一top-left和bottom-right的heatmap,找出那些最有可能是top-leftottom-right之間的匹配關系。第二個貢獻是提出了CornerPooling務的變化,傳統的 方法并不是非常適用該網絡框架0.1%(不如CorNerNet),mult-scale上比CorNerNet1.1個點。CenterNet:精度高,思想是通過中心點抑制誤檢;使用CascadeCornerPo據左上角和右下角點,得到物體的boundingbox;使用CenterPooling模塊,提Centerheatmap,根據Centermap的得到所有的物體中心點。使用物體中心點對提取到的boundingbox進行進一步過濾,如果box的中間區域沒有中心點存在,則認為此box不可靠。ObjectsasPoints(CenterNet):速度快,出發點是用中心點做盡可能多的任務,基本上把中心點玩出了花,通過檢測中心點以及各種長寬和offsets不僅能做2Ddetection3Ddetectionposeestimation。不需要voting,也不需要nms。直接predictcenters,然后(再)predict長寬。ade是追求高準確率(mAP)的同時,盡可能提高速度(FPS);CornerNet-Squeeze最近的CVPRobjectdetection部分,anchor-free大火特火.基本上都逃不過15年的Densebox和18的CornerNet這兩篇文章的思路,剩下的無非就是如何更高效的用點來表示一個box. N用NxN個點來表示,ExtremeNet用四個極值點+一個中心點來表示,CenterNet用兩個角點+一個中心點來表示,ObjectsasPoints( 也叫CenterNet)用一個中心點+長寬值來表示,FCOS用點+到框的四個距離來表示....你看這些anchor-free的文章,精度高的也有,CenterNet更是在coco-testdev上刷到了47的AP,速度快的也有,ObjectsasPoints可以在保證41.6AP值的情況下達到35ms一幀(GPUTitanV下,而且輸入是512*512).所以感覺CornerNet-Lite出現的稍微晚了些,基本上它能做的事情其它框架都可以做.(吐槽一下,這幾篇文章真的大同小異,如果可以把每篇文章的優點都結合起來,再優化下,說不定accurate/speed真的可cascade方 定位精度:2018WIDERChallengeFaceDetection:CascadeRegression N到HybridTaskCascade:將這種結構或思想引入到實例分割中并不是一件直接而容易的事情,如

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論