基于卷積神經(jīng)網(wǎng)絡(luò)的智能抓取系統(tǒng)研究_第1頁
基于卷積神經(jīng)網(wǎng)絡(luò)的智能抓取系統(tǒng)研究_第2頁
基于卷積神經(jīng)網(wǎng)絡(luò)的智能抓取系統(tǒng)研究_第3頁
基于卷積神經(jīng)網(wǎng)絡(luò)的智能抓取系統(tǒng)研究_第4頁
基于卷積神經(jīng)網(wǎng)絡(luò)的智能抓取系統(tǒng)研究_第5頁
已閱讀5頁,還剩8頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

1、 基于卷積神經(jīng)網(wǎng)絡(luò)的智能抓取系統(tǒng)研究 韓毅 郭圓輝 王旭彬Summary:改革開放以來,國內(nèi)工業(yè)蓬勃發(fā)展。時至今日,現(xiàn)代工業(yè)化進(jìn)程已經(jīng)成為未來工業(yè)發(fā)展的重中之重,而工業(yè)化中最為重要的環(huán)節(jié)即現(xiàn)代工業(yè)的智能化、自動化。智能機(jī)器人可以高效地完成自動抓取、搬運(yùn)等工作。筆者研究了基于卷積神經(jīng)網(wǎng)絡(luò)的智能抓取系統(tǒng),使其實(shí)現(xiàn)了目標(biāo)分類、目標(biāo)定位、目標(biāo)抓取等功能。首先對需要抓取的目標(biāo)使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到識別目標(biāo)位置與分類信息的卷積神經(jīng)網(wǎng)絡(luò)模型;然后利用張正友標(biāo)定法對深度相機(jī)進(jìn)行標(biāo)定,得到相機(jī)的內(nèi)參矩陣;隨后通過雙邊濾波對圖像進(jìn)行降噪處理,將處理后的圖像輸入預(yù)先訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)模型,從卷積神經(jīng)網(wǎng)絡(luò)模型

2、中得到目標(biāo)的位置信息與分類信息;然后通過相機(jī)的內(nèi)外參信息逆向求解得到機(jī)械臂需要抓取的位置坐標(biāo)信息;最后用機(jī)械臂完成抓取。在試驗(yàn)的過程中,使用了dobot與realsense d435i進(jìn)行驗(yàn)證。試驗(yàn)結(jié)果表明,該系統(tǒng)定位誤差較小,且有效地完成了目標(biāo)抓取任務(wù)。Key:計(jì)算機(jī)視覺;卷積神經(jīng)網(wǎng)絡(luò);機(jī)械臂:TP391.41;TP242.2:A:1003-5168(2021)35-0017-04Study on Intelligent Grab System Based on Convolutional Neural NetworkHAN YiGUO YuanhuiWANG Xubin(Departmen

3、t of Computer Science and Information Engineering, Anyang Institute of Technology, Anyang Henan 455000)Abstract: Since the reform and opening up, domestic industrial construction has flourished. Today, today, the modern industrialization process has become the weight of the future industrial develop

4、ment. The most important part of in? dustrialization is the intelligent and automation of modern industries. And smart robots can efficiently complete auto? matic capture, handling, etc. This paper studies intelligent grabbing systems based on convolutional neural networks. Achieve job classificatio

5、n, target positioning, and goal. First, consolidation neural network training is used to identify the target position and classification information. The depth camera is then calibrated with the Zhang Zhengyou cali? bration method to obtain an interior matrix of the camera. The image is then documen

6、ted by bilateral filtering, and the processed image inputs the pre-training convolutional neural network model. Classification information of the loca? tion information and the target of the target from the convolutional neural network model. Then, the position coordi? nate information of the robot

7、arm needs to be grabbed by the internal and external information of the camera. Finally, use the robot arm to accomplish. During the experiment, dobot is used to verify the realsense d435i. The experimental results show that the positioning error is small, and the targets grab task is completed.Keyw

8、ords: computer vision;convolutional neural network;robotic arm在智能工業(yè)化飛速發(fā)展的今天,智能機(jī)器人在工業(yè)制造中充當(dāng)著重要角色,可以高效地替代人工,具有成本低、效率高等優(yōu)勢。但是在機(jī)器人的工作流程、施工方式、準(zhǔn)確性及效果等方面依然有許多研究難題待攻克。對目前大部分工業(yè)制造而言,使用機(jī)器人對目標(biāo)進(jìn)行抓取時需要采用統(tǒng)一位置、統(tǒng)一移動路線和統(tǒng)一抓取位置,然后按照預(yù)先準(zhǔn)備的路線進(jìn)行工作。該方案在實(shí)際應(yīng)用中存在較大的局限性,當(dāng)外界環(huán)境發(fā)生改變或?qū)ぜM(jìn)行更換時,需要對系統(tǒng)進(jìn)行較大的修改,導(dǎo)致其維護(hù)成本較高。而戴健春等人提出的基于模板匹配的方法

9、,雖然對工件的模板進(jìn)行提取和匹配1-3,解決了傳統(tǒng)工業(yè)制造中固定路線、固定路徑的問題,但是在面對場景改變、物件更換等情況時,會出現(xiàn)系統(tǒng)修改困難、模板替換復(fù)雜等問題。基于深度學(xué)習(xí),將卷積神經(jīng)網(wǎng)絡(luò)技術(shù)應(yīng)用于機(jī)械臂的抓取中,實(shí)現(xiàn)了一種可以對目標(biāo)進(jìn)行分類和定位的智能機(jī)械臂分揀系統(tǒng),并通過實(shí)驗(yàn)驗(yàn)證了本方法的可行性。1智能抓取系統(tǒng)本設(shè)計(jì)的智能抓取系統(tǒng)由深度相機(jī)(realsense d435i)、機(jī)械臂(dobot magician)與PC機(jī)(具有深度學(xué)習(xí)環(huán)境的計(jì)算機(jī))組成,深度相機(jī)與機(jī)械臂實(shí)物分別如圖1、圖2所示。機(jī)械臂與深度相機(jī)都放置于工作臺上方,工作臺由三部分組成:抓取區(qū)域、深度攝像頭放置區(qū)與機(jī)械臂放

10、置區(qū)域。其中抓取區(qū)域放置一個7格9格的黑白標(biāo)定板,便于校正攝像頭畸變參數(shù);深度攝像頭使用支架固定于抓取區(qū)域正上方,負(fù)責(zé)采集抓取場景下的圖像數(shù)據(jù);機(jī)械臂負(fù)責(zé)完成對目標(biāo)的抓取。機(jī)械臂抓取時,其工作流程如圖3所示。首先進(jìn)行深度相機(jī)的標(biāo)定工作,使用攝像頭采集標(biāo)定板的數(shù)據(jù),隨后將這些圖像通過USB端口上傳至PC機(jī),PC機(jī)使用張正友標(biāo)定法對相機(jī)進(jìn)行標(biāo)定,并建立攝像機(jī)位姿數(shù)據(jù)與標(biāo)定板位置數(shù)據(jù)的模型4。然后使用深度相機(jī)采集抓取區(qū)域的圖像數(shù)據(jù),并將采集的圖像流上傳至PC機(jī),PC機(jī)通過使用中值濾波對相機(jī)圖像數(shù)據(jù)進(jìn)行調(diào)整。隨后將調(diào)整后的圖像信息輸入卷積神經(jīng)網(wǎng)絡(luò)模型,卷積神經(jīng)網(wǎng)絡(luò)模型輸出目標(biāo)在圖像中的位姿數(shù)據(jù),隨后根

11、據(jù)通過標(biāo)定建立起的數(shù)學(xué)模型計(jì)算出目標(biāo)在標(biāo)定板的位姿數(shù)據(jù)。最后將標(biāo)定板的位姿數(shù)據(jù)轉(zhuǎn)換為機(jī)械臂抓取的位姿數(shù)據(jù),并控制機(jī)械臂完成抓取任務(wù)。2卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)識別使用機(jī)械臂抓取不同顏色的立方體,首先要在場景下對目標(biāo)進(jìn)行識別,隨后根據(jù)目標(biāo)的像素位置計(jì)算出目標(biāo)的抓取位置。采用卷積神經(jīng)網(wǎng)絡(luò)對目標(biāo)進(jìn)行識別,首先需要進(jìn)行模型訓(xùn)練,隨后根據(jù)模型進(jìn)行目標(biāo)的識別與定位。圖像數(shù)據(jù)處理算法包含以下幾個步驟:卷積神經(jīng)網(wǎng)絡(luò)模型的選擇;數(shù)據(jù)集的標(biāo)定與處理;卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練與測試。2.1卷積神經(jīng)網(wǎng)絡(luò)模型的選擇目前使用卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練目標(biāo)識別模型的大致思路有兩種:one-stage方法與two-stage方法。其中twost

12、age方法思想為:先生成候選框,隨后映射到全連接層進(jìn)行分類和回歸。而one-stage方法的思想為:放棄生成候選框的環(huán)節(jié),直接從主干網(wǎng)絡(luò)中獲取目標(biāo)的類別與位置信息。Two-stage方法的優(yōu)點(diǎn)是目標(biāo)識別準(zhǔn)確度較高,但其有一個明顯的弊端,即算法耗時較長。而本實(shí)驗(yàn)中的抓取目標(biāo)僅為普通的方塊,因此one-stage方法足以精確地完成識別工作。此外,目標(biāo)識別環(huán)節(jié)耗時較長會直接影響機(jī)械臂工作的連續(xù)性,因此one-stage方法更適用于本系統(tǒng)。YOLO算法是一個典型的one-stage方法。YOLO_v3框架如圖4所示,由相機(jī)采集的416 px416 px3 channel的RGB圖像作為網(wǎng)絡(luò)的輸入,輸出

13、131387與262687的向量矩陣分別為YOLO_v3-tiny對目標(biāo)預(yù)測的分類信息與位置信息5。2.2數(shù)據(jù)集的標(biāo)定與處理通過移動攝像頭采集了一段時長為10 min的RGBD視頻,視頻中分別有不同方向與距離下的目標(biāo)圖像數(shù)據(jù),按照每2 s為一步的步長進(jìn)行裁剪,得到300張目標(biāo)圖像。隨后,對圖像進(jìn)行標(biāo)定,使用圖像標(biāo)注軟件LabelMe在圖像中標(biāo)記每個目標(biāo)的位置信息并存儲到訓(xùn)練數(shù)據(jù)中。隨后,將圖片調(diào)整至416 px416 px。通過平移、旋轉(zhuǎn)、裁剪等操作對數(shù)據(jù)進(jìn)行增強(qiáng),得到900張訓(xùn)練數(shù)據(jù),部分訓(xùn)練數(shù)據(jù)如圖5所示。2.3卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練與測試選取了80%的數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),20%的數(shù)據(jù)作為測

14、試數(shù)據(jù),批量大小為32,訓(xùn)練次數(shù)為500,選擇GTX2080 TI GPU進(jìn)行訓(xùn)練。得到的損失函數(shù)曲線如圖6所示。從圖6的數(shù)據(jù)表現(xiàn)來看,隨著訓(xùn)練次數(shù)的增加,損失值已經(jīng)基本收斂。隨后,深度相機(jī)的圖像數(shù)據(jù)經(jīng)過雙邊濾波處理后作為卷積神經(jīng)網(wǎng)絡(luò)的輸入6,經(jīng)過卷積神經(jīng)網(wǎng)絡(luò)后,得到目標(biāo)的位置信息以及分類數(shù)據(jù),將分類信息與位置繪制到圖像中,如圖7所示。3試驗(yàn)結(jié)果以四軸機(jī)械臂dobot magician作為取機(jī)械臂,以intel realsense d435i為抓取場景采集裝置,采用配置為Intel i78750H+GTX 1050TI的PC處理圖像數(shù)據(jù)。其中處理平臺操作系統(tǒng)為Windows 10,基于Pyth

15、on 3.7與tensorflow 1.14.0開發(fā)出基于以上設(shè)備的自主抓取程序。3.1相機(jī)標(biāo)定實(shí)驗(yàn)使用張正友標(biāo)定法對相機(jī)進(jìn)行內(nèi)參矩陣求解,然后通過OpenCV角點(diǎn)提取得到相機(jī)與棋盤格的部分坐標(biāo)信息,最后通過逆矩陣求解得到相機(jī)坐標(biāo)系與機(jī)械臂坐標(biāo)系之間的關(guān)系。使用相機(jī)從不同方向拍攝棋盤格的圖像,然后使用OpenCV求出相機(jī)的內(nèi)參矩陣信息,相機(jī)采集的部分標(biāo)定板圖像如圖8所示。依照相機(jī)標(biāo)定得到的內(nèi)參矩陣與外參矩陣,即可得到圖像與機(jī)械臂之間的點(diǎn)對點(diǎn)關(guān)系。3.2目標(biāo)物體分類定位與抓取實(shí)驗(yàn)以不同顏色的物塊為定位目標(biāo),在不同場景下對物塊進(jìn)行分類、定位。以標(biāo)定框的中心為抓取中心坐標(biāo)原點(diǎn),然后根據(jù)深度攝像頭的深

16、度距離,計(jì)算出實(shí)際地面高度并進(jìn)行轉(zhuǎn)換,得出目標(biāo)物體的世界坐標(biāo),為下一個實(shí)驗(yàn)中機(jī)械臂的抓取做準(zhǔn)備。定位的目標(biāo)結(jié)果如圖9所示。如圖9所示,共檢測出6個不同的目標(biāo)物體,將歐氏距離的大小作為評價指標(biāo),以棋盤格坐標(biāo)系為實(shí)際坐標(biāo)系,坐標(biāo)測量結(jié)果如表1所示。通過表1數(shù)據(jù)可知,預(yù)測坐標(biāo)與實(shí)際坐標(biāo)的歐氏距離范圍為(0.653 456 46,0.987 980 90),精度良好。隨后通過PC機(jī)控制機(jī)械臂抓取目標(biāo)物體,每個物體共進(jìn)行了30次抓取測試,合計(jì)180次。在整個實(shí)驗(yàn)中,平均抓取成功率為91.33%,具體實(shí)驗(yàn)結(jié)果如表2所示。4結(jié)語在本系統(tǒng)設(shè)計(jì)中,將深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)技術(shù)引入機(jī)械臂的智能抓取中,通過卷積神

17、經(jīng)網(wǎng)絡(luò)對待抓取物體進(jìn)行分類、定位等操作,隨后利用張正友標(biāo)定法求出相機(jī)的焦距、變換矩陣等信息,進(jìn)而求出圖像與機(jī)械臂的變換矩陣,實(shí)現(xiàn)了利用深度學(xué)習(xí)對物體的分類、定位、抓取。本方法相較于傳統(tǒng)方法中利用計(jì)算機(jī)視覺對物體進(jìn)行輪廓匹配的方法具有較大的改進(jìn),有效地解決了傳統(tǒng)方法中不同物體需要不同的匹配方法、計(jì)算量較大、編碼復(fù)雜等問題,對現(xiàn)代工業(yè)機(jī)械臂抓取、物體分類抓取等應(yīng)用具有重要意義。Reference:1戴健春.基于RGB-D相機(jī)的工業(yè)機(jī)器人定位抓取技術(shù)與系統(tǒng)集成研究D.重慶:重慶郵電大學(xué),2018:1-72.2苗彭.基于視覺的機(jī)械臂工件抓取系統(tǒng)研究D.天津:天津理工大學(xué),2019:1-64.3姚啟才,汪地,廖茂生.基于機(jī)器視覺的機(jī)械臂智能抓取系統(tǒng)設(shè)計(jì)J.計(jì)量與測試技術(shù),2020(10):28-33.4ZHANG Z Y.A flexible new technique for camera calibrationJ.IEEE Transactions on Pattern Analysis and Machine Intelligence,2000(11):1330-13345REDMON J,F(xiàn)ARHADI A.YOLOv3: An

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論