原標(biāo)題:叉車(chē)機(jī)器人托盤(pán)定位技術(shù):近期進(jìn)展回顧
作者:Z|來(lái)源:微信公眾號(hào)「3D視覺(jué)工坊」
托盤(pán)廣泛應(yīng)用在倉(cāng)庫(kù)和零售店中,對(duì)于叉車(chē)機(jī)器人和托盤(pán)揀選設(shè)備,托盤(pán)的自動(dòng)定位和識(shí)別技術(shù)對(duì)于非常值得研究。由于托盤(pán)類(lèi)型在實(shí)際場(chǎng)景中變化很大,因此很難研發(fā)單一的解決方案來(lái)檢測(cè)所有類(lèi)型的托盤(pán)。
本文概述了工業(yè)叉車(chē)機(jī)器人和托盤(pán)揀選設(shè)備上的托盤(pán)識(shí)別和定位技術(shù)。回顧和比較了一些現(xiàn)代計(jì)算機(jī)視覺(jué)技術(shù)。特別的,深度神經(jīng)網(wǎng)絡(luò)(DNN)通常用于RGB圖像中托盤(pán)的檢測(cè)和定位;點(diǎn)云方法用于標(biāo)記二維范圍數(shù)據(jù)中的感興趣區(qū)域(ROI),并提取托盤(pán)的特征,該方法能夠提供托盤(pán)的精確定位。此外,還介紹了托盤(pán)識(shí)別和定位算法(PILA)模型,該方法可以在沒(méi)有任何人工輔助的情況下提供高精度的托盤(pán)方位角和中心位置,利用RGB圖像和點(diǎn)云數(shù)據(jù),配合低成本的硬件來(lái)平衡定位精度和運(yùn)行時(shí)間。
實(shí)驗(yàn)結(jié)果表明,托盤(pán)在3m距離處的3D定位精度為1cm,角度分辨率為0.4度,運(yùn)行時(shí)間小于700ms。PILA 是一種有效的解決方案,可用于自動(dòng)托盤(pán)揀選設(shè)備和叉車(chē)自主導(dǎo)航應(yīng)用。
近十年來(lái),無(wú)人工業(yè)自動(dòng)化技術(shù)引起了足夠的關(guān)注,尤其是在物流行業(yè)應(yīng)用中。隨著 COVID-19 大流行并繼續(xù)在世界范圍內(nèi)蔓延,通過(guò)無(wú)人駕駛叉車(chē)機(jī)器人和 AGV 來(lái)揀選托盤(pán)變得更加需要 [1]。托盤(pán)檢測(cè)和定位的主要挑戰(zhàn)是:
1、托盤(pán)中心的x、y、z值和方位角。
2、“實(shí)時(shí)”操作要求,保證托盤(pán)揀選。
3、托盤(pán)類(lèi)型和尺寸在實(shí)際應(yīng)用中可能會(huì)有很大差異,而典型的基于模型的托盤(pán)定位方法并不能正確處理所有情況。
托盤(pán)檢測(cè)和定位問(wèn)題從 80 年代就開(kāi)始研究。在早期階段,紅外傳感器或RFID用于提供托盤(pán)的距離,但只能在叉車(chē)上實(shí)現(xiàn)點(diǎn)對(duì)點(diǎn)測(cè)量[2]。隨著基于嵌入式系統(tǒng)硬件的視覺(jué)技術(shù)的發(fā)展,可以利用物體檢測(cè)算法對(duì)人工特征進(jìn)行定位,從而實(shí)現(xiàn)更精確的托盤(pán)識(shí)別和定位。然而,這種方法很難在倉(cāng)庫(kù)中實(shí)施,因?yàn)樗枰M(jìn)行大量修改,并且會(huì)顯著增加成本 [3, 4]。2D 激光測(cè)距儀或 3D 深度相機(jī)是另一種定位托盤(pán)的方法。然而,從 2D 深度信息中捕獲足夠的特征信息很有挑戰(zhàn)性 [5-8]。相應(yīng)的,3D 點(diǎn)云數(shù)據(jù)的平面分割可以通過(guò)模板匹配方法 [9] 提供更精確的結(jié)果。遺憾的是,該方法受檢測(cè)速度的限制,識(shí)別精度受托盤(pán)類(lèi)型和點(diǎn)云數(shù)據(jù)質(zhì)量的嚴(yán)重影響,可能會(huì)對(duì)深度圖像硬件和計(jì)算單元提出嚴(yán)格的要求。眾所周知,所有現(xiàn)有的托盤(pán)識(shí)別和定位方法中,使用 RGB 圖像或點(diǎn)云等單一數(shù)據(jù)源,要么導(dǎo)致錯(cuò)誤定位的概率很高,要么消耗大量計(jì)算能力并大幅提高成本 ,在本文最后一部分我們介紹了第三種方法,它基于 2D 圖像對(duì)象檢測(cè)和 3D 點(diǎn)云處理,可以提供精確的位置數(shù)據(jù)。這種綜合解決方案,我們稱(chēng)之為托盤(pán)識(shí)別和定位算法(PILA),使用低成本的硬件,只需要很少的計(jì)算資源。在該方案中,使用深度神經(jīng)網(wǎng)絡(luò) (DNN) [10, 11] 方法檢測(cè) RGB 圖像中的托盤(pán),并將點(diǎn)云數(shù)據(jù)與 RGB 圖像的感興趣區(qū)域 (RoI) 對(duì)齊。然后通過(guò)從點(diǎn)云數(shù)據(jù)中提取的幾何特征提取托盤(pán)的位置和角度。綜上所述,DNN 方法旨在以高速率識(shí)別托盤(pán),并利用點(diǎn)云數(shù)據(jù)以更少的計(jì)算時(shí)間或資源提供精確的定位結(jié)果。結(jié)果表明,3D定位精度在1cm左右,姿態(tài)估計(jì)誤差在0.4度以下,在托盤(pán)識(shí)別方面表現(xiàn)出色。
本文第 2 部分介紹了托盤(pán)的視覺(jué)檢測(cè)技術(shù)和一些神經(jīng)網(wǎng)絡(luò)模型,如 RCNN、Fast-RCNN、SSD 和 YOLO。 第三部分介紹了點(diǎn)云方法,并通過(guò)一些示例進(jìn)行了解釋。第 4 部分介紹了 綜合解決方法——PILA 模型,實(shí)驗(yàn)結(jié)果表明 PILA 在某些方面優(yōu)于其他兩種方法(圖 1)。
圖 1:倉(cāng)庫(kù)中使用的普通托盤(pán)的前視圖
基于視覺(jué)的托盤(pán)檢測(cè)
作為計(jì)算機(jī)視覺(jué)中的熱門(mén)話題,目標(biāo)檢測(cè)已經(jīng)被公認(rèn)為近十年來(lái)最熱門(mén)的話題之一,并且已經(jīng)進(jìn)行了大量密集的研究。傳統(tǒng)的基于模型的目標(biāo)檢測(cè)技術(shù)需要手動(dòng)設(shè)計(jì)策略來(lái)分割托盤(pán)的幾何形狀并識(shí)別每個(gè)塊。這個(gè)過(guò)程需要大量的人力,比如挑選特征描述符,如 Haar 特征和 Ad boost 算法來(lái)級(jí)聯(lián)多個(gè)分類(lèi)器 [12]。然而,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)器的分層特征生成是一個(gè)自動(dòng)過(guò)程,與其他方法相比,在識(shí)別和分類(lèi)方面顯示出巨大的潛力。通常有兩種主要的目標(biāo)檢測(cè)框架。一種是單階段檢測(cè)模型SSD和YOLO。另一種是兩階段檢測(cè)模型RPN,R-CNN 和 Faster R-CNN [13]。單階段檢測(cè)模型包含一個(gè)前饋全卷積網(wǎng)絡(luò),該網(wǎng)絡(luò)直接為對(duì)象分類(lèi)提供處理區(qū)域。對(duì)于Two-stage的目標(biāo)檢測(cè)網(wǎng)絡(luò),主要通過(guò)一個(gè)卷積神經(jīng)網(wǎng)絡(luò)來(lái)完成目標(biāo)檢測(cè)過(guò)程,其提取的是CNN卷積特征,在訓(xùn)練網(wǎng)絡(luò)時(shí),其主要訓(xùn)練兩個(gè)部分,第一步是訓(xùn)練RPN網(wǎng)絡(luò),第二步是訓(xùn)練目標(biāo)區(qū)域檢測(cè)的網(wǎng)絡(luò)。網(wǎng)絡(luò)的準(zhǔn)確度高、速度相對(duì)One-stage慢[14]。
托盤(pán)識(shí)別中的神經(jīng)網(wǎng)絡(luò)架構(gòu)
作為典型的單階段檢測(cè)模型,YOLO 將整個(gè)目標(biāo)檢測(cè)問(wèn)題視為回歸問(wèn)題。輸入圖像被劃分為一組網(wǎng)格單元。每個(gè)網(wǎng)格單元預(yù)測(cè)一個(gè)固定數(shù)量的邊界框,其置信度得分是通過(guò)將目標(biāo)檢測(cè)概率乘以并集上的交集(IoU)來(lái)計(jì)算的,其中 IoU 是預(yù)測(cè)的邊界框面積與 ground truth 的重疊率 邊界框,邊界框的類(lèi)別概率最終來(lái)自IoU分?jǐn)?shù)。如式(1)所示,如果IoU分?jǐn)?shù)大于0.5,則匹配值m為1,表示正匹配。相反,零匹配或負(fù)匹配表示對(duì)象是否被檢測(cè)到。
與 YOLO 不同的是,SSD 接收整個(gè)圖像作為輸入并將其傳遞給多個(gè)卷積層,并利用卷積特征圖來(lái)預(yù)測(cè)邊界框。該模型生成用于預(yù)測(cè)邊界框的對(duì)象類(lèi)概率向量。本案例中使用的架構(gòu)如圖 3 所示,這是一個(gè)在 Image Net 上預(yù)訓(xùn)練的 VGG-16 模型,用于圖像分類(lèi)。前饋卷積網(wǎng)絡(luò)用于生成一組固定大小的邊界框,并為這些框中存在的對(duì)象類(lèi)實(shí)例給出分?jǐn)?shù)。SSD 模型不是預(yù)測(cè)潛在對(duì)象的得分值,而是直接給出一個(gè)類(lèi)出現(xiàn)在邊界框中的可能性。
Faster R-CNN 是兩階段架構(gòu),它通過(guò)結(jié)合分類(lèi)和邊界框回歸并利用多任務(wù)學(xué)習(xí)過(guò)程來(lái)解決檢測(cè)問(wèn)題。該系統(tǒng)通常包括兩個(gè)階段,即用RPN進(jìn)行感興趣區(qū)域的獲取,和 Fast R-CNN,該網(wǎng)絡(luò)采用卷積作為主干網(wǎng)絡(luò)并從輸入圖片中提取高級(jí)特征。Faster R-CNN 替代了 RPN 原始算法中的 Selective Search 方法 [15]。在第一階段,為了生成候選框,RPN 在主干網(wǎng)絡(luò)生成的特征圖上使用了一個(gè)滑動(dòng)窗口。在特征圖上使用多尺度錨框來(lái)預(yù)測(cè)多個(gè)候選框。錨框定義為各種比例和縱橫比,以識(shí)別任意對(duì)象。判斷功能決定錨框是前景還是背景,然后使用邊界回歸對(duì)其進(jìn)行修改以獲得精確的候選框。接下來(lái)使用從特征提取器的中間層派生的 RoI 池化層來(lái)裁剪排名靠前的候選對(duì)象,這可以解決輸入到具有完全連接層的網(wǎng)絡(luò)的不同大小的特征圖的問(wèn)題。在第二階段,每個(gè)候選框都經(jīng)過(guò)最終分類(lèi)和框細(xì)化過(guò)程 [16, 17]。
大量結(jié)果表明,與 YOLO 相比,F(xiàn)aster R-CNN 和 SSD 的性能可以提供更好的檢測(cè)精度。但是,YOLO 比 SSD 和 Faster R-CNN 檢測(cè)速度更快。
圖 3:SSD模型架構(gòu)圖
三種托盤(pán)的識(shí)別率如表2所示,平均識(shí)別率在98%以上,對(duì)于倉(cāng)庫(kù)作業(yè)來(lái)說(shuō)相當(dāng)耐用。帶有標(biāo)記的托盤(pán) RoI 的托盤(pán)檢測(cè)結(jié)果如圖 4 所示。無(wú)論卡盒是否存在,都可以很好地識(shí)別場(chǎng)景中是否存在多個(gè)托盤(pán)或托盤(pán)的傾斜。
表2:SSD模型托盤(pán)檢測(cè)結(jié)果
圖4: 托盤(pán)圖像 (a) 檢測(cè)場(chǎng)景中有多個(gè)托盤(pán) (b) 傾斜的木質(zhì)托盤(pán) (c) 傾斜的塑料托盤(pán)
基于點(diǎn)云的托盤(pán)形狀檢測(cè)
通常,2D LRF 主要用于移動(dòng)機(jī)器人 SLAM。隨著在無(wú)人機(jī)器人導(dǎo)航中的廣泛應(yīng)用,有一些基于LRF設(shè)備的托盤(pán)檢測(cè)和定位方法。與基于視覺(jué)的解決方案相比,這種方法不會(huì)受到可能導(dǎo)致錯(cuò)誤檢測(cè)或特征錯(cuò)誤檢測(cè)的成像失真、照明條件或縮放問(wèn)題的影響。在早期的工作中,激光掃描數(shù)據(jù)被用于場(chǎng)景分割、物體檢測(cè)和物體識(shí)別。該方法基于 3D 點(diǎn)云數(shù)據(jù),用于 3D 對(duì)象檢測(cè)和分類(lèi) [18]。但是,3D方案對(duì)硬件和算法的條件要求更嚴(yán)格,成本會(huì)大大增加。
為了利用成熟的目標(biāo)檢測(cè)技術(shù)并獲得快速處理,將 2D 激光掃描儀數(shù)據(jù)轉(zhuǎn)換為2D圖像,可以采用 DNN 技術(shù) [19, 20]。圖 5 中描述了基于 2D 激光掃描儀數(shù)據(jù) [21] 的托盤(pán)檢測(cè)流程。它由數(shù)據(jù)準(zhǔn)備、訓(xùn)練和測(cè)試以及托盤(pán)跟蹤三個(gè)階段組成。數(shù)據(jù)準(zhǔn)備階段用于將 2D 激光掃描儀數(shù)據(jù)轉(zhuǎn)換為 2D 圖像。然后,訓(xùn)練和測(cè)試階段將 2D 圖像作為輸入。一旦模型經(jīng)過(guò)微調(diào)和驗(yàn)證,就會(huì)執(zhí)行跟蹤階段以檢測(cè)并持續(xù)跟蹤場(chǎng)景中所有可能的托盤(pán)。用于獲取距離數(shù)據(jù)的 2D 激光掃描儀如圖 6 (a)所示,使用距離數(shù)據(jù)進(jìn)行托盤(pán)跟蹤的 RoI 如圖 6 (b)所示。激光掃描儀數(shù)據(jù)在采集后轉(zhuǎn)換為位圖,并由訓(xùn)練好的模型檢測(cè)。如果大于某個(gè)閾值,則將其識(shí)別為托盤(pán)。
圖5: 激光掃描數(shù)據(jù)的托盤(pán)檢測(cè)流程
圖6: (a) 工業(yè)2D激光線掃相機(jī)S3000 (b)2D激光數(shù)據(jù)組成的托盤(pán)形狀
算法 1 描述了整個(gè)檢測(cè)流程。讀取激光掃描儀數(shù)據(jù),然后將 X 和 Y 距離數(shù)據(jù)轉(zhuǎn)換為 2D 圖像進(jìn)行圖像處理。采集和訓(xùn)練 2D 圖像數(shù)據(jù)集以識(shí)別 激光掃描儀數(shù)據(jù)中可能的存在的托盤(pán)。
PILA描述
本部分介紹了 PILA 綜合解決方案的兩階段架構(gòu)。圖 7 相應(yīng)地顯示了 PILA 架構(gòu)的流程圖。深度神經(jīng)網(wǎng)絡(luò)用于從場(chǎng)景的 RGB 圖像中識(shí)別可能存在的托盤(pán)。該模型是通過(guò)離線訓(xùn)練生成的,遷移的模型用于相機(jī)的在線檢測(cè)。該算法分為3個(gè)功能階段。在第一階段,檢測(cè)托盤(pán)并給出檢測(cè)的置信度分?jǐn)?shù)。在第二階段,RGB-Depth 圖像用于將 RGB 圖像中的托盤(pán)與深度圖像對(duì)齊。第三階段,利用點(diǎn)云數(shù)據(jù)提取托盤(pán)正面平面,提取線段定位托盤(pán)中心的“T形”。特別是,根據(jù)托盤(pán)形狀檢測(cè)托盤(pán)邊緣的水平(x)和垂直(y)線段,這可能因不同的托盤(pán)類(lèi)型而異,此處使用的決策規(guī)則旨在找到托盤(pán)中心的“T形截面” ,可以作為更通用的解決方案。最后,可以得到托盤(pán)正面的中心位置x、y和z值和方位角。
圖 7: 托盤(pán)定位流程圖, 由DNN訓(xùn)練模型,在線檢測(cè)模型,多傳感器融合模塊、點(diǎn)云處理模塊組成
點(diǎn)云處理
這部分,點(diǎn)云數(shù)據(jù)被處理以實(shí)現(xiàn)更精確的托盤(pán)定位 [22],如算法 2 中所述。點(diǎn)云數(shù)據(jù)在經(jīng)過(guò)濾波、分割和提取等一系列操作后變得更精簡(jiǎn)。通過(guò)這種算法設(shè)計(jì),可以高效地提高計(jì)算速度和定位精度。
點(diǎn)云濾波后,從平滑的點(diǎn)云數(shù)據(jù)中提取水平 (x) 和垂直 (y) 線分段,以定位托盤(pán)凹槽部分。首先,點(diǎn)云數(shù)據(jù)經(jīng)過(guò)直通濾波,以確保 Z 值(距離)為0.5 m 和 3 m 之間的所有點(diǎn)。此步驟的目的是避免叉車(chē)臂、行人或地面反射激光束造成高度遮擋的情況。然后去除外點(diǎn)并對(duì)表面數(shù)據(jù)去平均。最后,采用降采樣來(lái)降低計(jì)算成本。由于叉車(chē)機(jī)器人總是搬運(yùn)地面或貨架上的托盤(pán),因此需要提取垂直平面作為托盤(pán)的正面。提取垂直面的流程如圖8所示。點(diǎn)云分割后,從投影過(guò)濾后的 Z 方向的內(nèi)點(diǎn)中提取一個(gè)或幾個(gè) 2D 平面,根據(jù)質(zhì)心的得分可以找到最可能的平面。點(diǎn)云數(shù)據(jù)的質(zhì)心計(jì)算是確定最可能的托盤(pán)平面的關(guān)鍵方法。在此步驟之前,對(duì) 2D 點(diǎn)云進(jìn)行下采樣以加快計(jì)算過(guò)程。
最后,發(fā)現(xiàn)凹槽處的x和y線形成“T形”并定位托盤(pán)中心。作為該方法的決定性部分,我們提出了一種基于托盤(pán)一般幾何關(guān)系的通用決策規(guī)則。“T形”是根據(jù)托盤(pán)頂部的底線(x線)和中柱外邊界(y線)的組合找到的。找線提取和托盤(pán)定位的流程如圖 9 所示。提取x和y方向的水平邊界點(diǎn)和垂直邊界點(diǎn)。然后通過(guò) KdTree 搜索方法提取 x 和 y 線,并且 x 線和 y 線段中的點(diǎn)數(shù)必須分別大于閾值。在對(duì)所有的x和y線進(jìn)行排序后,發(fā)現(xiàn)最接近粗略中心點(diǎn)的x線和y線形成圖10(d)中的“T形”。無(wú)論托盤(pán)幾何形狀如何,這種方法都帶有一定的魯棒性。最后確定A、B(相交點(diǎn))和C點(diǎn),如圖圖10(d),圖10是PILA的四個(gè)主要步驟的圖形表示。(a)和(b)是RGB圖像和點(diǎn)云數(shù)據(jù),(c)和(d)是通過(guò)托盤(pán)識(shí)別和點(diǎn)云處理生成的,用于定位托盤(pán)中心。
圖 8:垂直面提取流程。點(diǎn)云分割后,投影點(diǎn)云濾波后的內(nèi)點(diǎn)并生成二維點(diǎn)云。最后,對(duì) 2D 點(diǎn)云進(jìn)行下采樣,然后生成垂直平面。
Figure 9: 找線提取和托盤(pán)定位的流程
圖 9:線路提取和托盤(pán)定位的管道。首先提取x和y方向的水平邊界點(diǎn)和垂直邊界點(diǎn)。通過(guò) KdTree 搜索方法執(zhí)行 x 和 y 行,并選擇最靠近中心的 x 行中的 1 行和 y 行中的 2 行。
圖 10:PILA 四個(gè)主要步驟的圖像表示。(a) 托盤(pán)的 RGB 圖像,(b) 從深度圖像轉(zhuǎn)換的原始點(diǎn)云數(shù)據(jù),(c) 根據(jù)托盤(pán)識(shí)別過(guò)濾的點(diǎn)云數(shù)據(jù),(d) 托盤(pán)位置的最終點(diǎn)云數(shù)據(jù)。
實(shí)驗(yàn)結(jié)果表明,PILA 能夠識(shí)別和定位 3D場(chǎng)景下的 托盤(pán),平均絕對(duì)誤差如表 3 中的 1 cm 或 0.65 度以內(nèi)。識(shí)別平均耗時(shí)為 700 ms, 從而滿足叉車(chē)機(jī)器人運(yùn)行的“實(shí)時(shí)性”要求。實(shí)驗(yàn)上,PILA 的準(zhǔn)確性和速度比使用專(zhuān)有數(shù)據(jù)源作為 RGB 圖像或托盤(pán)定位的深度數(shù)據(jù)的那些更高和更快[23-25]。表 3 顯示了 PILA 與工業(yè)機(jī)器人市場(chǎng)中主要商業(yè)解決方案的比較,PILA 在速度、精度和工作距離方面表現(xiàn)出色。
表3:不同解決方案間的對(duì)比
總結(jié)和討論
本文綜述了托盤(pán)識(shí)別技術(shù),包括基于視覺(jué)的托盤(pán)檢測(cè)、點(diǎn)云方法以及基于目標(biāo)識(shí)別和點(diǎn)云相關(guān)技術(shù)相結(jié)合的托盤(pán)識(shí)別和定位算法(PILA)。對(duì)于視覺(jué)方法,我們簡(jiǎn)要回顧了基于 DNN 方法的RGB 圖像識(shí)別。YOLO、SDD和Faster RCNN作為典型例子進(jìn)行了詳細(xì)描述。然后引入 RGB 和深度圖像相結(jié)合的技術(shù),構(gòu)建 3D 托盤(pán)顏色模型,以獲得更準(zhǔn)確的定位性能。PILA 已針對(duì)實(shí)用的托盤(pán)揀選設(shè)備和自動(dòng)叉車(chē)應(yīng)用進(jìn)行了實(shí)施和驗(yàn)證,并在精度、速度和工作距離方面表現(xiàn)出出色的效率。結(jié)果表明,托盤(pán)正確識(shí)別率高達(dá)90%,托盤(pán)中心定位誤差和定位角度誤差小于1厘米或0.4度。此外,與大多數(shù)基于計(jì)算機(jī)視覺(jué)或深度圖像的解決方案相比,PILA在實(shí)際物流倉(cāng)庫(kù)中的叉車(chē)機(jī)器人應(yīng)用中已被證明是可行的。
備注:作者也是我們「3D視覺(jué)從入門(mén)到精通」特邀嘉賓:一個(gè)超干貨的3D視覺(jué)學(xué)習(xí)社區(qū)
本文僅做學(xué)術(shù)分享,如有侵權(quán),請(qǐng)聯(lián)系刪文。
1.面向自動(dòng)駕駛領(lǐng)域的多傳感器數(shù)據(jù)融合技術(shù)
2.面向自動(dòng)駕駛領(lǐng)域的3D點(diǎn)云目標(biāo)檢測(cè)全棧學(xué)習(xí)路線!(單模態(tài)+多模態(tài)/數(shù)據(jù)+代碼)
3.徹底搞透視覺(jué)三維重建:原理剖析、代碼講解、及優(yōu)化改進(jìn)
4.國(guó)內(nèi)首個(gè)面向工業(yè)級(jí)實(shí)戰(zhàn)的點(diǎn)云處理課程
5.激光-視覺(jué)-IMU-GPS融合SLAM算法梳理和代碼講解
6.徹底搞懂視覺(jué)-慣性SLAM:基于VINS-Fusion正式開(kāi)課啦
7.徹底搞懂基于LOAM框架的3D激光SLAM: 源碼剖析到算法優(yōu)化
8.徹底剖析室內(nèi)、室外激光SLAM關(guān)鍵算法原理、代碼和實(shí)戰(zhàn)(cartographer+LOAM +LIO-SAM)
9.從零搭建一套結(jié)構(gòu)光3D重建系統(tǒng)[理論+源碼+實(shí)踐]
10.單目深度估計(jì)方法:算法梳理與代碼實(shí)現(xiàn)
11.自動(dòng)駕駛中的深度學(xué)習(xí)模型部署實(shí)戰(zhàn)
12.相機(jī)模型與標(biāo)定(單目+雙目+魚(yú)眼)
13.重磅!四旋翼飛行器:算法與實(shí)戰(zhàn)
14.ROS2從入門(mén)到精通:理論與實(shí)戰(zhàn)
15.國(guó)內(nèi)首個(gè)3D缺陷檢測(cè)教程:理論、源碼與實(shí)戰(zhàn)
更多干貨
歡迎加入【3D視覺(jué)工坊】交流群,方向涉及3D視覺(jué)、計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí)、vSLAM、激光SLAM、立體視覺(jué)、自動(dòng)駕駛、點(diǎn)云處理、三維重建、多視圖幾何、結(jié)構(gòu)光、多傳感器融合、VR/AR、學(xué)術(shù)交流、求職交流等。工坊致力于干貨輸出,為3D領(lǐng)域貢獻(xiàn)自己的力量!歡迎大家一起交流成長(zhǎng)~
添加小助手微信:dddvision,備注學(xué)校/公司+姓名+研究方向即可加入工坊一起學(xué)習(xí)進(jìn)步。
責(zé)任編輯: