深度學習的3D物件偵測、辨識、分割、與定位應用技術發展(II)

  • Tseng, Din-Chang (PI)

專案詳細資料

Description

本計畫在去年曾申請三年期計畫,但僅獲得一年補助,今年修改研究內容繼續申請未執行的二年計畫內容。本研究以改進現有技術應用於特定領域,提高效能至 99%, 99.5%, 99.9%, 甚至於 99.99% 的偵測率或辨識率為主;不是發展新技術,測試於一般資料庫;例如,PASCAL VOC, ImageNet, MS COCO,追求 70%, 80% 比別人多 1%, 3% 的新技術。改進現有技術應用於特定領域,追求至高程度的效能一定需要卷積神經網路的學理基礎,我個人在將屆退休之際還研讀百餘篇相關論文,整理50多個有名卷積神經網路模式,督導中等程度的學生修改網路架構、模組、函數、演算法、及搭配影像處理技術應用到特定領域達到 99.5% 的偵測辨識效能,已很難有時間再撰寫 top journal/top conference 論文。本研究為二年期計畫,擬以深度學習技術提升部份傳統3D物件偵測、辨識、分割、與定位應用的效果。在這個計畫中,每一年都有二個卷積神經網路的技術發展項目及二個3D物件的應用項目。過去一年的理論改進有:1.改進偵測與辨識網路的大小物件適用性,2.分析多種不同2D及3D影像融合方式的效能;實務應用有:1.執行比較2D影像之物件偵測與辨識,2.執行3D影像之物件偵測與辨識。新計畫第一年的理論改進有:1.發展可估計3D物件9 DoF參數的3D CNN,2.以生成對抗網路修正3D相機的距離誤差;實務應用有:1.執行3D物件的9 DoF定位,2.執行機器手臂的3D小物件取放 (bin-picking)。第二年的理論改進有:1.改進3D CNN的準確度與速度,2.增加3D CNN的分割功能;實務應用有:1.執行3D物件的偵測、辨識、與分割,2.執行自動導引車的3D物件方位估計與分割。本研究是建立在我們過去的研究基礎及實務成果上,針對特定議題,發展深度卷積神經網路技術解決過去不易顯著突破的偵測、辨識、分割、與3D定位問題。計畫主持人已有三十多年電腦視覺的研究經歷,且已有數年深度學習在電腦視覺技術應用上的經驗;更在最近二年間協助三家上市櫃公司及工研院機械所各別發展深度學習在電腦視覺的應用研究,因此我們有信心及能力完成本計畫的執行。
狀態已完成
有效的開始/結束日期1/08/2031/07/21

聯合國永續發展目標

聯合國會員國於 2015 年同意 17 項全球永續發展目標 (SDG),以終結貧困、保護地球並確保全體的興盛繁榮。此專案有助於以下永續發展目標:

  • SDG 8 - 體面的工作和經濟增長
  • SDG 9 - 產業、創新與基礎設施
  • SDG 17 - 為永續目標構建夥伴關係

Keywords

  • 深度學習
  • 卷積神經網路
  • 電腦視覺
  • 3D物件偵測
  • 3D物件辨識
  • 3D物件分割
  • 3D物件定位

指紋

探索此專案觸及的研究主題。這些標籤是根據基礎獎勵/補助款而產生。共同形成了獨特的指紋。