「自駕車智慧之眼」深耕八年有成 嵌入式AI物件辨識系統技術領先國際

2019-06-12
  • A
  • A+
  • A++

「自駕車智慧之眼」深耕八年有成 嵌入式AI物件辨識系統技術領先國際

(照片左起為科技部工程司徐碩鴻司長、科技部許有進次長、交通大學郭峻因教授。圖由 科技部 提供)

 

AI人工智慧與自駕車是目前全世界兩大熱門研究領域,自駕車更是AI人工智慧技術的重要應用領域,預估2025年全球自駕車相關產值上看420億美金。在科技部的經費補助之下,國立交通大學電子研究所郭峻因教授團隊結合AI人工智慧與自駕車等兩大熱門研究領域,研發「自駕車智慧之眼-嵌入式AI物件辨識系統」技術深耕八年有成,研究成果超越國際研究水準,自105年來已獲得國內28家廠商青睞,進行59件產學合作、技術移轉與技術諮詢,產學效益豐碩。


自動標記工具(ezLabel)獲AUDI Innovation Award兩項大獎

AI人工智慧聰慧如人,可以替人類分析與辨識影像內的各式物件,這些智慧歸功於由人類為AI標記好的影像教材資料、複雜的軟體演算法及強大的硬體計算能力。郭教授團隊目標藉由分析影像實現自駕車/進階駕駛輔助系統(ADAS),成功開發嵌入式電腦視覺深度學習技術,透過快速自動化標記工具,產生大量供AI人工智慧學習的資料庫,搭配團隊開發的即時軟體演算法,降低了AI電腦視覺所需之運算平台成本,無需昂貴的GPU運算平台。郭教授表示,計畫團隊開發出全世界第一套快速視訊資料自動化標記工具(ezLabel 2.0),用來標記並準備供AI學習的資料,其標記效率超過目前現有手動資料標記工具達10-15倍以上,並獲得於AUDI汽車所主辦之第一屆臺灣AUDI Innovation Award兩項大獎,已獲得國內多家廠商進行試用,迴響相當不錯。此外,郭教授團隊已經建置超過1,500萬筆適合臺灣地區之自駕車影像資料庫,這些資料有助於開發適合臺灣地區之AI自駕車物件辨識技術。


 

嵌入式深度學習模型可偵測200公尺外車輛,超越現有技術4倍

在高精度嵌入式AI深度學習演算法開發上,郭教授團隊開發出最遠可偵測超過200公尺外車輛的嵌入式深度學習演算法,超越現階段文獻標竿演算法(YOLO v2) 4倍,且在運算複雜度相當下,準確度高於YOLO v2約10% mAP(平均準確度),可於 nVidia自駕車平台 (DRIVE-PX2)上即時運算,適用於各式天候,非常適合自駕車/ADAS應用。另外,郭教授團隊也開發出低功耗適合嵌入式SOC應用之AI深度學習物件辨識演算法(NCTU SSD lite),在相同準確度下其模型大小僅為YOLO v2的7%,運算複雜度僅為 YOLO v2模型的 27%,可於 TI TDA2X 與國內廠商所研發的車規AI 晶片(iCatch V37)上達到即時物件偵測運算效能。另外,郭教授團隊結合物件偵測與物件分割之深度學習技術,針對自駕車應用開發出多重功能ADAS系統,可同時支援各式ADAS功能,包含LDWS/FCWS/RCWS/ACC/AEB/BSD等,並可於嵌入式系統上實現。

 

首創深度學習行為預測技術(以預測後方車輛3秒內是否超車)

郭教授團隊將深度學習技術延伸應用於物件行為預測甚至駕駛控制,開發出全球首見可預測後方車輛(汽車或機車)是否超車之深度學習行為預測技術,於行車時可準確預測後方車輛於未來3秒鐘是否超車,可作為車輛駕駛人第三隻眼睛,守護行車安全。


郭教授團隊所產出之嵌入式AI自駕車快速資料標記工具、自駕車圖資、物件偵測與行為預測深度學習技術之產業應用潛力相當大,目前合作廠商已達28家,未來潛在的合作廠商包含AI晶片公司、車電系統公司與自駕車圖資公司等。

 

 

公告時間:2019/06/12
新聞來源:https://www.most.gov.tw/folksonomy/detail?subSite=main&article_uid=f6885cd9-67d9-40a8-9807-13675b52f9e4&menu_id=9aa56881-8df0-4eb6-a5a7-32a2f72826ff&l=CH&utm_source=rss

 

 

資訊來源:科技部

  • 本文評論:
分享: