國立交通大學電子研究所郭峻因教授團隊結合AI人工智慧與自駕車等兩大熱門研究領域,研發「自駕車智慧之眼-嵌入式AI物件辨識系統」技術深耕8年有成,研究成果超越國際研究水準,自2016年來已獲得國內28家廠商青睞,進行59件產學合作、技術移轉與技術諮詢。交通大學郭峻因教授(右1)(圖/行政院科技部)
AI人工智慧與自駕車是目前全世界兩大熱門科技研究領域,自駕車更是AI人工智慧技術的重要應用領域,預估2025年全球自駕車相關產值上看420億美金。在行政院科技部的經費補助之下,國立交通大學電子研究所郭峻因教授團隊結合AI人工智慧與自駕車等兩大熱門研究領域,研發「自駕車智慧之眼-嵌入式AI物件辨識系統」技術深耕8年有成,研究成果超越國際研究水準,自2016年來已獲得國內28家廠商青睞,進行59件產學合作、技術移轉與技術諮詢,產學效益豐碩。
自動標記工具(ezLabel)獲AUDI Innovation Award兩項大獎
AI人工智慧可以替人類分析與辨識影像內的各式物件,這些智慧歸功於由人類為AI標記好的影像教材資料、複雜的軟體演算法及強大的硬體計算能力。郭峻因團隊目標藉由分析影像實現自駕車/進階駕駛輔助系統(ADAS),成功開發嵌入式電腦視覺深度學習技術,透過快速自動化標記工具,產生大量供AI人工智慧學習的資料庫,搭配團隊開發的即時軟體演算法,降低了AI電腦視覺所需之運算平台成本,無需昂貴的GPU運算平台。
郭峻因表示,計畫團隊開發出全世界第一套快速視訊資料自動化標記工具 (ezLabel 2.0),用來標記並準備供AI學習的資料,其標記效率超過目前現有手動資料標記工具達10~15倍以上,並獲得於AUDI汽車所主辦之第一屆台灣AUDI Innovation Award兩項大獎,已獲得國內多家廠商進行試用,迴響相當不錯。此外,郭峻因團隊已經建置超過1500萬筆適合台灣地區之自駕車影像資料庫,這些資料有助於開發適合臺灣地區之AI自駕車物件辨識技術。
嵌入式深度學習模型可偵測200公尺外車輛,超越現有技術4倍
在高精度嵌入式AI深度學習演算法開發上,郭峻因團隊開發出最遠可偵測超過200公尺外車輛的嵌入式深度學習演算法,超越現階段文獻標竿演算法(YOLO v2) 4倍,且在運算複雜度相當下,準確度高於YOLO v2約10% mAP(平均準確度),可於 nVidia自駕車平台 (DRIVE-PX2)上即時運算,適用於各式天候,非常適合自駕車/ADAS應用。
另外,郭峻因團隊也開發出低功耗適合嵌入式SOC應用之AI深度學習物件辨識演算法(NCTU SSD lite),在相同準確度下其模型大小僅為YOLO v2的7%,運算複雜度僅為 YOLO v2模型的 27%,可於 TI TDA2X 與國內廠商所研發的車規AI 晶片(iCatch V37)上達到即時物件偵測運算效能。
此外,郭峻因團隊結合物件偵測與物件分割之深度學習技術,針對自駕車應用開發出多重功能ADAS系統,可同時支援各式ADAS功能,包含LDWS/FCWS/RCWS/ACC/AEB/BSD等,並可於嵌入式系統上實現。
首創深度學習行為預測技術 (以預測後方車輛3秒內是否超車)
郭峻因團隊將深度學習技術延伸應用於物件行為預測甚至駕駛控制,開發出全球首見可預測後方車輛(汽車或機車)是否超車之深度學習行為預測技術,於行車時可準確預測後方車輛於未來3秒鐘是否超車,可作為車輛駕駛人第三隻眼睛,守護行車安全。
郭峻因團隊所產出之嵌入式AI自駕車快速資料標記工具、自駕車圖資、物件偵測與行為預測深度學習技術之產業應用潛力相當大,目前合作廠商已達28家,未來潛在的合作廠商包含AI晶片公司、車電系統公司與自駕車圖資公司等。