全球首創 交大發明第三隻眼 能偵測後方是否超車

767

編輯張睿杰/綜合報導

交大教授郭峻因結合AI人工智慧與自駕車開發出「嵌入式AI物件辨識系統」,包括高效率的自動化標記,可偵測200公尺外車輛,還能預測後方車輛3秒內是否超車,成為駕駛人的第3隻眼睛,守護行車安全。這項新發明已獲28家廠商搶著合作。

AI時代來臨,自駕車更是AI人工智慧技術的重要應用領域,預估2025年全球自駕車相關產值上看420億美元。科技部上午舉行「自駕車智慧之眼深耕8年有成,嵌入式AI物件辨識系統技術領先國際」研究成果發表記者會。

交通大學電子研究所教授郭峻因(右4)表示嵌入式AI系統只要有照相攝影的地方,都可以導入。圖左4為科技部次長許有進。圖/中央社

根據中央社報導,交通大學電子研究所教授郭峻因表示,團隊藉由分析影像實現自駕車進階駕駛輔助系統(ADAS),成功開發嵌入式電腦視覺深度學習技術,透過快速自動化標記工具,產生大量AI人工智慧學習的資料庫,搭配團隊開發的即時軟體演算法,降低了AI電腦視覺所需的運算平台成本,且無需昂貴的GPU(繪圖處理器)運算平台。

他說,AI可以替人類分析與辨識影像內的各式物件,但必須先有「工人智慧」,要有人去一一標記各種物件,建構足夠的資料庫。

而郭峻因團隊開發出全世界第一套快速視訊資料自動化標記工具(ezLabel 2.0),用來標記並提供AI學習的資料,標記效率超過目前現有手動資料標記工具達10~15倍以上,並獲得於AUDI奧迪汽車所主辦的第一屆台灣AUDI Innovation Award兩項大獎,國內已有多家廠商進行試用。

郭峻因表示,團隊已經建置超過1500萬筆適合台灣地區的自駕車影像資料庫,有助於開發適合台灣地區的AI自駕車物件辨識技術,今年預計要達到3000萬筆資料。而台灣擁有國外相當缺乏的機車資料庫,他認為台灣要發展自駕車產業,掌握圖資是關鍵。

國立交通大學教授郭峻因(圖),結合AI人工智慧與自駕車開發出「嵌入式AI物件辨識系統」。圖/中央社

郭峻因團隊開發出最遠可偵測超過200公尺外車輛的嵌入式深度學習演算法,超越現階段文獻標竿演算法(YOLO v2)的4倍,且準確度更高,適用於各種天候,非常適合自駕車應用。

此外,團隊還首創深度學習行為預測技術,開發全球首見可預測後方車輛(汽車或機車)3秒內是否超車,作為車輛駕駛人第3隻眼睛,守護行車安全。

郭峻因表示,團隊所產出的嵌入式AI自駕車快速資料標記工具、自駕車圖資、物件偵測與行為預測深度學習技術的產業應用潛力龐大,目前合作廠商已達28家,未來潛在的合作廠商包含AI晶片公司、車電系統公司與自駕車圖資公司等。

他說,嵌入式AI系統除了應用在自駕車,對於未來智慧城市、交通的應用非常廣,只要有照相攝影的地方,都可以導入,像大家常用的掃地機器人也有裝鏡頭來辨識前方物體,他笑稱,「擁抱嵌入式AI,才會發大財。」

 

您可能還想看

老人開車頻肇事 日:擬推銀髮駕照 限定車種

 

影音/非洲孩童首次見空拍機 驚呼逃跑

分享: