【媒體報導】「打破AI黑盒子-可解釋性的人臉辨識模組」徐宏民教授團隊記者會

打破AI黑盒子-可解釋性的人臉辨識模組

科技部今(11)日召開記者會,邀請本中心轄下的徐宏民教授團隊,發表該團隊在科技部的支持下所開發出的可解釋性人工智慧(Explainable AI ,XAI)模組xCos,該模組除了具備高辨識率的人臉辨識能力外,還可有條理的解釋AI產出結果的原因。這項技術不僅可協助國內外相關業者開發AI辨識技術、明白AI決策建議背後的理由,更能提升人類對於使用AI的信任度。

徐宏民教授團隊在科技部的長期支持下,自2011年便開發出第一套行動裝置上的人臉搜尋系統,之後不斷自我挑戰包括跨年紀的臉部辨識能力、偽裝人臉辨識等,前於2018年在全球三大電腦視覺頂尖會議之一的CVPR偽裝人臉辨識競賽(Disguised Faces in the Wild)中,以辨識率唯一超過9成之姿,技壓群雄奪下全球冠軍。

上圖大合照由左至右:
人工智慧技術暨全幅健康照護聯合研究中心(臺大AI中心)杜維洲執行長
科技部前瞻及應用科技司楊琇雅司長
科技部陳良基部長
國立臺灣大學資訊工程學系徐宏民教授(同為臺大AI中心轄下之研究團隊)
人工智慧技術暨全幅健康照護聯合研究中心(臺大AI中心)陳信希主任

上圖:陳良基部長現場體驗

 

👉相關連結:
https://www.most.gov.tw/folksonomy/detail/906337b9-1d19-4e06-ad71-322b12531971

 

👉相關報導與影片連結