Sub-Project 1 : Next Generation AI Technology for Reliable and Trustable Customer Services

本計畫針對技術方面將宗旨於解決目前關於智慧客服AI 系統之可信度、可靠度的 三項主要問題:

其一,我們考慮AI 系統的強健性(robustness),而這也是一般人對於AI 系統常見的顧慮。在一個線 上客服系統中,我們常要核對顧客的身份(簡稱「核身」),通常是經由人臉或是聲紋比對,但目前 各項多媒體合成技術相當進步(如語音合成與轉換、DeepFake的視訊合成等),這些合成技術將造成 核身的漏洞,因此本計劃將著重於語者確認(speaker verification) 及人臉確認(face verification)系統 上的反詐騙(anti-spoofing) 技術,特別是在效率及整合的優化。

其二,我們將關注在AI 系統的可解釋性(explanability; interpretability)讓智慧型客服能夠具備產生解 釋的功能。其中本計畫將著重在讓AI 模型具有解釋其決策之能力,讓人類更容易理解其所使用的資 訊、為何產生特定的結果或推測能。舉例來說,在實際的醫療任務中,如果模型僅僅預測此病人有高 度罹患癌症之風險,但無法提供相關的解釋,對於病人來說這樣的結果是沒有辦法被接受的。雖然 有越來越多研究會著重於提升AI 模型之可解釋性。然而大部分的情價還是假設資料有標記解釋之原 因,故本計畫尤其強調在零樣本學習(zero-shot learning) ,期望在此情境下,針對AI 模型的可解釋性 問題進行深入處理及討論。作為後續影響,一系統若有較佳的可解釋性,將有機會讓其更佳地解決各 式問題並為人們所信任。

其三,本計畫著眼於表徵學習(representation learning) 的一致性(consistency) 問題。近期以來, 對於基於資料探勘的AI 系統,學習並產生原資料之表徵(representation) (或稱嵌入向量,embedding vector) 以解析資料的方法已成為非常強力且的主流之一。所學習到的資料表徵可當作原資料新的特徵 值(features) 並進而被運用於學習後續解決實際問題之預測模型(downstream predictors)。然而,現有的 表徵學習架構中存在著一問題:儘管使用同樣的學習模型於相同的資料集,每次所產生的結果仍會大 不相同。另外,現有的表徵學習架構也難以處理漸進(incrementally) 增加的資料集。在本計畫中,我 們將調查並設計新的表徵學習流程使資料表徵的一致性受到保證,使其有助益於各式AI 應用系統。