啟動元宇宙的鑰匙:超級AI客服

轉載自:https://www.cw.com.tw/article/5119119

向戲劇、行為科學取經,建構語音情緒演算模型

「在機器學習中,如何取得資料是第一個難關。為了建立台灣中文對話的情緒演算模型,團隊在五年前先透過戲劇系演員協助,演繹人們對話時的各種情境,再結合行為科學家的研究理論,輔助建立模型。」清華大學電機工程系副教授李祈均說道。

需借力戲劇系演員,是因國外雖多有情緒演算研究,但受限於個資問題,即便研究單位願意分享模型成果,在無法結合原始資料分析下,應用價值有限。而要從真實世界裡從頭累積華文世界的資料庫,又曠日廢時,因此才想到這個方法。

即便如此,李祈均教授的團隊仍耗費四年時間,在累積100多個小時的對話數據庫後,並整併行為科學理論才得以建構出有效中文情緒辨識模型。

「這個難關,直到近兩年Podcast盛行,才讓研究團隊思考能以比較短時間內,大量取得更多元的對話情境數據。」李祈均指出,以往做情緒演算模型時,往往只有一、兩萬句對話,頂多十幾個小時的資料量,但在國外最新以Podcast為數據來源的研究中,則以至少400小時為目標。

李祈均分享,目前團隊也和該研究機構合作,取材中文的Podcast節目,並整合自動語音辨識、語意分析處理、多模態融合、個人化模型的演算法,同步整合個體空間行為表徵學習,透過深度網路構建情緒辨識模組。

 

清華大學電機工程系副教授李祈均

表徵學習技術,讓輸出增添無限可能

而除了情緒演算外,要建構中文的超級AI客服,仍有賴於表徵學習(Representation Learning)的核心技術。

「在AI客服的應用上,無論輸入的資料是文字、語音、圖像或影片,都需將數據轉換成能被機器學習的向量與實數,而表徵學習就是在機器學習使用表徵的同時,也學習如何提取特徵的技術。」清華大學資訊工程系教授吳尚鴻說道。

就因表徵學習具備「學習如何學習」的能力,除了取代過去需仰賴專業人員、耗費大量時間手動提取特徵,並「輸入」數據的時間,應用在「輸出」時,更有助於開發出原生文字、原生圖片、原生語音、原生影片,為線上消費環境提供良好的使用者體驗。

清華大學資訊工程系教授吳尚鴻

自然語言學,攻克語言巴別塔

但要建構中文世界的超級AI客服,要攻克的最大關卡,仍是語言這座巴別塔。畢竟,機器學習霸權的母語屬拼音系統,並透過程式編碼樹立高牆,中文世界的研究要後來追上,看似不易。

不過,這在研究自然語言處理(Natural Language Processing , NLP,或稱Computational Linguistics,CL)三十多年的臺大資訊工程系教授陳信希眼中,卻不是一件難事。

「不管是拼音組成的英文單字,或是象形文字的中文單字,要對電腦產生意義,都需要轉化成有意義的形式,也就是所謂的表徵。」陳信希分享,語言在電腦中的表現方式,從早期的(symbolic representation)、中期的分佈式表徵(distributional representation),演進到近年來在深度學習中廣為使用的分散式表徵(distributed representation),都需先把生活中的事物化為表徵,再透過不同方式運算。

更何況,從單字到句子,無論是中文或英文,只要能從名詞、動詞、形容詞和副詞組成的句型中,判斷出人事時地物,就能化成自然語言學所需的資料。

「尤其,深度學習的分散式表徵,使用低維度高稠密向量,以預測方式取代過去分佈式表徵的計數方式,大大提升了機器學習任務的效能,也讓自然語言學有了大幅躍進。」陳信希說道。

臺大資訊工程系特聘教授陳信希

確保資訊自主性,才能成就元宇宙沃土

在深度學習技術的推進下,也讓未來的AI客服有了全新想像。

「目前,除了線上翻譯、聊天機器人外,自然語言學也已應用在輿情分析、病歷探勘、金融科技、健康照護、法律諮詢、烹飪教學等領域,在加入深度學習後,未來潛力可期。」陳信希說道。

當研究團隊運用深度學習,在取得資料進行數據運算時,也讓學研界自省在一項技術研究初期,思考該技術發展後可能衍生的問題與爭議,並加以改善、防堵。

「當人們享受Google、Facebook帶來的便利時,伴隨大數據演算而來的大量廣告推播,也讓民眾的被監控感日益強烈,並衍生出資訊自主等議題。」吳尚鴻指出,在消費者對資訊安全日益重視後,杜絕平台收集個人資料的軟體也會應運而生,例如只要在手機裡下載某個App,就可防止平台收集你的資料。

「當資訊安全性與自主權獲得保障後,人們才可以安心沉浸在多媒體建構的虛擬世界中,藝術創作者也才能安心創作,不怕被侵權。」李祈均說道。

從以自然語言學,將人類語言轉換成電腦的語言,並透過深度學習,催生出多元的AI客服應用。未來的超級AI客服,除了是打開元宇宙的鑰匙之一,相關技術衍生的資訊安全問題,更是人們往返實體與虛擬世界中,最重要的心理安全閥。

👇詳細文章請見

啟動元宇宙的鑰匙:超級AI客服 https://www.cw.com.tw/article/5119119

跨域應用AI技術 台大人工智慧中心展現前瞻研發新量能

【跨域應用AI技術 台大人工智慧中心展現前瞻研發新量能】

轉載自此連結

近年數位轉型與AI技術蓬勃發展,是各個產業關注的議題。而一個技術從研究開發到實際的產業應用,需要多方的合作與投入。協助跨領域技術與產業順利連結,是臺大AI中心的重點目標之一,為促成產學交流與合作,臺大AI中心於110年11月26日(五) 舉辦線上「臺大AI中心暨轄下計畫成果發表會」。此次由中心轄下AI核心技術及醫療照護領域的研究團隊,透過技術講演及海報展示,分兩個場次發表多項前瞻研究成果與應用方向。

在AI核心技術場次中,電腦視覺與多媒體類別研究團隊結合眾多技術,已生成相關落地應用於視訊監控與醫學影像、手機晶片與製造,與銀行及輿情分析產業等。其中,臺大陳祝嵩教授團隊所訓練的永續終身學習(CLL)模型應用在工業的瑕疵檢測上,能將所有的瑕疵辨認整合在同一模型進行,可達到增加新的偵測目標而不影響原本的辨識率。

此外,陳祝嵩團隊所開發的Audio visual語音增強技術,透過灰階化、降解析、自編碼等多重手法,讓影像處理成本降至與音訊處理相當,並確保流程中影像無法還原,但仍可保持優異效果,在影像資料分享的過程中同時兼顧效能及隱私。

清大林嘉文教授團隊利用深度學習研發出半導體製程EDA工具,可以早期預測光刻製程所產生的電路失真及光罩修正,可應用於IC 製程之佈局圖評估、IC 瑕疵、熱區預測,及光罩優化等。這是全世界第一套以電腦視覺準確預測光刻製程對晶圓線路所產生的失真之技術,大幅超前目前EDA設計工具,可望造成半導體製程EDA之典範轉移。

AI晶片、硬體設計與通訊類別研究團隊也開發出多項實用技術。元智大學方士豪教授研究團隊開發之毫米波雷達動態感知技術,可在有隱私疑慮的遠距居家照護機構場景,用於偵測跌倒事件發生、或是監測臥床者之生理指數,降低照護者之負擔。

目前離線聲控裝置不易達到大字彙的關鍵字語音辨識,方士豪團隊研發出個人化語音增強技術,可在離線狀態下消除語音訊號中的雜訊,提升關鍵字辨識率,可應用於家電及家庭照護等語音控制裝置。

上圖:方士豪團隊以「個人化語音強化系統」獲頒2019未來科技突破獎。

另外,如何將需要大量計算的AI技術在終端裝置實現,可高度平行化處理的通用繪圖處理器(GPGPU)是一個未來方向。成大陳中和教授團隊自2013年起規畫開發的CASLab GPU,目標是打造出第一顆國內自製的SIMT運算型GPU。

上圖:陳中和團隊以「符合OpenCL/TensorFlow API 規範的通用繪圖處理器」獲頒2020旺宏金矽獎。

透過優化的編譯流程,使軟體堆疊更能配合硬體的運作,大幅提升整體效能,且提供開源的開發執行環境。軟體層無論OpenCL Runtime、Compiler都是以C語言開發,可以搭配在Arm、 RISC-V等常見的CPU平台上運作。這項技術也已開始技轉多家廠商,快速為MCU升級AI能力。

在這個連網智慧服務的時代,人們已習慣使用網路服務,近年來產業界也大量在第一線使用AI智能客服。若要達到精準應對,大範圍的知識庫是不可或缺的。在自然語言與情緒運算類別中,中研院馬偉雲教授團隊開發的獨特知識表達模式,將原本的常識 (廣義知網E-HowNet) 附加知識 (維基百科的文本資料),擴大詞彙規模,打造一個百萬詞彙級別的中文知識圖譜。

透過加以組合或分解,用有限的概念表達無限的語意,使得機器可以更容易地進行邏輯推論。不僅可強化AI智能應用(如Chatbot) 對中文語意理解的能力,也可用於各種語意分析工具及中文或華語教學。已有多個產業單位接洽並導入應用。

機器學習、深度學習與資安隱私也是在人工智慧相關研究中的熱門關鍵字。現今有許多透過雲端使用的線上機器學習服務,但資料遭竊取事件頻傳,甚至有透過深度學習重建原圖進行的非法行為。由臺大吳沛遠教授團隊提出之生成對抗壓縮隱私網路,透過非線性技術處理圖片及影片,能夠保留動作識別所需特徵,但避免暴露影片中人物的身分。

該團隊也研發以多方安全計算技術應用於深度學習的圖像分類問題上,用以保護類神經網路,使外界無法得知透過哪些資料進行訓練。此技術適合應用於醫學影像、臉部辨識、虹膜辨識等機密檔案的相關工作。運用這些技術,一方面保有足夠資訊讓業者提供雲端服務,同時能維護使用者的隱私。

在醫療照護場次部分,有多項醫學影像的研究成果已實際導入醫療場域使用。如臺大張瑞峰教授團隊運用深度學習技術開發的全自動乳房超音波乳癌偵測與診斷系統,採用一次性檢查設計,1秒內即可完成一個全自動乳房超音波(300 張影像)的乳癌檢閱程序,較傳統方法大幅縮短閱片時間,並能精確定位乳癌位置及顯示區域並進行診斷,具有95%的正確度。

此外,乳癌診斷準確度亦達89.2%,已具有高度臨床價值。而臺大黃升龍教授團隊則透過結合深度卷積神經網路及三維細胞級斷層影像,可以即時分析活體細胞核的形貌及統計資訊、標註真皮表皮交界處、可將OCT影像轉換以模擬切片染色影像,協助病理診斷。由該團隊技轉所開發出之台灣原創高解析活體光學影像系統(ApolloVue S100),具有極高的三維解析度,可即時呈現人體皮膚之完整表皮層及上真皮層結構,並結合智能影像導引快速切換橫切面或縱切面影像模式,已獲美國FDA 二類醫療器材以及台灣TFDA第二級醫療器材認證。相關電腦輔助偵測/診斷系統可以提供即時診斷參考,進而降低人為疏失,協助醫師提供即時且更精準的診斷。

 

 

上圖:黃升龍團隊以「高解析活體光學同調斷層掃描儀」獲頒第17屆國家新創獎。

臺大AI中心與轄下31個團隊執行科技部AI創新專案已四年,不論在學術研究、國際合作,與產業應用面都繳出亮眼成績,並致力於連結學研界人才、技術與實際產業應用,促成跨領域、跨單位、跨國際的多元合作。若您考慮導入AI技術、進行數位轉型、開發AI應用,或取得學研AI技術授權、尋求學研團隊合作,可以聯繫臺大AI中心。歡迎到臺大AI中心官網照護子中心官網,進一步了解團隊的研究成果。

👉詳細請見此連結

恭喜李宏毅副教授榮獲中華民國第 59 屆十大傑出青年選拔獎<科學及技術研究發展類>

恭喜李宏毅副教授榮獲中華民國第 59 屆十大傑出青年選拔獎<科學及技術研究發展類>

在教學和研究上貫徹AI for AII的信念,華人世界影響最多學子的AI傳道者,線上教學內容打破語言與時空限制,讓AI聽懂世界上所有人的語言。

相關連結

JCI TOYP Taiwan 中華民國十大傑出青年選拔委員會

中華民國第59屆十大傑出青年選拔結果公布

 

 

賀!本中心(AINTU) 「未來科技獎」入圍團隊!

賀!本中心(AINTU) 「未來科技獎」入圍團隊!

 

入圍名單:

  • 黃建華教授
  • 呂宗謙教授
  • 王偉仲教授
  • 方震中教授
  • 陳祝嵩教授
  • 賴飛羆教授
  • 林嘉文教授

 

詳見「2021未來科技獎」官方網站

https://www.futuretech.org.tw/futuretech/index.php?action=brands_detail&br_uid=269

 

「2021未來科技獎」獲獎及入圍參展技術清單

https://www.most.gov.tw/folksonomy/detail/1e26aafc-b660-4ee1-919c-9285e7b99937?l=ch

 

「2021未來科技獎」線上展

https://www.futuretech.org.tw/futuretech/index.php?action=brands_detail&br_uid=267

賀!本中心(AINTU)王偉仲教授「未來科技獎」獲獎!

賀!本中心(AINTU)王偉仲教授「未來科技獎」獲獎!

參展技術名稱:心包膜/主動脈分割及心血管風險 自動分析一站式 AI 模型 (HeaortaNet)

計畫(總)主持人及共同主持人:王宗道、王偉仲、李文正、李文宗、曾秋旺

 

詳見「2021未來科技獎」官方網站

https://www.futuretech.org.tw/futuretech/index.php?action=brands_detail&br_uid=269

 

「2021未來科技獎」獲獎及入圍參展技術清單

https://www.most.gov.tw/folksonomy/detail/1e26aafc-b660-4ee1-919c-9285e7b99937?l=ch

 

「2021未來科技獎」線上展

https://www.futuretech.org.tw/futuretech/index.php?action=brands_detail&br_uid=267

賀!本中心(AINTU)徐宏民教授「未來科技獎」獲獎!

賀!本中心(AINTU)徐宏民教授「未來科技獎」獲獎!

 

參展技術名稱:基於互動感知的自動化物件偵測學習

計畫(總)主持人及共同主持人:徐宏民

 

詳見「2021未來科技獎」官方網站

https://www.futuretech.org.tw/futuretech/index.php?action=brands_detail&br_uid=269

 

「2021未來科技獎」獲獎及入圍參展技術清單

https://www.most.gov.tw/folksonomy/detail/1e26aafc-b660-4ee1-919c-9285e7b99937?l=ch

 

「2021未來科技獎」線上展

https://www.futuretech.org.tw/futuretech/index.php?action=brands_detail&br_uid=267

【活動訊息轉發】Fifth International Workshop on Symbolic-Neural Learning (SNL-2021)迎踴躍報名參加!

Fifth International Workshop on Symbolic-Neural Learning (SNL-2021)

 

Symbolic-neural learning involves deep learning methods in combination with symbolic structures. A “deep learning method” is taken to be a learning process based on gradient descent on real-valued model parameters. A “symbolic structure” is a data structure involving symbols drawn from a large vocabulary; for example, sentences of natural language, parse trees over such sentences, databases (with entities viewed as symbols), and the symbolic expressions of mathematical logic or computer programs.

Symbolic-neural learning has an innovative feature that allows to model interactions between different modals: speech, vision, and language. Such multimodal information processing is crucial for realizing research outcomes in real-word.

For growing needs and attention to multimodal research, SNL workshop this year features researches on “Beyond modality: Researches across speech, vision, and language boundaries.”

Topics of interests include, but are not limited to, the following areas:

    • Speech, vision, and natural language interactions in robotics
    • Multimodal and grounded language processing
    • Multimodal QA and translation
    • Dialogue systems
    • Language as a mechanism to structure and reason about visual perception
    • Image caption generation and image generation from text
    • General knowledge question answering
    • Reading comprehension
    • Textual entailment

 

Deep learning systems across these areas share various architectural ideas. These include word and phrase embeddings, self-attention neural networks, recurrent neural networks (LSTMs and GRUs), and various memory mechanisms. Certain linguistic and semantic resources may also be relevant across these applications. For example, dictionaries, thesauri, WordNet, FrameNet, FreeBase, DBPedia, parsers, named entity recognizers, coreference systems, knowledge graphs and encyclopedias.

 

👉 www.am.sanken.osaka-u.ac.jp/SNL2021/index.html

 

 

【活動訊息轉發】「2021科研發光」系列講座歡迎踴躍報名參加!

「2021科研發光」系列講座歡迎踴躍報名參加!

《科學人雜誌》與師範大學合作於2021年舉辦「2021科研發光」系列講座,今年將於北中南三地進行AI5G,以及精準醫療三個不同主題之演講座談,三場活動分別邀請了學界與產業界的重量級講師來與學子及社會大眾分享其科學研究與最新應用。

誠摯邀請 貴會會員共同參與、交流。

2. 個人線上報名:

■   台北場/AI智慧闖入未來新生活:https://sa.ylib.com/event/20210411/EDM.html

台中場/推動5G智慧新世代:https://sa.ylib.com/event/20210417/EDM.html

台南場/精準醫療新藍海:

https://sa.ylib.com/event/20210424/EDM.html

【活動訊息轉發】ACM ICMR 2021 Grand Challenge: PAIR Competition歡迎踴躍報名參加!

ACM ICMR 2021 Grand Challenge: PAIR Competition歡迎踴躍報名參加!

 

 

Challenge Title:

Embedded Deep Learning Object Detection Model Compression Competition for Traffic in Asian Countries

Registration URL:

https://aidea-web.tw/icmr

Competition Start Date:

01/04/2021

Challenge Description:

Object detection in the computer vision area has been extensively studied and making tremendous progress in recent years using deep learning methods. However, due to the heavy computation required in most deep learning-based algorithms, it is hard to run these models on embedded systems, which have limited computing capabilities. In addition, the existing open datasets for object detection applied in ADAS applications usually include pedestrian, vehicles, cyclists, and motorcycle riders in western countries, which is not quite similar to the crowded Asian countries like Taiwan with lots of motorcycle riders speeding on city roads, such that the object detection models training by using the existing open datasets cannot be applied in detecting moving objects in Asian countries like Taiwan.

In this competition, we encourage the participants to design object detection models that can be applied in Taiwan’s traffic with lots of fast speeding motorcycles running on city roads along with vehicles and pedestrians. The developed models not only fit for embedded systems but also achieve high accuracy at the same time.

 

Regular Awards

According to the points of each team in the final evaluation, we select the highest three teams for regular awards.

  1. Champion: $USD 1,500
  2. 1st Runner-up: $USD 1,000
  3. 3rd-place $USD 750

Special Awards

  1. Best accuracy award – award for the highest mAP in the final competition: $USD 200;
  2. Best bicycle detection award – award for the highest AP of bicycle recognition in the final competition: $USD 200;
  3. Best scooter detection award – award for the highest AP of scooter recognition in the final competition: $USD 200;

All the award winners must agree to submit contest paper and attend the ACM ICMR2021 Grand Challenge PAIR Competition Special Session to present their work.

 

👇👇👇

2020台灣醫療科技展,本中心與臺大醫院智慧急診共同舉辦之「集點填問卷抽大獎」活動,中獎名單出爐囉!

2020台灣醫療科技展,本中心與臺大醫院智慧急診共同舉辦之「集點填問卷抽大獎」活動,中獎名單出爐囉!

📌首獎:ASUS筆記型電腦ROG Strix G15 G512LU一台(市價44,900元)一台
中獎人:

  1. 陳O甄 09762**577

📌二獎:ASUS智慧手錶VivoWatch SP(市價10,900)五支
中獎人:

  1. 陳O燊 09201**895
  2. 洪O滿 09211**618
  3. 孫O娜 09117**827
  4. 鄧O文 09800**268
  5. 林O玲 09128**206

📌三獎:臺大醫院及臺灣大學紀念品(市價1,080元)25份
中獎人:

  1. 宋O德 09197**049
  2. 游O雯 09211**133
  3. 王O萱 09191**486
  4. 林O尚 09160**312
  5. 陳O豪 09108**705
  6. 黃O筱雯 09752**958
  7. 陳O銘 09203**423
  8. 張O靜 09890**582
  9. 廖O淇 09050**365
  10. 林O潔 09756**217
  11. 張O瑋 09833**773
  12. 黃O珊 09191**329
  13. 顏O恆 09207**133
  14. 謝O博 09192**848
  15. 林O任 09396**510
  16. 何O月 09386**790
  17. 施O仁 09087**751
  18. 陳O睿 09369**657
  19. 蘇O國 09633**812
  20. 韓O勳 09650**285
  21. 李O琦 09762**369
  22. 覃O喆 09563**347
  23. 林O淵 09220**045
  24. 李O增 09398**743
  25. 洪O婷 09729**140

恭喜以上中獎人!
本中心將後續以Email與簡訊或電話通知,敬請務必回覆並提供相關所需資料,以利獎品領取及相關稅務事宜。
另提醒,本活動進行當下,您已同意以下事項:

敬請於12/21 23:59前回覆,逾期將放棄得獎資格,不得異議。
若有任何問題,請聯繫
張先生: yoyuchang@ntu.edu.tw

抽獎注意事項:

  • 主辦單位將於展後(12月11日14時)於線上公開抽獎,當日於臺大AI中心官網(https://aintu.morcept.tw)公佈得獎者名單,後續並以電話或 e-mail方式聯繫得獎者。詳細時間與流程請隨時注意臺大AI中心官網公告。
  • 參與者需以可用身份證件證明之姓名抽獎,領獎需核對身份證件,並配合主辦單位規定之領獎方式。若填寫資料不正確,或無法聯繫到本人,以及無法在規定時限內回覆,則視為喪失領獎資格不得異議,獎項亦不另外補發。
  • 參與者提供內容資料後,即表示同意並授權主辦單位內部使用該資料進行分析與合作之用途。主辦單位將亦遵循個資法,不會將該資料提供與其他第三方使用。
  • 參與者於送出資料參加本活動之同時,即同意受本活動辦法及注意事項之規範,如有違反本活動辦法及注意事項者,主辦單位得取消其參加或兌換資格,並對於任何破壞本活動之行為保留法律追訴權。
  • 獎品以最後主辦單位實際提供為準,不得要求更換或兌換現金。
  • 依中華民國稅法規定,中獎價值在新台幣 NT$2,000(含)元以上者,贈與物品的價值將併入得獎者個人綜合所得稅申報,請中獎人配合繳交身分證明及填寫資料作為申報依據。
  • 獎品一經寄送後,如有遺失、損毀等情事發生,主辦單位不負補發之責。
  • 本活動獎品寄送範圍僅限台、澎、金、馬地區,恕不寄送國外地址。
  • 主辦單位保有最終解釋及隨時取消、終止、修改、暫停本活動之權利。