應用遷移式學習於跨領域意圖偵測與槽值辨識

專案詳細資料

Description

智慧手機是現代人隨身攜帶的裝置,許多時候使用者需要一邊進行手邊工作(如開車、烹飪、慢跑),一邊操作手機進行回信件、傳訊息、查行程、播放音樂等;因此透過口語交辦任務的需求愈來愈大;因此Actions on Google和 Alexa Skills 等框架的出現,即是支援開發人員能更輕鬆透過會話式介面串接其服務。本計畫將以手機上最常使用的應用程式包括電子郵件、行程、訊息、活動、播(找)歌曲等為應用服務,建立一個支援日常生活的跨領域對話系統。兩年期計畫工作分別為:第一年計畫主要發展上述應用程式的跨領域對話服務,進行相對對話語料蒐集、標註及相對應的意圖、槽值定義與設計,接著訓練自然語言理解NLU模組,進行意圖偵測及槽位與槽值的擷取,同時整合對話狀態追蹤、對話行為決策、以及自然語言生成模組。第二年計畫將運用遷移學習(Transfer Learning)於跨領域的意圖偵測與槽值辨識,期望降低模型的訓練成本,並擴展模型在跨領域對話系統的泛化能力。
狀態已完成
有效的開始/結束日期1/11/2231/10/23

聯合國永續發展目標

聯合國會員國於 2015 年同意 17 項全球永續發展目標 (SDG),以終結貧困、保護地球並確保全體的興盛繁榮。此專案有助於以下永續發展目標:

  • SDG 4 - 品質教育
  • SDG 15 - 陸上生命
  • SDG 17 - 為永續目標構建夥伴關係

Keywords

  • 任務導向型對話
  • 綱要引導對話
  • 意圖偵測
  • 槽位填充
  • 對話狀態追蹤
  • 遷移式學習

指紋

探索此專案觸及的研究主題。這些標籤是根據基礎獎勵/補助款而產生。共同形成了獨特的指紋。