專案詳細資料
Description
深度學習技術近年來飛速的成長,在各領域中都有亮點的表現。然而在深度學習即將落地、普及的同時,AI模型的安全問題因應而生,而這卻關係到AI模型能否被廣泛使用的重要關鍵。目前已有許多攻擊AI模型的方法被提出,有部分方法甚至是針對人臉辨識與自駕車環境來做攻擊,例如在人臉上戴上特製的眼鏡,即可讓人臉辨識系統誤判;亦或是在紅綠燈影像中加入不可視的雜訊,即能讓紅綠燈辨識系統失效,將可能造成嚴重的危害。本計畫的研究目標旨在分析與研究AI模型的可能攻擊方法,並提出一套永續型AI模型防禦技術,來抵抗目前與未來的可能攻擊;此外,我們也將提出AI模型的強健性基準(robustness benchmark)設計,讓AI模型設計與訓練完成後,透過開發的強健性基準測試,即能得知此AI模型的防禦能力等級,讓設計者可以由此等級了解此模型的安全性,並藉以做為改良的依據;最後,因應越來越多的深度學習模型在手持式或邊緣運算裝置上運行,並回傳資料至雲端進行更精緻的學習與改良,如何一方面保護使用者的回傳資料與個人隱私,另一方面強化AI模型安全性,也將在此計畫中實現。此計畫將按三年期執行規劃。
狀態 | 進行中 |
---|---|
有效的開始/結束日期 | 1/02/23 → 31/07/25 |
Keywords
- AI模型攻防
- 深度學習
- 隱私權保護
指紋
探索此專案觸及的研究主題。這些標籤是根據基礎獎勵/補助款而產生。共同形成了獨特的指紋。