不解人工智慧決策理由 台大團隊AI研究取得新進展
科技部長陳良基穿戴偽裝道具實地操作,瞭解XAI運作情形。(記者楊綿傑攝)
〔記者楊綿傑/台北報導〕人工智慧(AI)是我國積極發展的科技項目之一,今台大AI中心下轄徐宏民教授團隊發表,在科技部支持下最新開發出的「可解釋性人工智慧(XAI)模組xCos」,可將AI的決策結果進行有條理解釋,提升人類對AI的信任,為AI發展及更廣泛應用走出重要一步,未來甚至可運用至醫學、能源等多個領域。
科技部指出,近年AI已進步到使用深度學習等類神經網絡,在快速且大量的消化各式資料後,由電腦自己訂規則,憑著數以千萬計的條件產出更高精準度的答案。但逐漸人們開始注意到AI無法詳細說明「它」做出決定的推理過程與原因,產生信任問題。
根據資誠聯合會計師事務所指出,人工智慧當前的關卡就是缺乏解釋性。歐盟今年2月份發表的人工智慧白皮書,亦提及缺乏信任是阻礙AI廣泛應用的主要原因。科技部長陳良基指出,「可解釋性的人工智慧」是國際上AI發展的重要目標,去年9月也公布人工智慧科研發展指引中強調AI的「透明性與可追溯性」及「可解釋性」。
徐宏民團隊在科技部長期支持下,自2011年便開發出第一套行動裝置上的人臉搜尋系統,之後也不斷精進,奪得全球人臉辨識技競賽的冠軍,不過徐宏民表示,團隊過去3年透過產學合作,協助幾家軟硬體公司開發人臉辨識產品。在深度模型設計過程中會遭遇AI人臉辨識結果跟大腦直覺無法吻合的案例,不曉得判斷的依據為何。
徐宏民說,為解決這樣的問題,團隊花了1年多的時間開發了可解釋性人工智慧模組xCos,能夠成功解釋為何2張人臉會辨識為同1人(或另1人)的原因,提出AI黑盒子的決策依據、協助人臉辨識產品開發,同時xCos會自動留意人臉不自然的表面而專注在真實以及具辨識能力的人臉位置,進而達到偽裝人臉辨識的效果。且經過測試,就算搭配不同的人臉辨識軟體,亦能發揮同樣的功能。
陳良基也現場透過戴上假髮、搞怪眼鏡、長鬍鬚等道具拍攝照片,考驗系統在比對自己及他人多張照片時的決策過程,而模組會先抓出差異極大或較為類似的臉部部位,用不同顏色註記「部位相似度」,再據此做出最後決策,同樣以不同顏色秀出「判斷依據」。
徐宏民說,團隊已將這項技術以Open Source方式供國內外產學研單位使用,希望將其相關理念拓展至其他深度學習相關應用中,同時也將技術擴展到其他領域關鍵性的人工智慧決策系統,如AI僅告知發電廠未來1小時是否要增加發電量,但XAI可以補充說明是因為預測氣候的改變或今日有特殊節慶等;AI可以說出X光片是否有肺炎徵兆,但XAI可更進一步解釋判斷的依據以及指出病徵的位置等。
台大AI中心下轄徐宏民教授團隊發表,在科技部支持下最新開發出的「可解釋性人工智慧(XAI)模組xCos」,可將AI的決策結果進行有條理解釋,提升人類對AI的信任。(記者楊綿傑攝)
科技部長陳良基與台大教授徐宏民說明AI發展。(記者楊綿傑攝)