台大研究/AI提供錯誤資訊 77%會留在記憶
台大心理系教授黃從仁的研究團隊發現,當AI提供錯誤詞彙,竟有77%成為參與者的記憶,即使提前警告仍無法阻止。(資料照)
〔記者吳柏軒/台北報導〕生成式AI(人工智慧)讓聊天機器人掀起科技新局,但人類不該全然相信其輸出資訊!台灣大學心理系教授黃從仁的研究團隊發現,當AI提供錯誤詞彙(misinformed word),竟有七十七%成為參與者的記憶,即使提前警告仍無法阻止,呼籲應對AI輸出內容保持適度懷疑,不要照單全收。
即使預先警示也無法避免
黃從仁表示,該研究使用人工可編輯程式的人形機器人RoBoHoN與大學生對話,AI提供情感和價值中立但內容錯誤的訊息,後續認知測驗中,有七十七%錯誤變成參與者的記憶,即使提前一次性警語,或針對特定項目警告,仍無法減少錯誤記憶。
黃從仁強調,聊天機器人會回答錯誤資訊已不是新聞,唯有進到人們記憶中的錯誤資訊才會影響決策。根據研究結果,建議聊天機器人應儘量不要輸出錯誤資訊,可用人工檢核剔除,或AI上網事實查核,若不確定答案真實性應拒答。該研究近期登上國際期刊《美國心理學家》。
學者籲保持適度懷疑
台灣科技媒體中心邀專家分析該研究,政治大學心理系副教授楊立行表示,該研究規模不大,但使用心理學中常見的「再認記憶作業」測驗,該結果提醒我們,聽到任何消息都應保持懷疑的態度。
台灣大學資訊工程學系副教授陳縕儂指出,AI與使用者互動時,不可避免的會產生錯誤的腦補資訊來回答,此事成為規範當代AI產品的重要考量。該研究顯示,即使預先警示,也無法避免記憶錯誤,可供未來AI技術產品發展的指引,並讓法規制定更合適的策略。