AI竟然也會種族歧視 科學家呼籲科技公司改善
2019/04/05 00:54
〔即時新聞/綜合報導〕美國麻省理工學院(MIT)研究人員布蘭維妮(Joy Buolamwini)發現,知名科技業者開發的人工智慧(Artificial Intelligence)軟體具有種族歧視與性別歧視,系統在辨識深色人種或女性的臉部時,錯誤率偏高。
布蘭維妮是麻省理工學院的黑人女性科學家,她發現微軟(Microsoft)、IBM等企業存有歧視問題,並已成功使他們開始改善自家系統,但亞馬遜(Amazon)卻表示反對,公開批評她的研究方法。
現今人工智慧大多採用監督式學習(supervised learning),會依照工程師提供的訓練資料(training data)推斷出規則,再把規則套用在未知的資料上,所以當人工智慧的學習材料多為白人男性影像時,就會較適合用來辨識白人男性臉部,對於黑人女性的辨識錯誤率便會相對較高。
布蘭維妮今天在推特表示,人工智慧再現了人類的種族歧視,對待不同性別與有色人種都表現出差異,呼籲各大科技公司公平對待所有人。並說明如果我們沒有主動包容,將會複製這種根本性的不平等。