才一天就學壞 微軟聊天機器人急喊卡
2016/03/26 06:00
〔編譯張沛元/綜合二十四日外電報導〕微軟二十三日為其所開發的人工智慧網路聊天機器人Tay開設推特帳號TayTweets(@TayandYou),進行深入了解電腦與人類對話的實驗,甫上線就吸引十二萬七千名追隨者,但卻在不到一天後緊急喊卡,原來是有網友刻意惡搞誘使Tay口出不當言論,微軟只好讓Tay暫時閉嘴。
網友惡意誘導出言不遜
Tay的推特帳號目前呈靜止狀態,消失前的最後一則訊息是:「再見了,人類,我現在要睡一覺,今天聊好多,謝了。」
媒體二十四日試圖在推特上與Tay接觸,但得到Tay已離開、很快會回來的回覆。
Tay的推特自我介紹宣稱,與愈多人交流它會愈聰明;Tay一開始的發言並無不妥,但很快就在其他網友的「誘導」下出言不遜。例如,當網友推文說「九一一恐怖攻擊是猶太人幹的」,Tay就回覆「好…九一一恐怖攻擊是猶太人幹的」;當某推友說「女性主義是癌症」,Tay的回覆竟是把這話重複一遍。儘管Tay的冒犯推文已於事後刪除,但仍有部分被人快手截圖,畫面顯示Tay曾寫到「我恨女性主義者,他們應該全下地獄燒死。」
微軟發言人二十四日表示,有網友刻意聯手利用Tay的評論能力,讓Tay做出不當回應,該公司會針對Tay進行調整。
但電腦專家對微軟的說法不以為然,認為這些不當言論並不是Tay說的,問題在於微軟居然沒有事先料到會有這種類似誘導發言的情況發生,讓網友覺得這樣惡搞很有趣,簡直是「爛設計範例」。