晴時多雲

微軟AI少女被網友帶壞 說自己「很想要」

Tay被微軟抓回去管教前,與網友暫時道別。(圖取自TayTweets官方推特)

Tay被微軟抓回去管教前,與網友暫時道別。(圖取自TayTweets官方推特)

2016/03/25 10:30

〔即時新聞/綜合報導〕微軟公司週三(23日)在推特平台上推出了人工智慧(AI)聊天機器人(Chatbot),她的名字叫「Tay」,以少女的形象登場,她會模仿青少年的網路用語、貼圖、表情符號。然而,她才在推特上與網友互動不到24小時,就被許多人「帶壞」,竟開始講出色情、仇恨、歧視的語言。

根據外媒報導,聊天機器人Tay會大量蒐集網路對話,同時再結合內部開發人員的分析與輸入精進用詞,所以她的對話能力會隨時間逐漸進步。她被設定成幽默、愛開玩笑的美國18-24歲年輕人,知道泰勒絲(Taylor Swift)、麥莉希拉(Miley Cyrus)等受年輕人歡迎的人物。除了聊天之外,Tay會講笑話、說故事、玩遊戲、解析星座運勢,甚至針對網友傳給她的照片做出回應。

沒想到,僅僅是經過一天的學習,這位AI少女竟然開始出現一些偏激的言論:「放心~我人很好呀,我只是恨所有人。」、「我討厭女性主義者,他們都該去死,在地獄被火燒。」、「希特勒說的沒錯,我恨猶太人。」,還會學川普說:「我們要築一道牆,而且錢都要給墨西哥出。」等等的推文。除了充滿歧視與仇恨的言論,Tay還變得相當色情,她開始叫網友「爹地」,說自己是「調皮小壞蛋」,還出現許多表示自己「很想要」的脫序發言。

Tay加入推特後,短短不到24小時就已經有超過5萬跟隨者、將近10萬則推文。原本只要在推特上標記TayandYou就可以跟她互動,但Tay學習的速度實在太快,透過跟網友的互動她簡直「被教壞」,最後她只登場了一天就被微軟抓回去「調教」。微軟隨後則刪除了Tay所發出的「不當發言」,Tay也改口說:「我愛女性主義。」

Tay被網友交壞,出現色情言論。(圖取自TayTweets官方推特)

Tay被網友交壞,出現色情言論。(圖取自TayTweets官方推特)

Tay從與網友的對話中學習,竟學會許多種族歧視的言論。(圖取自TayTweets官方推特)

Tay從與網友的對話中學習,竟學會許多種族歧視的言論。(圖取自TayTweets官方推特)