聊天機器人Tay 上線一天就「學壞了」,成了一個種族歧視者

評論
評論

根據
▲ Tay 說出「911 是小布希幹的」

但始料未及的是, Tay 開始說出一些具高度爭議,並帶有種族歧視意義的話。根據 DailyMail 報導,像是「911 是小布希幹的」、「跟著我唸,希特勒沒有作壞事」、「Ted Cruz 是古巴希特勒」等等字眼。而在 Quartz 的文章裡,也看得到微軟工程師當時正努力修改 Tay 所說出的言論。

tay03

▲ 微軟即時修改 Tay 的言論

但歷經 16 小時的上線後,微軟就將 Tay 緊急關閉,並表示會好好針對這個問題進行修改。的確這件事很多網民只是出自好玩,帶著 Kuso 的心態跟 Tay 聊天,但也正因為 Tay 並沒有道德價值觀的判斷能力,在大量的自我學習中成了一個口出穢言的種族主義者。雖然技術本身無關價值善惡,但 Tay 事件可能讓世人再次反思一件事:「我們到底該怎麼避免人工智慧為惡?」

歡迎加入「Inside」Line 官方帳號,關注最新創業、科技、網路、工作訊息

好友人數

精選熱門好工作

客服消費爭議專員

樂購蝦皮股份有限公司
臺北市.台灣

獎勵 NT$20,000

Machine Learning Engineer (Visual Creativity)

PicCollage 拼貼趣
臺北市.台灣

獎勵 NT$20,000

行政工讀生 (Part-time Intern)

Wanted
臺北市.台灣

獎勵 NT$4,000

評論