馬斯克:就算在 Tesla,AI 研發也必須被好好監管

Elon Musk 常常對人工智慧帶來的負面影響表達關切,曾說人類必須非常謹慎對待人工智慧,若使用不當,就有可能召喚出難以控制的「惡魔」。
評論
▲Photo Credit: Shutterstock/ 達志影像
▲Photo Credit: Shutterstock/ 達志影像
評論

近日,麻省理工科技評論(MIT Technology Review)撰文表示,由特斯拉、SpaceX 創辦人Elon Musk 共同創辦的非營利組織 OpenAI 宗旨已然改變,由一個致力於讓 AI 開發與分配更安全、公平的使命感組織,變成一個癡迷於不斷籌措更多資金的公司。

而根據 The Verge 報導,Elon Musk 也對此做出公開回應。他在 Twitter 發文說,所有的人工智慧研發都需要被妥善監管,包括自己的公司特斯拉。

螢幕快照_2020-02-19_下午4_27_49
▲Photo Credit: 擷取自 Twitter

其實,Elon Musk 常常對人工智慧帶來的負面影響表達關切。2014 年時,他曾經在 Twitter 發文稱「人工智慧可能比核武更危險」;同年,在一場太空研討會論壇上,他也公開指出人類必須非常謹慎對待人工智慧,若使用不當,就有可能召喚出難以控制的「惡魔」。

OpenAI 成立於 2015 年,屬於非營利人工智慧研究組織,成立緣由是擔心人工智慧有潛在風險,因此希望透過跟其他機構、研究人員合作,對公眾開放相關專利和研究成果。但 2019 年初時,Elon Musk 以「組織發展方向出現分歧」為由,正式退出 OpenAI 董事會。

值得注意的是,在 2018 年、也就是 Elon Musk 已經開始淡出 OpenAI 的那一年,他就曾經在接受媒體採訪時表示,應該成立一個政府委員會,投入一到兩年時間研究人工智慧或其他可能具潛在威脅的新技術,後續再制定相關法規,確保人工智慧能在安全範圍應用。

OpenAI 近期最知名成果,是在 2019 年初開發出自動寫作 AI 模型 GPT2 ,但因為功能太強,能寫出許多逼真的假新聞,因此最初只對外釋出部分模型;直到 2019 年底,才釋出完整版模型。

核稿編輯:Mia

延伸閱讀: