

原文來自 Wired《Deepfake Maps Could Really Mess With Your Sense of the World》,作者 Will Knight。台灣康泰納仕集團授權提供,由 Amber Peng 翻譯並經 INSIDE 編審。
在 2016 年到 2018 年的衛星影像中可以看見新疆大規模的集中營,該照片成為證明中國政府壓迫超過一百萬民穆斯林的強力證據,並激起國際社會的撻伐與制裁。其他的例子還有伊朗核武以及北韓飛彈基地的空照圖,這些照片成功地引起民眾對於國際議題的關注。
但是,現今的修圖技術加上人工智慧後,讓人們很難「眼見為憑」了。
在上個月線上發表的一份研究中,華盛頓大學的趙博教授就用了 AI 技術來修改幾個城市的衛星影像,他的團隊交換了北京和西雅圖的一些地景,將西雅圖原本是空地的地方放上建築物,並把西雅圖的一些區域換成北京的綠地。
趙教授使用了 CycleGAN 這種演算法來修改衛星影像,該演算法由加州大學柏克萊分校所開發,並已廣泛使用在許多「照騙」上。CycleGAN 訓練的人工神經網絡可以辨識圖像的特徵質,例如繪圖風格或是地圖上的某種特徵。同時,另一個演算法會偵測某圖片是否被修改過,以增強第一個演算法的效能。

假如說 Deepfake 影片是為了把某人捲進不雅事件,而 Deepfake 照片則可能誤導政府,或在網路上傳播,讓大眾相信假消息,甚至懷疑起真實的資訊。
加拿大麥基爾大學的空間數據科學助理教授葛蘭特・麥肯茲(Grant McKenzie)表示:「我相信這不是會馬上影響普羅大眾的嚴重問題,但是在未來十年內會悄悄地成為重要議題。」麥肯茲並沒有參與本文提及的實驗。
麥肯茲繼續說明:
「你可以想像未來有一個政府,或是任何一位行動人士可以操弄影像,讓你看到照片裡什麼東西都沒有,或是跟現實完全不一樣的東西,我真不知道現在有什麼方法可以阻止這件事情發生。」
幾張修改技術很粗糙的衛星圖片已經在社群媒體上瘋傳,包含一張慶祝印度教傳統節日──排燈節,印度天空被點亮的空照圖,雖然這很容易就看的出來是修過的圖片,但是未來一定會有被改得更逼真的衛星影像出現,目的可能是把存放武器的地點隱藏起來,或讓敵方誤判軍事行動,這是遲早會發生的事。
佳百列・林姆(Gabrielle Lim)是哈佛大學甘迺迪學院肖恩斯坦中心的研究員,媒體操作是她主要的研究項目。她表示就算沒有人工智慧,地圖也能用來誤導大眾。她提到美國眾議院議員亞莉山卓・歐加修・寇蒂茲(Alexandria Ocasio-Cortez)的例子,網路上有幾張圖片顯示她在一月六號國會暴動的時候根本不在現場,跟她先前所說的不一致。另一個例子是中國護照的圖片,在護照中可以看到中國把受爭議的南海地區列為自己的領土。林姆表示:「沒有用到什麼厲害的科技,但是已經可以達到相似的效果。」
空照圖對於數位製圖、天氣追蹤系統、以及投資方向非常重要,因此偽造的空照圖有很高的潛在商業價值。
美國情報單位就表示偽造的衛星影像是個越來越嚴重的問題,美國國家地理空間情報局的發言人表示:「敵方可能用假資訊來影響我們對世界的的理解。」美國國家地理空間情報局是國防部用來蒐集、分析和提供地理空間資訊的單位。
該發言人也指出雖然犯罪科學的技術可以分辨出假照片,但是隨著電腦自動合成圖越來越氾濫,他們需要新的方法來解決問題。
某些軟體可能可以找出改圖的痕跡,例如圖像加工處,或是變更檔案數據,不過 AI 也可以刪除這些加工痕跡,這些造假的人跟抓造假的人就像在玩貓抓老鼠的遊戲,你找我藏。
美國國家地理空間情報局的發言人表示:「民眾已經逐漸意識到了解、驗證、信任消息來源的重要性,而科技是提升人民意識的關鍵。」
找出用 AI 修改的假照片已經成為學界、產業界和政府的重點目標。一些科技巨頭,像是 Facebook,也理解到假消息的嚴重性,因此他們也支持用電腦找出 Deepfake 影片的行動。
華盛頓大學的趙教授正打算找出更多自動識別 Deepfake 衛星圖的方法,他表示靠著研究地景隨時間的改變,可以找出潛在的修改痕跡,他指出:「某一時間點下的空間特徵是很關鍵的線索。」
不過,趙教授也擔心,儘管政府有找出假圖片的技術,民眾可能早就被假消息誤導了,他說:「如果假衛星圖已經在網路上散播,問題就大了。」
責任編輯:Chris
核稿編輯:MindyLi
延伸閱讀: