GDPR資料保護條例將對資料科學領域發展上造成嚴重影響嗎?

隨著技術的進步,機器學習也在飛速發展,全球對這一領域的投資也日益增加,機器學習正在迅速成為企業資料科學的趨勢。而隨著嚴格的 GDPR 問世,對機器學習究竟會產生哪些影響?如何在 GDPR 的限制下繼續資料科學及其研發項目?
評論
評論

本篇 Oreilly 原文《How will the GDPR impact machine learning?》經合作媒體 雷鋒網  編譯,INSIDE 授權轉載。

歐盟於 2018 年 5 於 25 日出台資料保護條例 GDPR ,隨之在資料科學領域引起了廣泛的討論,這是因為嚴格的資料條例,將對資料科學項目,尤其是機器學習領域產生巨大的影響。

目前,隨著技術的進步,機器學習也在飛速發展,全球對這一領域的投資也日益增加,機器學習正在迅速成為企業資料科學的趨勢。而隨著嚴格的 GDPR 問世,對機器學習究竟會產生哪些影響?如何在 GDPR 的限制下繼續資料科學及其研發項目?

剛剛頒布的 GDPR 還沒有全面生效,大家對於如何執行這一法規的認識還是模糊的,仍在不斷摸索中,但 GDPR 帶來的關鍵問題和挑戰已逐漸顯現。資料管理平台 Immutable 的首席隱私官與法律工程師 Andrew Burt 撰寫了一篇文章,一一解釋了自己公司受到的關於對機器學習影響的三大問題。

問題 1: GDPR 是否會禁止機器學習?

當然不是。即使是 GDPR 生效後,在歐盟,機器學習也不會被禁止。但是,不可避免地,此後機器學習的應用都會涉及沉重的法規問題。

根據法規的要求, GDPR 將全面禁止沒有人為干預、並會對資料主體產生重大影響的自動化決策。值得注意的是, GDPR 適用於所有使用了歐盟資料的情況,這些資料可能都能夠辨識出一個資料主體,而對於使用了大量資料的資料科學計劃,這意味著 GDPR 將適用於其所有的活動。

GDPR 對於「自動化決策」的定義是指,在沒有人為直接參與的情況下自動作出決策的模型。這包括了對資料主體的自動「使用者畫像分析」,例如將使用者分類為「潛在客戶」或「40 -- 50 歲男性」,以確定貸款申請人是否有資格獲得貸款。

因此,鑑別機器學習模型是否是屬於「自動化決策」,首先是看模型是否是在沒有人為干預的情況下自動部署的,如果是,那麼這樣的模型默認為是被禁止的。而事實上,大量的機器學習模型都是這種情況。儘管許多律師和資料科學家反對過這一點,但參與起草和解釋 GDPR 的歐盟官方——第 29 工作組對於這一條解釋就是如此。

GDPR 禁止機器學習了嗎?「禁止」這一詞很具誤導性。禁止自動化決策是可以存在特例的,使用「禁止」這一詞太過強硬了。一旦 GDPR 生效,資料科學家應該期望的是,機器學習的大部分應用仍還可以實現,只是增加了他們不能忽視的合規負擔。

下面會詳述「禁止」以外的特例。

GDPR 法規明確了使用自主決策合法的三個領域:

  • 在簽訂了合同的情況下,資料處理是必要的;
  • 其他法律另行授權的情況;
  • 資料主體明確同意的情況。

事實上,最後一條是較為符合實際的,解決這一禁令的常用方法,就是資料主體明確允許他們的資料可以被模型使用。但是,讓資料主體同意並不容易。資料主體可以同意許多不同類型的資料處理,並且他們也可以在任何時候撤銷同意,這意味著在資料的使用上,需要精細化地管理資料主體對於資料使用的同意,允許資料主體選擇不同類型的同意,動態(允許資料主體撤銷同意)以及要提供足夠的使用者友好性,即讓資料主體有能力理解他們的資料如何被使用的,並且給予使用者控制資料使用的權力。

GDPR 並沒有完全禁止使用機器學習模型,但它會使得很多機器學習的模型及其輸入資料的部署和管理變得越來越困難。

問題 2: 機器學習是否需要「可解釋性」?

關於 GDPR 對機器學習的影響,我最常聽到的問題之一,就是機器學習是否需要「可解釋性」。去年作者特意寫了一篇文章討論這個問題。

這個問題源於 GDPR 本身的條例有些模糊不清。

「可解釋性」這一點帶來的風險是非常高的,可能會對企業資料科學產生巨大的影響。機器學習模型的複雜結構賦予了其神奇的預測能力,想要把其內在構成解釋清楚是很困難的。

我們從 GDPR 條例的文本開始說。

在條例的第 13 -- 15 條中, GDPR 一再聲明資料主體有權了解關於資料使用的「有意義的訊息」和自動化決策帶來的「重要和可預見的後果」。然後,第 22 條中, GDPR 規定,只有在具備了上述影響類型的情況下,使用者才可以對決策提出反對。最後,第 71 條序言是該條例中包含的不具約束力一部分,它指出資料主體可以要求自動化決策給出合理的解釋,並且資料主體能夠質疑這些決策。總而言之,這三項規定給資料的使用帶來了更複雜的場景。

由於文本的模糊不清,歐盟監管機構可能以最嚴格的方式去解釋這些規定,例如要求機器學習的模型對內部結構做出完整解釋,但這樣的做法似乎是不合理的。

這些文本更恰當的解釋可能是,當機器學習用於沒有人為干預下做決策時,以及當這些決策對資料主體產生重大影響時,資料主體有權對正在發生的事情有基本的了解。 GDPR 中的「有意義的訊息」和「可預見的後果」或許可以這樣解讀。歐盟監管機構可能會將重點放在資料主體有權就資料使用情況作出決策上,而對於資料使用的透明度,則可能會依據於模型及對應的情況而定。

問題 3:資料主體是否有權要求刪除他們的訊息後重新訓練模型?

這也許是 GDPR 條例下最難回答的問題之一。換句話說,如果一個資料科學家使用某個資料主體的資料來訓練模型,然後在這個模型中融入了新資料,那麼此前的資料主體對於之前用他們的資料訓練出來的模型是否還有一定的權力?

據我所知,答案將是否定的,至少在實踐中是這樣的,只有非常少的特例。為了解釋更清楚,我先從這些特例說起。

在 GDPR 下,所有資料的使用都需要在法律的允許下進行, GDPR 第 6 條規定了六項對應的法律依據。其中有兩個最重要的「合法權益」的依據,並且資料主體明確同意使用該資料。這種情況下,當處理資料是依據於資料主體的同意時,資料主體將仍保留對該資料的重要控制權,這意味著他們可以隨時撤回同意,處理該資料的合法性將不再存在。

因此,如果組織從資料主體收集資料,資料主體同意將他們的資料用於訓練特定的模型,但隨後又撤回同意,何時資料主體可以強制模型重新訓練新資料?

答案是只有當該模型繼續使用該資料主體的資料時才可以。

正如 29 工作組所指出的那樣,即使資料主體撤銷了同意,撤銷前所發生的所有的處理仍然是合法的。因此,如果資料被合法地用於創建模型或預測,那麼無論這些資料的產出是什麼,都是可以被保留的。事實上,一旦用一組訓練資料創建了模型,那麼訓練資料的刪除和修改都不會影響到之前的模型。

但是,一些研究表明,模型可能會保留關於訓練資料的訊息,即使在訓練資料被刪除之後,仍然可以通過模型找到原始資料,正如研究人員 Nicolas Papernot 等人寫的一樣(模型的隱私性問題,參見這篇文章)。這意味著在某些情況下,保留訓練模型而刪除原有資料,不能保證在以後原有資料不會被重現,或者說在某些情況下,原有資料還是仍可能在使用的。

但是從模型中復原原有的訓練資料有多大可能呢?幾乎是不可能的。

目前所知,這種研究只在學術環境中進行,企業的資料科學與學術環境相差甚遠。正是由於這個原因,作者不認為模型會因為受到資料主體的要求而重新訓練。雖然這在理論上是可能的,但已經是非常邊緣的特例了,只有在特定情況下特例發生之後,監管機構和資料科學家才需要去處理。

儘管如此,所有這些問題都存在大量的細微差別,未來這些細微差別一定會出現。 GDPR 有 99 條正文和 173 條引言,注定是非常長且複雜的法規,並且隨著時間的推移變得更加複雜。

但是,至少有一點是明確的:要感謝 GDPR ,在未來的大規模資料科學計劃中,律師和專門負責處理隱私的工程師將會成為資料科學計劃的核心成員。


Cookie 消失?試試看全新 AI 影像內容辨識:讓用戶看的內容決定看到的廣告

Google Chrome 即將淘汰幫助廣告主的工具—— Cookie ,它的離去將再一次地影響數位廣告產業。
評論
Photo Credit:<a href="https://www.shutterstock.com/zh/image-photo/ai-artificial-intelligence-big-data-internet-1075853384" target="_blank">shutterstock</a>
評論

透過GA分析進站者發現, Safari的新客數越來越多,難道這表示 iOS 的用戶數也跟著增加了嗎?注意了,這有可能是 Apple 封鎖第三方 Cookie 帶來的影響。隨著 Google 即將淘汰 Chrome 上的 Cookie ,這個幫助廣告主記住用戶受眾的小工具,將要再一次地影響數位廣告產業。

Photo Credit:驚點股份有限公司( FreakOut Taiwan )

後 Cookie 時代的廣告受眾如何鎖定?

各大廣告平台在過去幾年不斷地透過 Cookie 以及其它方式,悄悄收集使用者的用戶數據,隨著這幾年用戶的隱私權意識抬頭, Apple 與 Google 對於藉由 Cookie 辨識用戶資料的廣告投遞方式,持有不同的態度,這也將是所有廣告主的極大挑戰。當 Cookie 不復存在,要如何辨識使用者資料?

Cookie 消失了,或許會有新的數據辨識工具來取代,但是任何試圖跟蹤受眾的方式,都難以符合大眾對於保護隱私權的期望。另一方面,也極有可能無法再通過日趨嚴格的媒體監管限制。無論如何,數位廣告不能像過去一樣,無條件地使用類似 Cookie 的追蹤方式,來達到與現在同樣的廣告效果。

後 Cookie 時代內容辨識類型的廣告鎖定方式,將成為未來具指標性的投放策略。廣告與瀏覽平台或內文主題的高相關性,不僅能顯著提高受眾的互動度,更重要的是,完全不需要收集任何個人數據。

FreakOut Taiwan 不斷嘗試更友善的廣告投遞形式, 自 2016 年進入台灣市場的原生廣告,到 2020 年末引進「 Mirrors 」 AI 影像視覺內容辨識系統,都是以網路使用者的角度出發。「 Mirrors 」不需要使用傳統的受眾興趣設定,即可針對「目標受眾在觀看的影像內容」、「品牌自身競爭對手或相關指定系列產品出現的影片」來投遞 YouTube 上的影音廣告。

Photo Credit:驚點股份有限公司( FreakOut Taiwan )

AI 人工智慧影像技術突破,推動新一代內容辨識功能

傳統的內容比對廣告皆為自然語言處理 NLP 中心,基於「純文字」的比對來顯示相關廣告,如大家很熟悉的 Google AdSense 。但是,結合新興的 AI 演算和複雜的圖像辨識,已然能夠達到「影片」的內容偵測,透過增加多個比對層和基於自然語言處理 NLP 的基準定位,可深度學習並提供更精細的辨識洞察力。

舉例來說,若想要將汽車廣告投放給對汽車有興趣的人,我們要先從可能對汽車感興趣的受眾中開始推估,並且根據過去的經驗加入不同的興趣條件,最後針對素材更進一步地測試。透過 Mirrors ,我們可以讓廣告出現在有滿足特定條件的影片內,例如:在消費者觀看的影片中,出現汽車評測報告、自家品牌或競爭對手的 LOGO 、代言人等指定條件,再依照不同廣告主設定的預算判斷是否露出廣告。

藉由這樣的影像比對方式,可以更有效地根據消費者行為觸發廣告投遞條件,而不再是現行的用戶受眾數據。人的興趣是多樣且多變的,當對汽車有興趣的用戶在完成汽車的選購後,短期內將不會再瀏覽相關資訊,轉而瀏覽其他更具時效性的內容。透過消費者當下正在觀看的影片內容,取代消費者身上被貼上的數位標籤,將更貼近消費者本身的使用行為。

Photo Credit:驚點股份有限公司( FreakOut Taiwan )

Mirrors AI 影像辨識:用消費者看的內容決定廣告

2021 年台灣數位報告指出,台灣人在各網路內容服務中,最愛「網路影片」的比例高達 97.9%,遠超過 Vlog、串流音樂、網路廣播、Podcast 。

影音廣告早已是品牌經營的趨勢:根據 DMA 2019 年台灣數位廣告量統計報告指出,台灣各類型廣告中,影音廣告以 37.2% 的成長比例大幅領先奪冠。其中 YouTube 持續蟬聯台灣最常被造訪網站第 2 名(僅次於 Google ) ,在台灣各大影音平台中的觸及率及影響力不容小覷。

2021 年 FreakOut Taiwan 已與客戶合作,進行搭載新系統的 YouTube 串流內廣告投遞,在針對品牌及產品客製化的多層鎖定策略建議下,房地產廣告的 CTR 表現高於平均,並發現「人臉」群組辨識表現為佳,其中多為財經、名嘴等名人。而美妝品牌廣告 VTR 表現優異,則以品牌「 Logo 」、「人臉」群組有最出色的表現。

本文章內容由「驚點股份有限公司( FreakOut Taiwan )」提供,經關鍵評論網媒體集團廣編企劃編審。