Facebook 直播如何撐起瞬間 80 萬人的流量?

知道怎麼打造世界級散佈式服務(distributed service)的公司,可能比擁有核武的國家還少。Facebook 不僅是其中的佼佼者,而它新推出的直播功能就是一項散佈式服務。
評論
評論

原文來自《How Facebook Live Streams To 800,000 Simultaneous Viewers》,Inside Mia 獲授權編譯。

知道怎麼打造世界級散佈式服務(distributed service)的公司,可能比擁有 核武 的國家還少。Facebook 不僅是其中的佼佼者,而它新推出的直播功能就是一項散佈式服務。

Facebook 執行長 Mark Zuckerberg 就曾經說過:

我們做了重大決定,就是把在影片的努力轉而聚焦到直播上,因為它是接下來的新格式,而非已經存在線上 5 -- 10 年的那種影片。我們正進入影片的新黃金年代,我相信往前快轉 5 年,很有可能 Facebook 上使用者每天分享的內容幾乎都是影片。

如果你在廣告業,還有什麼比沒有盡頭、一直在成長,而且免費產生的內容更適合拿來放廣告呢?這就像 Google 在網路指數成長時,為各網站提供廣告所開拓的市場一樣。

Facebook 的直播技術堅強,就像 BuzzFeed 在 Facebook 直播用橡皮筋爆西瓜,最高達 80 萬人同時在線上收看,共有 30 多萬條留言。這也是在 15 億使用者的社群網路上才看得到的病毒傳播效應。

作為參考, 2015 年的超級盃共有 1.14 億觀眾收看,平均有 236 萬人在看直播;2015 的 E3 電玩展則同時有 84 萬人在 Twitch 上收看;而 9 月 16 日的共和黨辯論最多有 92.1 萬人同時在收看直播。

與此同時, Facebook 上還有其他大量的直播正在發生。那麼 Facebook 到底投注了多少資源在直播上呢?

根據 Facebook 的產品長 Chris Cox 在 Wired 報導上提到:

有超過百人在直播底下工作。一開始在 12 人左右,到現在已經有超過 150 名工程師。

要能同時處理上百萬條直播而不當機。

要能負擔一條直播上的數百萬位觀眾,還要在全球不同的裝置和網路提供商間無縫同步播出。

Cox 也承認「結果基礎架構的問題真的不好解決。」

要是我們能知道這些基礎問題是怎麼解決的,應該會很有趣。

Facebook 流量團隊的 Federico Larumbe,就在 Facebook 技術部落格上發表了《Scaling Facebook Live》,裡面提到了直播運作的細節。

原文相當精彩,重點節錄如下:

起源

  • Facebook 開了一個新功能,讓使用者能分享即時影片。(注意,在這裡直播對 Facebook 來說就是一個功能而已)
  • 2015 年 4 月只能透過 Mention app 直播,而且限定名人專用。
  • 隨後便展開長達一年的改進與協定的變動。
    • 他們從 HLS(HTTP Live Streaming)開始,iPhone 可支援,而且他們也可以使用現有的內容傳遞網路。
    • 同時開始研究 RTMP (Real-Time Messaging Protocol,即時訊息傳送協定) ,這是一種基於 TCP 的協定。分別有一條音訊串流和視訊串流從手機傳送到直播伺服器。
      • 優點:RTMP 在直播主和觀眾間點對點的延遲較低,在互動式的直播上特別有幫助。降低延遲也能提升整體的體驗。
      • 缺點:因為不是基於 HTTP,所以需要全新的架構。要規模化一定要架個新的 RTMP 代理。
    • 另外也研究了 MPEG-DASH(基於 HTTP 的動態與適應性媒體串流)
      • 優點:比 HLS 省 15% 的空間。
      • 優點:自動調整傳輸率,會根據網路狀況改變傳輸品質。
  • 2015 年 12 月在數十個國家展開服務。

直播影片很特別,也帶來許多問題

  • 拿一開始的西瓜影片流量表現為例:
    • 在一開始流量上升得很快,數分鐘內就達到每秒超過 100 個請求,直到影片結束都持續上升。
    • 影片一結束流量就直直落。
    • 簡而言之:瞬間流量很大。
  • 直播影片和一般影片不一樣:它會產生瞬間流量。
    • 直播影片和觀眾的連結更深,所以通常觀看次數比一般影片多 3 倍。
    • 直播影片會被推到資訊牆最上方,所以被看到的機會也比較高。
    • 專頁的所有粉絲都會收到直播通知,又吸引到一批可能會來看影片的觀眾。
  • 瞬間流量會對 cache(暫存)系統和負載平衡系統造成問題。
  • Cache 的問題
    • 很多人同時想要收看你的直播,導致經典的「驚群效應」(Thundering Herd problem),大量等待中的處理程序同時被喚醒,卻只能一次處理一項。
    • 大量瞬間流量會對 cache 系統造成壓力。
    • 一部串流影片被分割成很多一秒的小檔,流量飆高時,暫存這些分割檔的伺服器可能會超載。
  • 全球負載平衡系統的問題
    • Facebook 在全世界都有分布 PoP ,Facebook 的流量是分散到全世界的。
    • 所以挑戰在於避免瞬間流量灌爆其中一個 PoP。

整體架構

這裡是直播如何從直播源散佈給上百萬觀眾的過程。

  • 直播主從手機開了一條直播。
  • 手機傳了 RTMP 串流到直播伺服器。
  • 直播伺服器解碼影片後轉換成各種傳輸率的影片。
  • 每種傳輸率都創造一組 MPEG-DASH 的連續數個一秒鐘片段。
  • 這些片段都存在資料中心的暫存裡。
  • Cache 暫存從資料中心傳送到各個 PoP 暫存。
  • 觀眾收到直播。
  • 觀眾手機上的播放器以每秒一次的頻率開始從 PoP 接收片段。

要怎麼規模化?

  • 從資料中心到 PoP, 端點數會增加 非常多。使用者會存取 PoP 暫存而非資料中心暫存,而 PoP 是分佈在全世界的。
  • 另外 每個 PoP 內部還會再細分
    • 每個 PoP 內部都 分成兩層 :一層是 HTTP 代理,另一層是暫存。
    • 觀眾從 HTTP 代理請求片段。代理會檢查片段有沒有在暫存裡面,有的話就會回傳片段,沒有的話就會往回向資料中心請求片段。
    • 不同的片段存在不同的暫存, 所以能讓不同的 host 負載平衡。

保護資料中心免於驚群效應

所有觀眾同時要求同一個片段會發生什麼事?

  • 如果片段不在暫存裡,每個觀眾都會向資料中心發出一筆請求。
  • Request Coalescing(回應聯合)。 透過在 PoP 暫存增加 request coalescing 來減少請求的數量。只有第一個請求會傳到資料中心,其他的請求會被攔下,直到第一個請求到了資料中心,然後資料回傳到所有觀眾手上。
  • 代理會加上一層新的暫存,來避免伺服器過熱。
    • 所有的觀眾會被送到一台暫存 host 去等待接收,這可能會導致 host 過熱。
    • 代理加了一層暫存層。 只有第一個到代理的請求會成功要到暫存。其他的請求會直接由代理處理。

PoP 還是身陷險境:靠全球負載平衡來拯救

  • 所以資料中心免於驚群效應的問題,但是 PoP 還是暴露在危險中。問題在於,PoP 的負載衡量結果到達負載平衡器之前,流量可能就已經灌爆 PoP 了。
  • 每個 PoP 都有限制伺服器和連線的數量。瞬間流量要如何不灌爆 PoP?
  • 一個叫做 Cartographer 的系統會描繪網際網路到 PoP 的子網路。它會衡量每個子網路和 PoP 間的延遲。
  • 測量每個 PoP 的負載後,每位使用者就會被傳送到附近能夠負載的 PoP 。代理有計數器會記錄他們收到多少負載。這些計數會累計,所以我們可以知道每個 PoP 的負載。
  • 現在現在出現了一個最佳化問題,我們要在負載限制下同時降低延遲。
  • 用控制系統,可以分為測量的延遲和反應的延遲。
  • 他們把負載測量間隔從 1.5 分鐘縮短到 3 秒鐘,但是這樣仍舊有 3 秒鐘的空窗。
  • 解決辦法是 在發生之前先預測負載
  • 依據先前及當下的負載, 負載估計器 會預測未來的負載量。
    • 如果現在的流量是上升,預測器要怎麼才能預測到流量下降?
    • 在插入函式 使用三次樣條函數(Cubic spline)。
    • 利用一階和二階導數。如果速度是正的,那負載量就會增加,如果加速度是負的,就表示速度下降,最後負載會開始降低。
    • 三次樣條函數能預測比線型函數更複雜的流量模式。
    • 避免波動 。這個插入式也可以解決波動的問題。
    • 測量和反應的延遲,表示會依據不夠及時的數據做決定。插入式函數能減少錯誤,讓預測更準確,並降低波動。所以負載量能更接近目標。
    • 現在是根據過去的三個區間來做預測,每個區間間隔 30 秒。幾乎是等於即時的負載量。

測試

  • 首先你要能讓一個 PoP 過載。
  • 負載測試分散在全球的 PoP 上,好模擬直播的即時流量。
  • 要能模擬目前負載量的 10 倍。
  • 要能模擬一位一次請求一個片段的觀眾。
  • 這個系統能找出並修補負載估計器的問題、調整參數,並驗證暫存層能否克服驚群效應。

上傳的穩定性

  • 即時上傳影片很有挑戰性。
  • 舉一個頻寬介於 100 -- 300 Kbps 的上傳為例。
  • 音訊總共要 64 Kbps。
  • 標準畫質的視訊共要 500 Kbps。
  • 利用手機上的適應性編碼來調整音訊加視訊的不足。影片的傳輸率編碼會根據網路頻寬調整。
  • 手機端會測量 RTMP 上傳位元,來決定上傳的傳輸率,並且根據上個區間的平均來加權。

未來的方向

  • 研究推送機制,而非 request-pull 機制。在請求片段之前就利用 HTTP/2 推送至 PoP。

相關文章

On HackerNews

Scaling Facebook Live

Why Facebook And Mark Zuckerberg Went All In On Live Video

Connecting the World: A look inside Facebook’s Networking Infrastructure

Gamoloco tracks live video stats for 1476093 channels.

 

 

 


讓 AI 成為顧客的美鞋顧問!awoo AMP 讓 Ann’S 女鞋創造超過 3 倍電商轉換率的秘訣

女鞋品牌Ann’S 結合 awoo AMP 的各種創新優勢,以數據結合 AI 優化的方式調整行銷策略,帶來更多網站及產品流量,創造電商轉換率超過 3 倍的秘辛解析。
評論
photo credit:阿物科技
評論

Ann’S 女鞋品牌於 2003 年成立,打造內外兼具、舒適又好看的美鞋,也開發不少獨家設計款,深受女星、部落客、模特兒等名人的喜愛以及消費者的支持。目前旗下商品除流行美鞋、手工婚鞋、各種包款,也將產品範疇延伸至居家用品、生活小物等,多達近 2000 種品項。而 Ann’S 的銷售渠道從實體門市、電商官網到官方 APP ,致力於讓消費者能擁有超個人化的購物體驗。然而在近 2000 種的豐富品項中,如何讓每個消費者都能以優質體驗找到最適合自己的鞋子,成為 Ann’S 最關心的任務,也是與 awoo 合作的契機。

商品分類再優化,Ann’S 女鞋以數據為本串連消費者喜好

「官網內有上千個商品,如何分類才能讓消費者輕鬆購物?」網站商品琳琅滿目,從各種鞋款、包包到居家生活小物等近 2000 筆, Ann’S 雖已做好完善的商品分類,但過去多仰賴行銷人員的市場經驗來判斷。此外,面對日趨複雜且破碎化的消費者行為與偏好, Ann’S 也希望能根據真正消費者與進站用戶的購物偏好,以數據為本進行敏捷式調整,讓行銷策略變得更加精準,驅使消費者輕鬆買單。

awoo AMP 中的 SEO 自動化、站內搜尋優化、豐富的商品推薦版位、 Pop-up 促進轉換等功能,會強化顧客旅程中每個接觸點上商品與顧客的連結,提供個人化的購物體驗。 Ann’S 表示:「品牌自行產生很多分類目錄,非常花時間、也易讓網站變得凌亂。搭配 awoo AMP 功能,可以讓消費者更快速方便就能配對到喜歡的產品方向,同時也對 SEO 有所幫助。」

利用 SEO 自動化,提高搜尋引擎滲透度,網頁收錄數增加 7 倍

電商行銷佈局從消費者意圖出現的時候就已經開始,第一步就是要讓有明確意圖的消費者更容易進站購物!awoo 獨家 SEO 自動化技術「自動化商品集合頁 awoo Page」能透過 AI 自動生成對搜尋引擎友善頁面,提高搜尋引擎滲透度,同時加強網站權重,不僅奠定優質的流量基礎,也提升頁面排名以及增加工作階段。

透過上述技術, awoo Page 為 Ann’S 網站新增多個入口,網頁收錄數增加高達 7 倍,也讓有明確購物需求的潛在消費者能夠更容易搜尋到 Ann’S 的商品,並且直接進入商品集合頁找到想要的商品,甚至在疫情期間補足受影響的全站流量。相較於系統串接前,分類頁的流量提升 18.48%,而產品頁的流量更成長 31.74%。

透過 AI 優化站內搜尋、商品分類與推薦機制,提升消費體驗同時提高平均訂單價值、電商轉換率大增 2 倍

不同消費習慣,電商行銷策略也大不同!針對有較明確意圖的消費者, awoo AMP 會進行自動特徵提取,包含關鍵字集、行為特徵、頁面特徵,分析像是「真皮 足弓 鞋」、「尖頭鞋 沙發後跟」及「彈性 襪靴」這類較具有明確意圖的購物情境標籤,分析出消費者意圖後進而推薦符合需求的商品。

另外 Ann’S 也觀察到尚未有明確購買意圖的族群,則最常點擊「人氣商品推薦」及「本週新品」這兩種分類頁。針對這群消費者, awoo AMP 會自動生成各種吸引人的商品標籤,提高進站用戶的興趣及購買意願。也就是說, Ann’S 原先的商品分類,搭配 awoo 商品標籤自動化及自動生成情境商品集合頁的 awoo Page 功能,能讓 Ann’S 女鞋的商品組合能見度最大化,除了吸引更多流量,也創造更多轉換。

採用 awoo AMP 後, Ann’S 電商網站內的受眾較多以點擊 awoo 標籤的形式去瀏覽相關商品,就像我們平常在實體店面逛街一樣,服務體驗好,提袋率就高,平均工作階段時間長度成長 280% ,而用戶點擊 awoo 標籤進行購物的流程所產生營收也最高,不僅電商轉換率增加 2 倍,其中 awoo pop-up 商品推薦功能所帶來的轉換率更是超過全站的 3 倍。

Ann’S 女鞋的銷售渠道從實體門市、電商官網到官方 APP,致力於讓消費者能擁有超個人化的購物體驗,透過阿物科技 awoo AMP 一站式 AI 行銷平台, Ann’S 也獲得亮眼的電商銷售成績,除了持續優化站內購物體驗,更讓 AI 成為顧客的專屬美鞋顧問!



關於阿物科技

awoo Intelligence 阿物科技是以 AI 驅動的 MarTech 在地新創,首創以產品為中心,深度了解消費者意圖的預測模型,推出台灣第一個全通路 AI 行銷自動化平台,提供超過 20 個功能與服務的 SaaS 模式,涵蓋流量獲取、轉換優化、再行銷、會員留存與數據加值應用,協助零售與電商打造全通路無縫接軌的超個人化用戶體驗。阿物科技目前於東京、嘉義與台北皆設有營運據點,服務超過 16,000 名企業用戶,專業 AI Lab 更配置 30 位菁英成員,致力協助客戶達成商業目標。如需更多資訊,請至阿物科技官網

想了解關於 awoo AMP 產品,歡迎聯絡我們,或 email 至 [email protected]

本文章內容由「阿物科技」提供,經關鍵評論網媒體集團廣編企劃編審。