Google 將開放少量客製化 TPU 提供租用,加速人工智慧等深度學習應用成長

評論
評論

本文來自合作媒體 Mashdigi,INSIDE 授權轉載

Google 在去年推出第二代客製化 TPU (Tensor Processing Unit) 處理器,並且應用在 TensorFlow Research Cloud 服務且開放申請使用之餘,事實上並未直接提供租用 TPU 運算資源。而在稍早聲明裡,Google 表示將以少量形式向 Google Cloud 雲端服務用戶提供 TPU 運算資源租用服務,並且以每小時 6.50 美元價格提供使用。

相比多數深度學習加速器是以多組繪圖卡或多組處理器建構而成,Google 從 2016 年推出第一款客製化 TPU 處理器,到去年推出的第二代規格,幾乎去除深度學習等應用非必要的 I/O 埠等設計,強調加入更高邏輯推理效率與深度學習應用,同時件構成的每組 Cloud TPU 約可發揮 180TFLOPS 運算效能表現。

Google 表示,相比採用 32 張現行最好的商用 GPU 構成加速學習模式仍須花費一天左右訓練時間,透過第二代 TPU 設計僅需體積僅為八分之一大小的單一機架叢集 (Pod) 以一個下午時間即可完成訓練。

而在去年宣布推出第二代 TPU 設計時,Google 也同步宣布推出以 1000 組 Cloud TPU 運算叢集構成的 TensorFlow Research Cloud 服務,並且將以免費形式開放各類深度學習研究申請使用。而在稍早對外聲明終,才確定將以少量形式向 Google Cloud 雲端服務用戶提供 TPU 運算資源租用服務,並且以每小時 6.50 美元價格提供使用,讓用戶端能依照自身需求藉由 TPU 運算能力進行快速推演、學習。

對外開放租用 TPU 運算資源,意味 Google 將使雲端服務用戶能有更多選擇,不一定僅能仰賴 NVIDIA、AMD 或 Intel 等廠商提供顯示卡與處理器,同時整體建置成本也能相對降低許多,同時獲得更快的運算效能。

不過,從先前不少對於深度學習應用模式,導入 TPU 的運算效率雖然可以很快,但不見得能帶來最大優勢,最主要還是看學習模型與實際應用,並不見得透過繪圖卡、處理器進行運算的學習模式就不好,畢竟以 TPU 的設計來看,僅能以 TensorFlow 學習模型進行訓練。

相關文章

評論