免寫程式!Google 最新神計畫,用鏡頭 3 分鐘就懂機器學習!

Google 最新推出了「Teachable Machine」,讓使用者無需寫程式就可以用手機、平板、電腦等設備的鏡頭採集資料進行機器學習,只要設定輸出和三個訓練分類器,就能訓練新的神經網絡!
評論
評論

本文來自合作媒體 雷鋒網 ,INSIDE 授權轉載

得益於各種套件,今天的機器學習的門檻已經越來越低。但 Google 顯然並不滿足於此,其最新推出了「Teachable Machine」,讓使用者無需寫程式就可以用手機、平板、電腦等設備的鏡頭採集資料進行機器學習。這個計畫是 Google 的 A.I. Experiment 的一部分,其原始碼已經公佈在 Github 上。

簡單的說,Teachable Machine 是一個基於瀏覽器的機器學習演示實驗,用一個叫做 Deeplearn.js 的庫構建,網頁開發者可以編寫一個簡單的視覺輸入,並設定輸出和三個訓練分類器,來在瀏覽器中訓練新的神經網絡。雖然在這次影片演示中 Google 沒有詳細說明更深一步的機器學習工作原理,但足以讓大多數人對機器學習有一個最基礎的概念。

如下圖所示,在網頁中可以使用鏡頭獲得不少於 30 幅的圖像訊息,作為訓練的「輸入」;中間的學習框包括三個分類器,用 Green、Purple、Orange 表示,機器通過對你做出的動作進行學習,從而「學會」對相應動作進行識別;最後是輸出部分,分類器根據不同的輸入,按照訓練結果進行分類給出最右側的輸出結果。

首先訓練 Green 分類器,如圖所示,訓練者抬起手,按下「Train Green」按鈕,鏡頭自動生成了一個包含若干個抬手圖片的訓練集。我們可以看到,分類器可以 100% 識別出抬手的動作並將其與貓關聯。

類似可以訓練其他分類器,例如放下手訓練 Purple 分類器並對應到狗的輸出。

然後我們就可以開始測試機器了:如果你半舉手,機器認為你有 64% 的可能是抬手,35% 的可能是不抬手,對應仍然輸出貓;

如果我們舉起另一邊手呢?機器雖然沒有見過你舉起另一邊手的圖片,但是還是能 100% 確定應該輸出貓。

輸出可設定為圖片、聲音或者語音,開發者可以很方便將這些輸出調換稱自己所需要的素材。

對於那些對機器學習還不熟悉讀者來說,這個計畫可以直觀的展示解機器學習的基本概念。這計畫運行在基於 JavaScript 的 deeplearn.js 框架上,可以在大多數硬體(但據了解還不支援 iPad Pro)的大多數瀏覽器中順暢運行。

完整的影片演示在這裡:

看了那麼多,你是否已經迫不及待要去試一下了呢?感興趣的讀者可以在 Github 上查看原始碼:https://github.com/googlecreativelab/teachable-machine,自己動手試一下吧!