科技部 AI 計畫太浮濫?錯!案子還不夠多呢!

「自動化流程」與「系統建置」沒有 AI 應用空間?嗯,這可能是誤會了什麼。
評論
評論

日前 曾有媒體撰文 ,認為科技部「AI 創新研究中心專案計畫」初步審核太容易,許多案件主持人都沒具備 AI 能力還能通過;不僅如此,也指出該計畫淪為台大前校長楊泮池的「人頭帳戶」。

關於這篇文章指出學術綁樁的部分,INSIDE 不是執法機構,手上也沒有搜集證據,自然不能判斷是否真假;但此文背後批判該計畫過於空洞、缺乏創新的地方,卻有很大的可議之處。不過在進入本文正題之前,讀者們可以先看《AI 時代,如果你家有兩個小孩,一個出國賺錢,另一個把家裡照顧好》這篇文章,然後來思考一下,這到底是夠不夠聚焦,還是給不給學者們有所累積,並容許嘗試空間的問題。

經 INSIDE 去電確認,「AI 創新研究中心專案計畫」共投案 538 件,經初步審核有 131 件通過第一階段,入選率大概四分之一。看到這裡,讀者會覺得這個數量很多嗎?筆者卻認為:這還不夠多呢!來看看 Google 自己曾訓練了 5000 位工程師去學深度學習,然後一人提一個,總共提出了 5000 個 AI 計畫。但這裡面有用的多少個呢?不到 10 個。就連世界頂尖的科技公司數字都這麼低,正證明了現在是學界產業界大家都知 AI 很重要,但沒人該知道怎麼做,需要不斷嘗試、犯錯與積累的時代。話說回來,科學不正是這種精神的產物嗎?

那些批評者是有多天縱英明?難道每個人都可以知道未來 AI 發展的標準答案,好像研究不需要犯錯,一切都可以照著計劃做就可以成功?這可不是高中科學實驗,每一個 AI 的研究計畫都在努力的把人類的知識往前推進一點點,當然可能失敗,甚至是注定犯錯,注定「浪費」,但是沒有這些投資,又怎麼有機會出現只屬於我們自己的新發展?

你或許會想問:這些都是納稅人的錢啊!怎麼能不好好審核呢?但反過來從應用面來看,這也正是任何計畫,任何事情都可以用機器學習試試看的時刻。所以另一個真正需要關注的大問題就是:怎麼鼓勵這些學術研究計畫使用現成的 AI 技術,去突破現有成果?不管是科技部官方還是民間也好,是不是該有人推動,去把這些沒被「AI 創新研究中心專案」選上,屬於應用類的計畫,讓他們思考怎麼用 TensorFlow、Torch、Caffe 呢?若這些資料都符合研究範疇,且經過嚴謹的去識別化,那這不就是更快速、有效且經濟的途徑嗎?

像名單中有不少是 AI 圖像辨識技術,用以協助診斷的計畫。圖像辨識可說是目前深度學習發展最迅速的領域之一,這部分 Google 自己就有不少成果 ,像糖尿病視網膜病變、淋巴結中的乳腺癌轉移瘤都能透過這種技術有效提升診斷率。像這種醫療結合 AI 的運用,可說就是台灣具有穩健基礎的強項,可說是鼓勵推動都來不及了;而且說實話,用類神經網路判別心電圖早在三十年前就在做,但現在卻是技術高度突破,需要再度被驗證的時刻啊!

當然, 這份入選名單 不是沒有可議之處,我們可以看到台大電機系于天立、中正資工系丁川康各自提了「人工智慧的社會倫理法律研究」、「人工智慧之倫理學」。重要嗎?當然很重要,如果號稱準確率 100% 的 AI 醫生有一天誤診了,問題出在哪?是那些可能帶有偏頗條件的演算法嗎?還是被駭客入侵的?那又要該由誰負擔法律與道德責任?又如果 AI 大量取代了人類勞動力,我們該設計什麼樣的社會機制去面對?

這裡不是要質疑于天立、丁川康兩位教授的專業,但這種大哉問的計畫應該有更多法律、政治、社會等專業學門提出(註:請看文章最下方更新);此外「結合 AI」也不是理科的專利,社會科學、商業學門也都有很多應用數位工具,等待 AI 技術導入來提升效率。(君不見美國律師 AI Rose、台灣智慧法學資料庫 Lawnote?)

最後該文最大的問題,應該就是台大賴飛羆「電腦架構自動化流程及系統建置」部分了。「自動化流程」與「系統建置」沒有 AI 應用空間?嗯,這可能是誤會了什麼。

22:02 更新:中正資工系丁川康教授已來信向 INSIDE 說明,科技部計畫審查結果僅會顯示「計畫主持人」名稱,並不會顯示「共同主持人」。該計畫「人工智慧之倫理學」由丁川康與中正哲學系謝世民教授(也是哲學學門召集人)共同主持,並且會跟資工系、哲學系、心理系、法律系的教授和研究生進行研究與討論。同樣于天立老師也是和法律系的教授共同進行「人工智慧的社會倫理法律研究」。特此說明。

延伸閱讀: