
迎 AI 2.0 浪潮!鴻海研究院攜手 AIF 匯聚專家學者探討多模態基礎模型

Midjourney、ChatGPT 應用引發討論,鴻海研究院攜手人工智慧科技基金會、臺灣大學人工智慧技術暨全幅健康照護聯合研究中心舉行 2023 年第一場 NExT Forum,從 AIGC 到本季引起廣泛關注的 ChatGPT 話題不斷,今日論壇上便將主題定為多模態基礎模型探討 AI 2.0 的發展。
基礎模型(Foundation model)指的是,透過大量數據訓練出能執行多種不同任務的模型(通常有規模的使用自監督式學習),例如 GPT-3、BERT、PaLM 等,都屬於之。而多模態基礎模型(Multi-Modal Foundation Model)包含了視覺、語言及語音三大模態,今日論壇專家學者齊聚共同討論其對台灣、 AI 產業帶來的挑戰與機會。
專家學者齊聚一堂探討多模態基礎模型的 AI 2.0
國立臺灣大學人工智慧技術暨全幅健康照護聯合研究中心陳信希主任開場向觀眾概覽大型語言模型的崛起,草期機器學習重視特徵選取,再到深度學習重視架構;語言模型:預訓練-精煉架構,著重目標的選取;至於大型語言模型則是預訓練-提示-預測,著重提示的選取,最大的進展是從特徵工程到提示工程。降低了人工智慧基礎模型的開發障礙,就算不是 CS 背景者都能跨入,用 AI 來解決問題。
陳信希認為大型語言發展提供解決問題新的模式,降低開發門檻,基礎模型提供系統開發便利環境,如何想出創新的應用對子將是關鍵。AI 越來越看得懂聽得懂,除了近來備受討論的大型語言模型(LLM),語音、電腦視覺、智慧雲端、對話式人工智慧、多模態 AI 系統都是背後重要技術,值得大家持續關注。
華碩雲端暨台智雲總經理吳漢章提到 ChatGPT 引爆 AI 2.0 的現象,大型語言模型(LLM) 讓大家再度擁抱人工智慧趨勢,除了大型語言模型,值得關注的議題包含計算基因組學和高保真數位分身(digital twin),不論如何仍有許多待解的問題,比方算力就是其一。如今運算這些 AI 大型模型所需要 GPU 為算力核心的 AIHPC。
目前三大雲技術上適合多租戶下虛擬環境統一,然而當前 AI 2.0 則是單一租戶就需要非常大算力的 HPC 架構,盤點目前全球前百大 HPC 共有 25 座為商業目的,大型石油公司擁有的7 座、俄羅斯擁有的 5 座、NVIDIA 自有的兩座 ,美國有 4 座、三星電子一座、SKT 一座、歐洲兩座、UAE —座、台灣一座是台灣衫二號,事實上,真正能讓商用客戶使用到的 AIHPC 算力稀缺。
台灣衫二號 AI 超級電腦就是 AI 2.0 技術加速器,並非 Hyperscalers 模式,可透過 Web 低成本取得資源,門檻較低,由台灣民間企業合作進行商業營運開發,更高的應用彈性。
上週聯發科技、中研院、國教院攜手發表全球首個繁體中文大型語言模型 BLOOM 比目前開源可用的最大繁體中文模型大 1,000 倍,所使用的訓練資料也多 1,000 倍。吳漢章分享台智雲目前進展提到,BLOOM 這樣 GPT3 同級的大型語言模型也已在台灣衫二號實踐。
目前 BLOOM 參數達 176B,無法在任一 GPU 上直接訓練,需精準分割模型並有效率地分散式訓練;176B 模型訓練與推論已可在 TWCC 上運行。
吳漢章認為,AI 2.0 不會仰賴像是 Open AI 單一家公司,而是更豐富的多模態基礎模型探索,許多 B2B 需要找到更多符合自己需求的解決方案,也期望和更多夥伴共同打造更具開放性的 AI 2.0,支援梗多具有開放性的語言模型、基於不同模型發展基礎模型(Foundation Mode)並與客戶共同協力跨領域的應用場景。

Photo Credit:Anny
非營利研究與科技公司鴻溝更大 學者呼籲:真正開放的 AI
AI 大神圖靈獎得主 Yoshua Bengio 領導的 AI 實驗室 MILA 教授 Dr. Irina Rish 發表演說,Towards Genuinely Open AI 分享機器學習、神經數據分析所啟發的人工智慧,她提到 AI 不只能贏得圍棋比賽的冠軍、如今能行多工任務處理,在自動化系統,讓更多經濟體可以受益於此,然而在實際的應用仍有挑戰。過去尤其在深度學習上受到特定領域的資料訓練,系統性的泛化能力,像是自動駕駛車就會受到不同環境駕駛的影響,AI 醫療影像辨識上完成的訓練系統只能用在某些特定疾病。
Irina 提到所有不同的任務的 AI 泛化(generalization)與分布外泛化(Out-Of-Distribution Generalization)、領域自適應 (Domain adaptation) 、元學習(Meta-learning)、遷移學習(Transfer Learning)、持續學習(Continual Learning) 相關,即便是環境中的數據發生了變化,在理想情況下,盡可能地更為耐用。
近期的人工智慧實現真正的泛化系統,具有革命性意義。從本質上來說,增加模型大小和訓練的數據量,同時使用相對簡單或通用的架構,與此同時在還能更便宜的成本取得資源,在演說中她以論文研究解析預訓練模型機會與挑戰。

Photo Credit:INSIDE Anny 攝
Irina 也站在學術界的角度呼籲,如今在各種的競爭對手,包含 Google 、微軟、Meta 等陸續浮現下,在這波浪潮中,擁有最大電腦算力者將受益最大,然而目前算力都由大型科技公司所擁有,學術界與非營利研究的差距將會擴大。
有鑑於大規模運算資源將極大地促進全球開放 Al 研究的發展,因此 MILA 的目標是發展廣泛的國際合作,建立越來越強大的基礎模型,同時安全、強大和符合人類價值觀,能作為不同領域 AI 應用的基礎,避免只在大型科技公司累積先進的 AI 技術,推進開源的 AI,朝 Al 民主化邁進。
核稿編輯:Jocelyn
加入 INSIDE 會員,獨享 INSIDE 最精采每日趨勢電子報,未來還有會員專屬內容。 點擊立刻成為會員!
延伸閱讀:
- 全球首款繁中 AI 語言生成模型開源釋出!聯發科技、中研院、國教院攜手打造
- 微軟再發新 AI!多模態大型語言模型 「Kosmos-1」可辨識分析圖像
- OpenAI:請為強人工智慧的可能到來做好過渡規劃,以免措手不及
最新發展: