和波士頓動力較勁!MIT 四足機器人在「盲目狀態」就可爬樓梯、抵抗人類

近日麻省理工學院 (MIT) 研發出最新款機器人有波士頓機器狗的既視感,不過這其中最讓人驚豔的是,這隻機器人並沒有任何視覺感應器或鏡頭,等同於一個「盲人」的狀態!
評論
評論

先前出鏡率超高波士頓動力機器人展現出的驚人平衡力讓人印象深刻,近日, 麻省理工學院 (MIT) 研發出最新款的四足機器人從外觀上有波士頓機器狗的既視感,從影片中可以看到,MIT 這款 Cheetah 3 機器人可以展現出不同運動方式,從慢速跑到加速、彈跳運動、三腳走路、適應戶外地形,甚至可以行走在充滿碎片的樓梯,即便受到人類拉扯和突襲都能處之泰然,不過這其中最讓人驚豔的是,這隻機器人並沒有任何視覺感應器或鏡頭,等同於一個「盲人」的狀態,卻可以完成許多高複雜性的任務!

為什麼要做成「盲人」呢?其實團隊希望打造無需借助視覺辨識機器人來協助災區環境,災區環境對救助者來說最大問題之一就是環境可見度非常差,若用既往的視覺感應系統在環境中將無法發揮作用,機器人也因此失能。MIT 所用上的是觸覺感應技術,讓機器人能更快做出反應,讓 Cheetah 3 可以「盲目地」爬上障礙遍佈的樓梯和非結構化複雜地形,面對外界力量干擾也能時快速恢復平衡。

與前幾代相比團隊透過兩種新的算法-「接觸檢測算法」和「模型預測控制算法」來克服無視覺感應功能。舉例來說,接觸檢測算法讓機器人可以確認雙腿從空中擺動切換到地面踩踏的最佳時間,另外,當機器人踩踏質地不同(樹枝或岩石)又會是不同反應 。

這項研究部分得到了許多支持,包含 Naver、豐田,富士康和空軍科學研究室等單位,目前團隊仍在改良算法讓機器人能更準確的適應各種地形,Cheetah 3 將在 10 月份的智慧機器人大會上展出,屆時將可期待完成更多驚艷的表演。

 

延伸閱讀:

 

與數據為伍,善用機器學習拓展商機

摸不透如何實現數位轉型?AWS 線上研討會 11/25 免費參加,公開分享如何以自動化技術來提升銷量、降低成本、和簡化商業流程。
評論
評論

立即報名 AWS 免費線上課程

巨量資料的年代,將如何擅用人工智慧及機器學習已蔚為技術風潮,當今市場上以深度學習為基礎的人工智慧應用程式正快速成長並持續激增,IDC 估計, 2021 年,AI 應用程式方面的支出將超過 630 億美元。2025 年時,至少 90% 的新型企業應用程式,將納入 AI 功能的內嵌功能、推薦或建議。今日所面臨的商業環境,正一步一步引領著許多企業實現數位轉型,找尋各層面上自動化技術來提升銷量、降低成本、和簡化商業流程。

AWS 提供非常完整的人工智慧及機器學習服務,讓新創從數據去驅動價值,並用最低成本、最少資源,卻能最大化的提高開發人員生產力,加快組織創新腳步。在 AWS 上,無論是各式型態的資料—文字、圖像、聲音,你都能達成從資料處理初期,自動化資料擷取和分析、到提升數據準確度,以及為客戶創建個人化體驗及系統的任務。此活動將帶為你帶來初步的 AWS 人工智慧及機器學習服務介紹,以及邀請到 Orderly 執行長分享他們如何透過 Amazon SageMaker 打造自然語言處理 (NLP) 的服務,從文字資料集分析、語義模型開發撰寫到搭建推論模型端點的 AI 開發流程,並打造一個能協助零售品牌分類消費者意見反饋的評價分析服務。

免費報名 11/25 線上課程


本文章內容由「AWS」提供。