位於日本國立大學法人電氣通信大學(UEC)的「ELSA Physical AI Lab」,是一所研究生成式 AI 與機器人技術(Physical AI)整合的機構。其研究核心聚焦於四足機器人,以及機器人手部/手臂的感知模型開發;因此,透過高效能系統進行模擬,以及頻繁切換實驗環境,皆是不可或缺的關鍵要素。

Photo: Daisuke Ishizaka
背景與挑戰:地端部署的預算、技術與環境門檻
在推動地端 AI 研發的過程中,ELSA 實驗室也面臨了企業部署地端 AI 常見的三大挑戰:
- 硬體成本效益: 隨著 Llama 3.1 70B 等大型模型成為研發核心,運行高效能 AI 需極大顯存(VRAM),導致傳統硬體在有限預算下難以平衡成本與效能。
- 軟體配置門檻: AMD ROCm™ 軟體棧雖強大,但底層環境配置對研究員而言仍具技術複雜度。
- 算力資源浪費: 專業顯卡即便具備大容量顯存,若缺乏有效的切割與管理機制,往往僅能由單一任務佔用,導致硬體利用率低下。

Photo: Daisuke Ishizaka
解決方案與實證:AI-Stack 聯手 AMD 打造高效研發環境
ELSA 實驗室選擇導入搭載 AMD Radeon™ AI PRO R9700(具備 32GB GDDR6 顯存)的 ELSA VELUGA G5-ND 高階工作站,並透過 AI-Stack 算力調度與AI基礎設施管理平台進行算力調配管理:
- 算力單一平台統一管理: AI-Stack 穩定支援搭載 AMD R9700 的 ELSA VELUGA G5-ND 工作站,讓實驗室能直接在平台上呼叫 AMD 運算資源,無需處理底層驅動與軟體棧的複雜配置。
- 精確的 VRAM 資源切割: 利用平台內建的資源隔離功能,將 R9700 的 32GB 顯存精確切分為多個獨立區塊,讓單一工作站能同時負載多組模型實驗。
- 即時環境部署: 透過 AI-Stack 的容器化管理機制,實驗室可在數分鐘內完成 AI 研發環境建置,快速啟動不同模型實驗,確保機器人感知開發時程不受環境配置影響,實現「導入即開發」。

Photo: Daisuke Ishizaka
具體成果:從 Llama 3.1 到機器人實作的無縫銜接
ELSA物理人工智慧事業部部長岡田先生說:「透過 AI-Stack,我們能在單一工作站上同時運行多個模型實驗,顯著提升了研究效率。」
藉由 AI-Stack 的調度技術,實驗室成功將高效能硬體轉化為實質產出,在確保數據安全與預算控管的同時,大幅縮短了從理論到實機驗證的週期。
結論
此次與 ELSA 實驗室的成功實績證明:當企業不再需要為底層硬體環境困擾時,透過 AI-Stack 的資源隔離與調度技術,即可在地端環境中穩定、高效地釋放專業顯卡的全部潛能,將硬體投資精準轉化為研發產出。