国立大学法人電気通信大学(UEC)に拠点を置く「ELSA Physical AI Lab」は、生成AIとロボティクス(フィジカルAI)の融合を研究する機関である。研究の中心は4足ロボットとロボットハンド/アームの認識モデル開発であり、高性能システムでのシミュレーションと頻繁な実験環境の切り替えが不可欠となる。

Photo: Daisuke Ishizaka
背景と課題:オンプレミスAI導入における予算・技術・環境の壁
オンプレミスでのAI研究開発を推進する中で、ELSAラボもまた、企業がオンプレミスAIを導入する際に直面しがちな3つの課題に向き合っていた。
- ハードウェアのコストパフォーマンス:Llama 3.1 70Bをはじめとする大規模モデルが研究開発の中核を占めるようになり、高性能AIの稼働には膨大なVRAMが求められる。限られた予算の中で、従来のハードウェア構成ではコストと性能の両立が困難であった。
- ソフトウェア構成の複雑さ: AMD ROCm™ソフトウェアスタックは強力だが、その下回りの環境構築は研究者にとって依然として技術的なハードルが高い。
- GPUの低稼働率:ハイエンドGPUは大容量VRAMを備えていても、適切な分割・管理の仕組みがなければ、単一タスクに占有されるケースが多く、GPU稼働率の低下を招いていた。

Photo: Daisuke Ishizaka
ソリューションと実証:AI-Stack × AMDが実現する高効率なAI研究開発環境
ELSAラボは、AMD Radeon™ AI PRO R9700(32GB GDDR6 VRAM搭載)を採用したハイエンドワークステーション「ELSA VELUGA G5-ND」を導入し、AIインフラ管理ソフトウェア「AI-Stack」で計算リソースの管理・配分を実施した。
- 計算リソースの統合管理: AI-StackはAMD R9700搭載のELSA VELUGA G5-NDを安定的にサポートし、研究者はAI-StackのWeb UI上からAMDのGPUリソースを直接呼び出すことが可能となった。 低レベルのドライバやソフトウェアスタックの複雑な設定作業は不要である。
- VRAMの精密な分割: AI-Stack標準のリソース分割機能により、R9700の32GB VRAMを複数の独立した区画に正確に分割。1台のワークステーションで複数のモデル実験を同時に実行できる環境を実現した。
- 即時の開発環境デプロイ:AI-Stackのコンテナ管理機能を活用することで、研究者は数分以内にAI開発環境を構築し、異なるモデル実験を即座に開始できる。ロボット知覚モデルの開発スケジュールが環境構築作業に左右されることなく、「導入したその日から開発できる」を実現した。

Photo: Daisuke Ishizaka
成果:Llama 3.1 からロボット実装までのシームレスな連携
ELSAフィジカルAI事業部部長の岡田氏は次のように述べている。「AI-Stack の導入により、1 台のワークステーション上で複数のモデル実験を同時に実行できるようになり、研究効率が大幅に向上しました。」
AI-StackのGPUオーケストレーション技術を活用することで、研究室は高性能ハードウェアを実質的な研究成果へと転換することに成功した。データセキュリティの確保と予算管理を両立しながら、理論検証から実機実装までのサイクルを大幅に短縮している。
まとめ
今回のELSAラボとの実績は、次のことを証明している。企業が低レベルのハードウェア環境構築に悩まされることなく、AI-Stackのリソース分割とオーケストレーション技術を活用すれば、オンプレミス環境においてハイエンドGPUの高性能を安定的かつ効率的に引き出し、ハードウェア投資を研究開発の成果へ的確に転換できるということである。
【関連記事】
AIのプロに聞く「ローカルでAI動かすのに、必要なスペックって?」 – GIZMODO
フィジカルAIが創る産業の未来:「ELSA Physical AI Lab」に見るフィジカルAI研究開発の現状 – CGWORLD