コントロールレイヤー
もっと簡単に。もっとスマートに。AIインフラ管理の新しい形。
AI-Stackは、計算リソースの管理・タスクスケジューリング・モデル性能のモニタリングを一元的に行える、直感的なコントロールプレーンを提供します。さらに、ロールベースアクセス制御(RBAC)や詳細なリソースクォータ設定により、組織内のユーザー権限とリソース配分を最適化。効率性とセキュリティを両立した、安心のAI運用環境を実現します。
一元管理
単一のプラットフォームが、すべてのコンピューティング・リソースと機械学習ワークロードを管理します。
セキュリティとコンプライアンス
AI-Stackは、データとリソースのセキュリティを確保しながら、マルチユーザー、マルチチームでの利用をサポートします。
直感的なユーザーインターフェイス
AI-Stackは、多くの導入企業からのフィードバックをもとに、新規ユーザーでも直感的に使いこなせる操作画面を設計しました。最も自然なワークフローに基づいたUIにより、導入初日からスムーズに運用を開始できます。
GPUの利用率を最大化する
GPUリソースのワンクリック・スケジューリング
タスク設定の直感的な操作により、リソースの最大活用とアイドル時間の短縮を実現。 優先度、リソース要件、現在のリソース状態に基づいてワークロードを自動的にスケジューリングして実行。複数の動的なスケジューリング方針により、さまざまなリソース要件に対応し、リソースの利用率を向上。
複数GPUを一括管理。異種GPU環境もこれ一つで。
AI-Stackは、NVIDIAとAMDのGPUを同一プラットフォーム上で統合管理できる、業界屈指の異種GPU管理機能を搭載。大規模な計算リソースを効率的に統合し、HPC(高性能計算)や大規模言語モデル(LLM)の学習を加速。複雑なGPU環境をシンプルに制御し、最大限のパフォーマンスを引き出します。
カスタマイズされたAIコンピューティング環境
カスタムイメージ
ユーザーは、ワークロードを実行するための特定のコンピューティング環境を構築し、カスタムイメージを使用することができます。 必要なソフトウェア、ニューラルネットワークライブラリ、プログラムライブラリなどをプリインストールして、作業要件にぴったり合った環境を構築できます。 ディープラーニングや大規模言語モデルをより効率的に開発・実行するための柔軟性が向上させる。
バッチタスク処理
ユーザーは複数のタスクをバッチで作成・管理し、ワークフローを効率化するとともに、実行状況を追跡・監視できます。
AI-Stackの使い方を知りたい