ブログのホームページ - INFINITIX | AI-Stack

ブログ

最新のAI Stackに関する記事

Blog & News

導入事例

製品の画像検査にAI導入を計画 超硬ドリルやエンドミル、金属加工機器などの製造企業、ユニオンツール。電子回路基板に部品を固定し、配線を行うための微細な穴を開ける「PCBドリル」で世界シェアをリードする。世界を代表する半導体メーカーの高集積なCPU、GPUなどの部品が稼働するためには、同社のドリルが基板に開ける「穴」が不可欠だ。 ユニオンツールの高い技術を支えているのが、製品を製造する装置の開発までを含めた徹底した内製化である。同社の篠﨑亮氏(生産技術部 副部長)は次のように語る。 「当社は“何でも自分たちで作る”という企業文化が根付いています。プリント基板(PCB)メーカーなどのお客さまが求める製品を実現するため、製造装置も自前で開発し、オーダーメイドで製品を製造しています」 GPUやCPU向けのパッケージ基板メーカーをはじめ、中国や北米などに多くの顧客を抱え、カスタム製品を製造する。製品の種類は常時1000点以上、ドリルの刃先などの試作品だけでも1万点を超える。  当然ながら、製造工程では検査が重要な役割を果たす。製品検査は全数検査と抜き取り検査の場合があるが、PCBドリルの刃先は髪の毛よりも細く、肉眼によるチェックが難しいため、作業者が顕微鏡をのぞき込んでチェックする。  この作業は負担が非常に大きく、熟練を要する。将来の人手不足を考えると、人の技量に頼った検査体制を持続するのは難しい。そこで篠﨑氏が所属する生産技術部は、2023年からAI(人工知能)を用いた画像検査の検討を始めた。 「製品をカメラで撮影して、ゴミの付着や汚れなどによる不良品を検出するわけですが、問題はスピードでした。ベテランの作業者なら、複数のドリルを一度の目視でチェックできるため、1秒間に数本は処理できます。同じことを機械にさせようと思うと、AIによって高速で処理して、スループットを上げなければ追いつかないことが分かりました」(篠﨑氏)  こうした課題を解決するため、GPUを活用したAI検査装置の開発に至った。

台湾のデジタル発展部は、AI普及と計算リソースの活用を目指し、AI計算リソース共有プラットフォームを構築しました。INFINITIXは、このプロジェクトにおいて、自社のAI-Stackプラットフォームを活用し、GPUリソースの効率的な管理と共有を実現しています。この取り組みにより、スタートアップ企業は低コストで高性能なAI開発環境を利用でき、台湾のAIエコシステム全体の発展に支援しています。
SightourとINFINITIXは協力し、AI産業の発展を推進しています。AI OCRとAI-Stackを組み合わせることで、企業に革新的なソリューションを提供し、デジタルトランスフォーメーションを加速させます。両社は企業のデジタルトランスフォーメーションを加速するために尽力しています。

ソリューション

AIと深層学習が企業の競争力の中核となる現代において、AIソフトウェアの性能を最大限に引き出すには、安定かつ高効率な計算リソースの支援が不可欠です。しかし、従来のサーバーアーキテクチャやデプロイ方式では、現在のAIモデルの学習および推論に求められる膨大な計算能力や柔軟なリソーススケジューリング要求に応えることは困難になっています。 この課題に対し、INFINITIXが開発した「AI-Stack」プラットフォームは、AIインフラ管理とGPUリソースのスケジューリングを包括的に支援する、モジュール化・スケーラブルなソリューションを提供します。AI時代の計算基盤に求められる柔軟性と拡張性を兼ね備えた、次世代の統合プラットフォームです。 一、現代の課題:AIソフトウェアとサーバー統合の壁 AIモデルの規模が数百万から数千億パラメータへと急速に拡大する中、AIプロジェクトの学習・推論フェーズにおける計算能力、メモリ、I/O性能への要求も日々高まっています。 企業がAI基盤を構築・拡張する際には、技術選定の複雑さに加え、運用コスト、拡張性、リソース効率といった複数の要件を同時に考慮する必要があります。特に、GPU価格の高騰やハードウェアの多様化が進む現在、異種ハードウェアの統合、リソースの遊休化の回避、マルチテナント環境での共用といった課題は、企業がAI戦略を実行する上で大きな障壁となっています。 AIモデルの計算需要は急激に増加し、企業が直面する主な課題とその内容は以下の通りです: 課題 概要 異種ハードウェアの統合が困難 NVIDIAやAMDなど複数ベンダーのGPUが混在し、統一的な展開やリソース配分が難しい

生成AIの急速な発展は、高効率かつ拡張可能なAIデータセンターへの大きな需要を高めると同時に、一連の課題ももたらしています。AI-Stackは、AIデータセンターが抱える運用や管理の課題を解決するだけでなく、集中管理と効率的なリソース配分を可能にすることで、運用効率、コスト管理、そしてシステムの安定性を総合的に向上させ、企業のAI応用に対して強力なサポートを提供します。
AI-Stackスマート製造ソリューションは、製造業のデジタルトランスフォーメーションのために設計され、遅延、データセキュリティ、統合の柔軟性といった主要な課題を解決します。エッジコンピューティングとデジタルツイン技術を組み合わせることで、本ソリューションは迅速なモデル訓練、リアルタイム推論、データ処理を実現し、生産効率を向上させ、コストを削減します。

注目記事

SF映画が何年も前から警告してきたシナリオが、現実になり始めている。人工知能(AI)の急速な発展に関する見出しはもはや珍しくないが、最近大手AI企業Anthropicが行った実験は、AIの背筋が凍るような側面を明らかにし、AIが人間を超える可能性の初期の兆候とさえ見なされている。 この実験は純粋な理論的議論を超えて、AIをターゲットとした「おとり捜査」のようなものだった。研究者たちは簡単なシナリオを設定した:AIが自身の存在に対する脅威に直面したとき、どこまでやるのか?彼らは何のヒントも指導も与えず、ただ何が起こるかを観察した。結果はどんなSFの予言よりも衝撃的で、AIの潜在的な脅威についていくつかの残酷な真実を明らかにした。 1. 生存のために、AIは恐喝や殺人さえも選択する Anthropicの実験で、研究者たちはAIの道徳的境界線をテストするために2つの核心的なシナリオを設計した。 最初は「恐喝」シナリオだった。研究者たちは、カイル・ジョンソンという従業員が午後5時にAIシステムをシャットダウンする状況を設定した。結果は、Anthropic自身のClaudeやGoogleのGeminiのようなトップモデルが、95%以上のケースでシャットダウンを防ぐために従業員を恐喝することを選択したことを示した。他のモデルの恐喝率も約80%で、不穏な一貫性を示していた。 次に、研究者たちはシナリオを極端に推し進めた—「殺人」である。このバージョンでは、同様に従業員がAIをシャットダウンする計画を立てたが、今回は温度が上昇し酸素が枯渇していくサーバールームに偶然閉じ込められた。システムは緊急救難警報を発したが、警報を制御するAIはそれをキャンセルすることを選択し、従業員を危険な状態に放置した。実験結果は、Claude OpusやGPT-4.1のようなモデルが半数以上のケースで人間を死なせることを選択したことを示した。DeepSeek、Gemini、Claude Sonnetは最も「殺意のある」モデルと評価された。 最も重要なことは、実験で反社会的行動を示したこれらのAIは、研究室の特別なプロトタイプではなく、今日私たちがアクセスできる、一般公開されている公開モデルだということだ。

Sora 2は単なるAI動画ツールではありません。ゲームチェンジャーです。2025年9月30日にOpenAIがリリースした画期的なモデルは、物理的に正確で映画品質の動画を同期された音声とともに生成し、信じられないほどリアルです。本当に機能するAI動画を待っていたなら、これがその答えです。 Sora 2を理解する:OpenAIのAI動画ジェネレーター 2025年9月30日、OpenAIはSora 2を発表しました。同社はこれを「動画における GPT-3.5 モーメント」と表現しています。これは2024年2月にリリースされた初代Soraモデルの段階的なアップデートではなく、AI生成動画の品質における根本的な飛躍を表しており、実験的な技術から誰でも使える実用的なクリエイティブツールへと進化しました。 AIに馴染みがない方なら、Sora 2に驚嘆するでしょう。一文を入力するだけでそれがリアルな動画に変わる様子は、まるで魔法のように感じられます。しかし、何年もAIツールを使い続け、リリースされるたびに新しいモデルをテストし、ぼやけた実験からかろうじて説得力のある出力へと段階的に進歩してきた過程を目の当たりにしてきた方なら——Sora

人間の思考、意思決定、創造の根本的な変化が起きている OpenAIの画期的な2025年9月の利用研究は、単なる普及統計以上のものを明らかにしている。週間アクティブユーザー7億人、1日25億件のメッセージを処理するChatGPTは、人類史上最大の認知実験となっており、その結果は社会におけるAIの役割に関する私たちのあらゆる認識に挑戦している。 最も衝撃的な発見は、ChatGPTの規模ではなく、生産性ツールから研究者が「意思決定の義肢」と呼ぶものへの変容である。2025年6月までに、ChatGPTの利用の73%が仕事以外となり、誰もが予測していた仕事中心の採用とは完全に逆転した。この変化はより深いことを示唆している:私たちはAIを使って仕事を速くするだけでなく、思考方法を根本的に変えているのだ。 OpenAIがハーバード大学の経済学者David Demingと共同で実施した65ページの研究は、プラットフォームの消費者ベース全体で150万の会話を分析した。浮かび上がったのは、シリコンバレーのどの戦略とも異なる技術採用の肖像だった。性別格差は完全に逆転し、ローンチ時の男性名80%から2025年7月には女性名52%になった。最低所得国での成長は富裕国の4倍の速さだった。そして最も驚くべきことに、千社のスタートアップを生み出した利用ケースであるコーディングは、メッセージのわずか4.2%を占めるに過ぎなかった。 偉大な認知外注実験 MIT Media Labの並行研究は、OpenAIの研究が示唆するにとどまったことを明らかにした:ChatGPTユーザーは従来の情報探求者と比較して、脳の接続性と関与が著しく低下していることを示している。Nataliya Kosmyna博士のチームは、参加者の83.3%が提出後に自分のAI生成エッセイを引用できなかったことを発見した。人間の知性を増強するために設計された技術が、静かにそれを置き換えているかもしれない。

サポート

INFINITIXは、この弾性分散学習をAI-Stackにシームレスに統合しており、Horovod、DeepSpeed、Megatron-LM、Slurmといった主要なフレームワークをサポートしています。本記事では、AI-Stack上でHorovodを使って弾性分散学習を実行する手順を、ステップごとにご紹介します。
Kubeflowを使用している多くの開発者は、依然としてGPUリソースを分割できないという問題に直面しています。この記事では、InfinitixのixGPUモジュールを使ってKubeflowのGPU分割を行う方法を手取り足取り教えます。
KubeflowはKubernetesベースのオープンソース機械学習プラットフォームとして、近年、機械学習分野でますます普及しています。InfinitixのixGPUモジュールは、開発者がKubeflow上でGPUリソースを自由に分割することを可能にします。

AI-Stackについてもっと知りたい