Arm AGI CPUとは?エージェンティックAI時代に向けた新チップ — x86比2倍のラック効率を実現

元記事を読む
キュレーターコメント

Armが35年ぶりにIPライセンスの枠を超えて自社シリコンを出してきたという歴史的ニュース。ラックあたりx86比2倍・45,000コアという数字の背景にある設計思想が面白く、AIインフラのアーキテクチャを考えるエンジニアには必読の一本だと思って選びました。

概要

Arm、35年の歴史で初の自社シリコン「Arm AGI CPU」を発表

2026年3月、Armはデータセンター向け新チップ「Arm AGI CPU」を正式発表した。35年以上にわたりIPライセンス事業に徹してきたArmが、初めて自社設計シリコン製品を世に送り出す歴史的な転換点だ。AWS Graviton・Google Axion・Microsoft Azure Cobalt・NVIDIA Veraといった主要クラウドCPUの礎となってきたNeoverse IPを超え、Arm自身が「すぐに展開できる完成品CPU」として市場に乗り込んできた。

なぜ今「AGI CPU」なのか——エージェンティックAIが変えるCPUの役割

これまでコンピューティングのボトルネックは「人間」だった。人がシステムと対話するペースが処理速度の上限を決めていた。しかしエージェンティックAIの時代では、ソフトウェアエージェントが自律的にタスクを調整・決定し、人間の介在なしに常時稼働する。

その結果、CPUに求められる役割が根本から変わった。

  • アクセラレーター(GPU/NPU)の管理・オーケストレーション
  • メモリ・ストレージの制御
  • 数千の分散タスクのスケジューリング
  • 大量エージェントへのファンアウト調整

つまり現代のAIデータセンターでは、CPUこそが「司令塔」だ。Arm AGI CPUはこの新しい役割に特化して設計されている。

スペックの核心——ラックあたり8,160コア、x86比2倍のパフォーマンス

Arm AGI CPUのリファレンス構成は以下の通り:

  • 1OU 2ノード設計:1ブレードに2チップ搭載、計 272コア/ブレード
  • 空冷36kWラック:30ブレード × 272コア = 合計8,160コア
  • 液冷200kWラック(Supermicro共同開発):336チップ搭載、45,000コア超

Arm社内の試算では、最新x86システムと比較してラックあたり2倍以上のパフォーマンスを達成するとしている(業界標準ワークロード使用)。この数字の背景には、Armアーキテクチャの電力効率とシステムリソースの最適配分がある。

ハードウェアは ASRockRack・Lenovo・Supermicro から今すぐ発注可能。OCP(Open Compute Project)の DC-MHS 標準フォームファクターに準拠したリファレンスサーバーも公開予定で、ファームウェア・デバッグフレームワーク・診断ツールもオープンに提供される。

パートナーが語る実用性——Meta・OpenAI・Cloudflareが採用

Meta がリードカスタマーとして共同開発に参加し、「データセンターの性能密度を大幅に改善し、MTIA アクセラレーターとの組み合わせで進化するAIシステムを支える」とコメント。OpenAI も「ChatGPTの大規模インフラにおけるオーケストレーション層として活用し、効率・パフォーマンス・帯域幅を向上させる」と表明した。

ほかにも Cerebras、Cloudflare、F5、Rebellions、SAP、SK Telecom など50社超がエコシステムを支持しており、エンタープライズから通信キャリアまで幅広い採用が見込まれる。

まとめ——ArmがIPベンダーからシリコンメーカーへ

Arm AGI CPUの登場は、単なる新チップ発表ではない。Armがライセンス事業の枠を超え、「作って売るシリコンメーカー」 へとビジネスモデルを拡張する宣言だ。エージェンティックAIの普及でCPUの戦略的重要性が増す中、x86一強時代を本格的に揺さぶる存在になりうる。Neoverse CSSのロードマップも並行継続されるため、既存のArmベース開発者への影響は少ない点も注目だ。AI基盤の設計・調達に関わるエンジニアや技術責任者にとって、今後の動向を追う価値は十分ある。