AI Industry向け対応戦略:Computing/Power/Network の3代シリーズへの展開

  • Industrial
  • 2026.02.23

Abstract

人工知能(AI)ブームが、半導体を超えて受動素子である MLCC へと波及しています。

汎用サーバーに比べ10~15倍以上のMLCCが搭載されるAIサーバーは、単なる量的拡大にとどまらず、高難度技術を要する ultra-high capacitance および高圧 MLCC 領域へと拡大しています。

この技術変化と将来方向を Computing/Power/Network の3つのフレームで紹介します。

1. Computing board:半導体の集積化と高容量MLCCの増加

AIの「脳」の役割を果たすGPUやCPUは、0.8Vの低電圧で数千アンペアに達する電流を消費します。GPU パワー Dynamics に対して安定した電源供給を行うため、MLCC の total capacitance が増加します。

 

- 技術変化:

高性能 computing board の GPU/CPU 周辺に配置される MLCC は、急激な電流変動を緩和する Decoupling の役割を担います。チップ性能の高度化に伴い実装面積は狭くなる一方、要求容量は増大しており、1005mm サイズで 47㎌ 以上の高容量を実現、あるいは 1608mm サイズで 100㎌ を達成するなど、「超小型・高容量」技術がカギとなります。

 

- 発展方向:

半導体 GPU ball 近傍に SMT される MLCC の高容量化が加速します。半導体パッケージ内部または直下に搭載されるエンベディング MLCC および Landside MLCC の技術が加速し、Loop inductance を極限まで低減しつつ capacitance density を高める方向へ進みます。

 

AI & Servers

2. Power Supply & VPD(vertical power delivery):サーバーパワー48Vへ進化とGPU Core供給のVPD適用

電力効率は AIデータセンターの運用コストを左右する最重要な要素です。

120kW級ラックの安定した電力駆動には、PSUの高効率化と、それを支える高仕様受動素子の供給が不可欠です。従来はACを直接12V/48Vに降圧していましたが、将来の120kW級ラックでは送電損失を低減するため、ACを800Vの高電直流に整流しラック内へ供給します。48Vの安定供給に向け100V MLCCの需要が拡大し、1kV~2kVの大型サイズMLCCの需要も増加する見込みです

GPU の load current dynamics に対応するには、大電流の core パワー供給が必要です。VPD(vertical power delivery) 技術はパワーの path を可能な限り短縮し、power density も高さは power module の形態です。単位面積当たり power density は capacitance density と連動され、X7T 1005mm 22㎌、X6S 47㎌ 2.5V MLCC が活発に検討されています。

 

800V System


Embedded MLCC

3. AI Network の技術進化

AIモデルが大規模化するほど、GPU間のデータ同期化の速度が重要になります。ラック間を接続するネットワークトレイは、単なる「データ通路」を超えて、システム全体のボトルネック現象を解消するカギとなるインフラへ進化しています。

現在主力となる 800G ネットワークは 1.6T(Tera) 時代へ進入しています。これに加え CPO(Co-packaged Optics) 技術が導入されています。従来のプラグイン型光モジュールは、高速信号伝送時に消費電力と信号損失が大きいという課題があります。これを解決するため、光エンジンをスイッチ ASIC 半導体と同一なパッケージ上に搭載する CPO 技術が、ネットワークトレイの標準となりつつあります。

ネットワークスイッチチップセット自体の消費電力が 500W を超える中、ネットワークトレイでも電力供給と冷却が重要となり、高温MLCC(X5R → X6S、X6S → X7T)のニーズも増加します。

 

サンプルリクエストを含む他のお問い合わせは、こちらをクリックしてお問い合わせを残してください。