AI 서버의 MLCC 요구 용량 증가
▷ AI 서버보드에는 수십 개의 고성능 칩(GPU, 메모리, 전원IC)이 고밀도로 배치되며, 수천 개의 커패시터가 필요합니다. 이러한 경우, 소형 사이즈(0201 inch 등)의 MLCC를 사용하지 않으면 보드 배치가 어려우며, Rack 1대에 수십 개의 ASIC/GPU가 집적되면서 발열량이 증가하므로 고온에서도 안정적인 특성을 유지할 수 있는 X6S 이상의 MLCC를 사용해야 합니다. 고온 환경에서 용량 변동이 적고 누설 전류가 낮은 X6S MLCC는 AI 서버의 장시간 가동에 유리합니다.
▷ AI 서버에는 일반 서버 대비 10배 이상의 많은 MLCC 탑재가 요구되지만, GPU 가까이에 부착되어야 하기 때문에 MLCC의 실장 면적은 제한적입니다.
이에, 소형 초고용량 MLCC를 반도체 Package 기판에 내장하여 Silicon die에 근접하게 배치하고, Line path를 줄임으로 인해 기판 설계 최적화 및 발열 관리에 기여할 수 있습니다. 또한 두께가 0.33t로 얇아 Land Side에도 사용이 가능합니다.
소형 초고용량 MLCC 제안
▷ 본 Application에 적용 가능한 삼성전기 소형, 초고용량 MLCC CL03X475MS3CNW# (0201 inch, 4.7㎌, X6S, 2.5V)를 소개합니다.
[Product Specifications]
Samsung | Size (inch/mm) | Capacitance | Related Voltage | TCC | Data Sheet | Sample |
---|---|---|---|---|---|---|
CL03X475MS3CNW# | 0201/0603 | 4.7㎌ | 2.5Vdc | X6S | Available |
샘플 요청을 포함한 추가 문의는 여기를 클릭하여 고객 문의를 남겨주세요.