엔비디아, 차세대 AI 슈퍼컴퓨터 ‘DGX 슈퍼POD’ 공개… AI 연산 70배↑

출처: 토큰포스트

엔비디아(NVDA)가 차세대 AI 슈퍼컴퓨팅 인프라인 ‘DGX 슈퍼POD’를 공개하며 AI 연산 능력을 한층 더 강화했다. 이번에 발표된 새로운 DGX 슈퍼POD는 ‘블랙웰 울트라(Blackwell Ultra)’ GPU를 기반으로 구축됐으며, 기업들이 최신 AI 모델을 더욱 신속하게 훈련하고 추론할 수 있도록 지원한다.

이번에 발표된 엔비디아 DGX GB300 및 DGX B300 시스템은 엔비디아의 고성능 네트워크와 통합되어 있으며, FP4 정밀도를 바탕으로 향상된 AI 추론 성능을 제공한다. 이를 통해 AI 애플리케이션에서 토큰 생성 속도를 대폭 향상시킴으로써 AI 모델의 효율성을 극대화할 수 있다.

젠슨 황(Jensen Huang) 엔비디아 CEO는 “AI의 발전 속도가 가속화됨에 따라 기업들은 AI 공장을 구축해 AI 추론과 학습을 보다 효율적으로 확장하려 하고 있다”며 “엔비디아 블랙웰 울트라 DGX 슈퍼POD는 차세대 AI 컴퓨팅을 즉각적으로 제공함으로써 기업들이 AI 시대의 새로운 가능성을 열어갈 수 있도록 지원할 것”이라고 말했다.

DGX GB300 시스템은 36개의 엔비디아 ‘그레이스(Grace)’ CPU와 72개의 ‘블랙웰 울트라’ GPU를 결합한 슈퍼칩을 탑재하고 있으며, 랙 단위의 액체 냉각 방식이 적용돼 고성능 AI 연산을 실시간으로 처리할 수 있다. 또한 DGX B300 시스템은 공랭 방식의 Nvidia B300 NVL16 아키텍처를 활용해 데이터 센터에서 발생하는 AI 연산 부담을 효과적으로 처리하도록 설계됐다.

또한 엔비디아는 DGX 슈퍼POD를 기반으로 한 AI 관리 서비스인 ‘엔비디아 인스턴트 AI 팩토리’도 함께 공개했다. 이 서비스는 데이터 센터 운영 기업인 에퀴닉스(Equinix)와 협력해 45개 주요 시장에 액체 또는 공랭 방식으로 사전 구성된 AI 인프라를 제공할 예정이다.

DGX 슈퍼POD는 최대 수만 개의 Nvidia Grace Blackwell Ultra 슈퍼칩을 NVLink, Quantum-X800 인피니밴드, 스펙트럼-X 이더넷 네트워크를 통해 연결하여 최첨단 AI 모델의 훈련 및 추론 성능을 극대화할 수 있다. 특히 이 시스템은 기존 ‘호퍼(Hopper)’ 아키텍처 대비 AI 성능이 70배 이상 향상되었으며, 38TB의 초고속 메모리를 탑재해 복잡한 AI 모델 연산에서도 압도적인 성능을 발휘한다.

엔비디아는 또한 AI 데이터 센터 운영을 최적화하는 ‘엔비디아 미션 컨트롤(Nvidia Mission Control)’ 소프트웨어를 발표했다. 이를 통해 기업들은 DGX 시스템을 더욱 쉽고 효율적으로 관리할 수 있으며, AI 모델 개발 및 배포를 위한 최적화된 환경을 조성할 수 있다.

DGX 슈퍼POD와 DGX GB300 및 DGX B300 시스템은 올해 말부터 파트너사를 통해 출시될 예정이며, 인스턴트 AI 팩토리 서비스도 같은 시점에 제공될 계획이다. 이번 발표로 엔비디아는 AI 인프라 시장에서 경쟁력을 더욱 강화하며 기업들의 AI 혁신을 가속화할 것으로 전망된다.

원문보러가기(클릭)

Latest articles

Related articles

문의하기 버튼