2026.03.19
2.8천
0
0
IT 뉴스

NVIDIA DGX Station GB300: 784GB 메모리의 데스크톱 AI 슈퍼컴퓨터

NVIDIA가 GTC 2026에서 DGX Station GB300을 발표했다. Blackwell Ultra 슈퍼칩 탑재, 784GB 통합 메모리, 20 페타플롭스 AI 연산으로 1조 파라미터 모델을 데스크톱에서 실행할 수 있다.

#NVIDIA#DGX Station#GB300#Blackwell Ultra#AI 워크스테이션
NVIDIA DGX Station GB300: 784GB 메모리의 데스크톱 AI 슈퍼컴퓨터
AI 핵심 요약

NVIDIA가 GTC 2026에서 DGX Station GB300을 발표했다. Blackwell Ultra 슈퍼칩 탑재, 784GB 통합 메모리, 20 페타플롭스 AI 연산으로 1조 파라미터 모델을 데스크톱에서 실행할 수 있다.

핵심 요약

NVIDIA가 GTC 2026에서 DGX Station GB300을 공개했다. Grace Blackwell Ultra 슈퍼칩을 탑재한 데스크톱 AI 워크스테이션으로, 784GB 통합 메모리와 20 페타플롭스(NVFP4)의 AI 연산 성능을 제공한다. 데이터센터에 의존하지 않고도 1조 파라미터 규모의 AI 모델을 로컬에서 개발하고 실행할 수 있는 시대가 열렸다.

Blackwell Ultra 슈퍼칩의 위력

DGX Station GB300의 핵심은 GB300 Grace Blackwell Ultra 슈퍼칩이다. 72코어 Grace CPU와 Blackwell Ultra GPU가 900GB/s NVLink C2C 인터페이스로 연결된 단일 패키지다.

GPU 측면에서는 160개 SM(Streaming Multiprocessor)에 각 128개 CUDA 코어를 탑재해 총 20,480개 CUDA 코어를 갖추고 있다. 각 SM에는 4개의 5세대 텐서 코어가 포함되며, FP8, FP6, NVFP4 정밀도 연산을 지원한다. 40MB의 전용 텐서 메모리(TMEM)도 포함됐다.

784GB 통합 메모리 아키텍처

DGX Station GB300의 가장 인상적인 사양은 메모리 구성이다. GPU 측에 252GB HBM3e(대역폭 7.1TB/s), CPU 측에 496GB LPDDR5X(대역폭 396GB/s)가 탑재되어 총 784GB의 통합 메모리를 제공한다.

핵심은 CPU와 GPU 메모리 풀이 통합된다는 점이다. NVLink C2C를 통해 양쪽 메모리를 상호 접근할 수 있어, 대형 AI 모델의 가중치를 효율적으로 분배하고 처리할 수 있다. 이는 1조 파라미터 수준의 초대형 모델도 단일 워크스테이션에서 추론할 수 있게 해준다.

네트워킹과 확장성

DGX Station GB300은 ConnectX-8 SuperNIC을 통해 800Gb/s 네트워킹을 지원한다. 2개의 QSFP112 포트를 통해 고속 네트워크에 연결할 수 있으며, PCIe Gen5 x16 슬롯 3개(16레인 1개, 8레인 2개)로 추가 확장이 가능하다.

특히 DGX Spark와의 클러스터링을 통해 최대 4개 시스템을 연결해 확장할 수 있다. 이는 소규모 연구팀이 데이터센터 수준의 AI 인프라를 구축할 수 있는 경로를 제공한다.

항목사양
GPUBlackwell Ultra (160 SM, 20,480 CUDA 코어)
GPU 메모리252GB HBM3e (7.1TB/s)
CPUGrace 72코어 (Neoverse V2)
CPU 메모리496GB LPDDR5X (396GB/s)
총 메모리784GB (통합 접근)
AI 성능20 PFLOPS (NVFP4)
네트워킹800Gb/s (ConnectX-8)
전력1,600W
PCIeGen5 x16 슬롯 3개

가격과 파트너 생태계

NVIDIA는 공식 가격을 발표하지 않았지만, 파트너사인 MSI의 XpertStation WS300이 CDW에서 약 $96,995(약 1억 3천만 원)에 목록된 바 있다. ASUS, Dell, GIGABYTE, MSI, Supermicro에서 자체 설계 버전을 제공하며, 현재 주문을 받고 있다. HP도 올해 안에 합류할 예정이다.

NemoClaw와의 결합

NVIDIA는 DGX Station과 DGX Spark를 NemoClaw 오픈소스 스택과 결합해 로컬 환경에서 자율 에이전트를 개발하고 배포하는 플랫폼으로 제시했다. 클라우드에 의존하지 않고도 장기 실행 에이전트를 로컬에서 운영할 수 있다는 점은 보안에 민감한 기업에게 매력적인 옵션이다.

시장 의미와 전망

784GB 통합 메모리와 20 PFLOPS 성능의 데스크톱 워크스테이션은 AI 연구와 개발의 접근성을 한 단계 끌어올린다. 기존에는 데이터센터급 장비가 필요했던 대형 모델 실험을 개인 사무실에서 수행할 수 있게 됐다.

약 1억 원대의 가격은 개인에게는 부담이지만, 기업 연구팀이나 스타트업 입장에서는 클라우드 GPU 임대 비용과 비교할 때 장기적으로 경제적일 수 있다. 특히 데이터 보안이 중요한 환경에서 로컬 AI 인프라의 가치는 더욱 크다.

장점

  • 784GB 통합 메모리로 초대형 AI 모델 로컬 실행 가능
  • 20 PFLOPS AI 성능으로 데이터센터급 연산 능력 제공
  • 5개 파트너사에서 다양한 설계 옵션으로 출시
  • NemoClaw 통합으로 로컬 AI 에이전트 개발 플랫폼 역할
  • 800Gb/s 네트워킹과 클러스터링으로 확장 가능

단점/한계

  • 약 $97,000(1억 원대) 예상 가격으로 개인 사용자에게는 높은 진입 장벽
  • 1,600W 전력 소모로 별도 전원 인프라 필요
  • GPU 1개 구성으로 멀티 GPU 워크로드에는 한계 존재

댓글0

주요 기능/특징

1. GB300 Blackwell Ultra 슈퍼칩: Grace 72코어 CPU + Blackwell Ultra GPU, 900GB/s NVLink C2C 연결 2. 784GB 통합 메모리: 252GB HBM3e(7.1TB/s) + 496GB LPDDR5X(396GB/s), CPU-GPU 메모리 공유 3. 20 PFLOPS AI 성능: NVFP4 밀집 연산 기준, 1조 파라미터 모델 로컬 실행 가능 4. 800Gb/s 네트워킹: ConnectX-8 SuperNIC, DGX Spark 클러스터링으로 확장 5. NemoClaw 통합: 오픈소스 에이전트 스택으로 로컬 AI 에이전트 개발 및 배포 지원

핵심 인사이트

  • 784GB 통합 메모리로 1조 파라미터 모델을 데스크톱에서 실행할 수 있는 시대가 도래했다
  • CPU-GPU 메모리 통합 아키텍처는 대형 모델 추론의 효율성을 근본적으로 개선한다
  • 약 1억 원대 가격은 클라우드 GPU 장기 임대 대비 경제적일 수 있다
  • DGX Spark 클러스터링으로 소규모 팀도 데이터센터급 인프라를 구축할 수 있다
  • NemoClaw 결합은 보안 민감 환경에서의 로컬 AI 에이전트 운영을 가능하게 한다
  • 5개 파트너사(ASUS, Dell, GIGABYTE, MSI, Supermicro)의 동시 출시는 생태계 빠른 확산을 시사한다
  • PCIe Gen5 확장 슬롯은 향후 추가 가속기나 스토리지 확장에 유연성을 제공한다
  • 데스크톱 AI 슈퍼컴퓨터 시장이 연구기관과 기업 R&D 센터 중심으로 본격 성장할 전망이다

이 리뷰가 유용했나요?

공유하기