블랙웰 울트라·베라 루빈·파인만 등 차세대 GPU 개발 계획 제시
젠슨 황 CEO, HBM 중요성 강조…“삼성·SK와 메모리 역할 확대”
![]() |
| 16일(현지시간) 미국 캘리포니아 산호세에서 열린 연례 개발자 행사 ‘GTC 2026’ 기조연설에서 젠슨 황 엔비디아 CEO 기조연설을 하고 있다. /사진: 연합 |
[대한경제=이계풍 기자] 엔비디아가 차세대 GPU(그래픽처리장치) 로드맵과 인공지능(AI) 인프라 전략을 공개했다. 특히 AI 가속기 성능을 좌우하는 핵심 요소로 고대역폭메모리(HBM)를 지목하며 메모리 협력의 중요성을 강조했다.
젠슨 황 엔비디아 최고경영자(CEO)는 16일(현지시간) 미국 캘리포니아 산호세에서 열린 연례 개발자 행사 ‘GTC 2026’ 기조연설에서 차세대 데이터센터용 GPU 개발 계획을 소개했다. 현재 주력 아키텍처인 블랙웰(Blackwell)에 이어 성능을 강화한 ‘블랙웰 울트라(Blackwell Ultra)’가 다음 단계로 제시됐고, 이후 차세대 플랫폼 ‘베라 루빈(Vera Rubin)’과 차차세대 GPU ‘파인만(Feynman)’으로 이어지는 개발 흐름이 공개됐다.
황 CEO는 “AI 컴퓨팅 성능은 매년 급격히 증가하고 있다”며 차세대 GPU가 특히 추론 성능 향상에 초점을 맞추고 있다고 설명했다. 그는 또 “AI는 이제 읽고, 생각하고, 추론하고, 행동하는 시스템이 되고 있다”며 AI 기술이 학습 중심 단계를 넘어 실제 업무 수행 단계로 확장되고 있다고 강조했다. 이어 “AI 에이전트가 실제 업무를 수행하는 시대가 시작됐다”고 말했다.
데이터센터의 역할 변화도 주요 메시지로 제시됐다. 황 CEO는 데이터센터가 단순한 저장·처리 공간이 아니라 결과를 생산하는 ‘AI 공장(AI Factory)’으로 변화하고 있다고 설명했다. 그는 “앞으로 데이터센터는 토큰 생산량으로 경제성이 결정되는 AI 공장이 될 것”이라고 밝혔다. 또한 AI 수요 증가에 따라 데이터센터 전력 규모가 수십 메가와트에서 수백 메가와트 수준으로 확대되고 있으며 향후 기가와트급 설비 구축도 가능해지고 있다고 언급했다. 황 CEO는 “AI 컴퓨팅은 앞으로 모든 산업이 구축해야 하는 핵심 인프라가 될 것”이라고 말했다.
AI 연산 성능 경쟁이 심화되면서 메모리 중요성도 커지고 있다. 황 CEO는 이날 기조연설에서 엔비디아 플랫폼이 메모리 파트너들과의 협력을 통해 발전해 왔다고 언급하며 HBM(고대역폭메모리) 기술 진화가 AI 성능 향상의 핵심 요소라고 강조했다.
황 CEO는 또 AI 칩 생산 협력 사례로 삼성전자를 언급했다. 그는 무대에서 삼성전자가 ‘그록(Groq) 3’ LPU(언어처리장치) 칩을 제조하고 있다고 소개하며 현재 생산이 진행 중이라고 설명했다. LPU는 대규모 언어모델(LLM) 추론 처리에 특화된 인공지능 전용 연산칩이다. 업계에서는 삼성전자가 메모리 공급을 넘어 파운드리 영역으로 엔비디아와의 협력을 확대하고 있다는 신호로 해석한다.
올해 GTC 현장에는 한국 메모리 기업들도 참여해 차세대 기술을 공개했다. 삼성전자는 7세대 HBM인 HBM4E 실물 칩과 차세대 패키징 기술을 선보이고 GPU용 HBM4(6세대)와 서버용 메모리 모듈, SSD 등 메모리 솔루션을 전시했다. 차세대 HBM 개발을 위한 공정과 설계 역량을 강조하며 엔비디아 플랫폼 협력 확대 전략도 제시했다.
SK하이닉스 역시 HBM4와 HBM3E(5세대)를 중심으로 AI 메모리 제품군을 공개하고 GPU 기반 AI 가속기에 적용되는 기술을 소개했다. 데이터센터용 메모리뿐 아니라 모바일 D램과 기업용 SSD 등 다양한 제품 포트폴리오를 통해 AI 인프라 대응 역량을 강조했다.
특히 이번 행사에는 최태원 SK그룹 회장이 처음으로 GTC 현장을 방문해 글로벌 AI 산업 흐름을 점검했다. 최 회장은 곽노정 SK하이닉스 CEO 등과 함께 주요 기술 기업 관계자들과 만나 AI 기술 발전과 데이터센터 인프라 변화에 대한 의견을 교환하고 협력 방안을 논의할 것으로 알려졌다.
이계풍 기자 kplee@
〈ⓒ 대한경제신문(www.dnews.co.kr), 무단전재 및 수집, 재배포금지〉










