본문내용 바로가기
엔비디아 “6세대 HBM 탑재… 2026년 출시”
페이스북 트위터 네이버
기사입력 2024-06-03 14:54:39   폰트크기 변경      
젠슨 황, 차세대 AI칩 루빈 공개

국립대만대학교 양산 계획 밝혀

새 GPU 공개 주기 ‘2년→1년’ 단축

삼성ㆍ하이닉스 공급경쟁 치열할 듯


젠슨 황 엔비디아 최고경영자(CEO)가 2일 타이베이 국립대만대 종합체육관에서 한 ‘컴퓨텍스 2024’ 기조연설에서 올 하반기 출시할 AI가속기 ‘블랙웰’ 제품을 선보이고 있다. / 사진 : 연합 


[대한경제=한형용 기자] 인공지능(AI) 칩 선두 주자 엔비디아의 젠슨 황 최고경영자(CEO)가 차세대 AI 가속기로 활용될 ‘루빈(그래픽 처리장치, GPU)’을 최초 공개했다.

루빈에는 6세대 고대역폭메모리(HBM)인 ‘HBM4’이 탑재될 것으로 예상되면서, 삼성전자와 SK하이닉스의 납품 경쟁도 한층 치열해질 전망이다.

젠슨 황 CEO는 2일(현지시간) 국립대만대학교 체육관에서 AI와 산업 혁명에 대한 연설을 통해 오는 2026년부터 ‘루빈’을 양산할 예정이라고 밝혔다. 대만 언론은 루빈에 세계 최대 파운드리(반도체 수탁생산) 업체인 대만 TSMC의 3㎚(나노미터ㆍ10억분의 1m) 공정 제품이 채택될 것이라면서 루빈은 HBM4를 사용하는 최초의 GPU가 될 것이라고 설명했다.

GPU는 데이터를 한 번에 대량으로 처리하는 병렬 처리 방식의 반도체이며, 그래픽 구현에 사용해오다 현재는 막대한 연산이 필요한 AI 분야에 활용되고 있다.

루빈은 AI 업계에서 각광받는 엔비디아의 ‘호퍼’, 양산 단계에 진입한 ‘블랙웰’에 이은 후속 GPU다. 이들 GPU에 HBM 등을 탑재해 AI 가속기로 활용된다.

엔비디아는 현재까지 2년 주기로 새로운 GPU를 공개해왔다. 지난 2020년 ‘암페어’ 기반의 A100에 이어 2022년에는 호퍼 기반의 H100을 출시했다. H100은 AI 인프라를 투자하는 글로벌 빅테크들이 AI 가속기로 가장 많이 애용하는 GPU다.

지난 3월에는 블랙웰 기반 B100을 공개했다. B100은 2080억개의 트랜지스터로 구성돼 기존 H100(800억개)보다 데이터 연산 속도가 2.5배 빨라졌다. B100는 오는 3분기 양산에 들어가 연말 출하가 시작될 예정이다.

‘호퍼→블랙웰→블랙웰 울트라→루빈’으로 이어지는 GPU의 진화다. 이대로라면 엔비디아는 전작 양산에 앞서 신모델 출시를 예고한 데 이어 출시 주기까지 2년에서 1년으로 단축하게 된다.

엔비디아는 2025년부터 출시 예정인 블랙웰 울트라 GPU에 HBM 5세대인 HBM3E 제품을 탑재할 예정이며, 2026년 루빈에 이어 2027년에는 루빈 울트라 GPU를 선보일 계획이다.

젠슨 황 CEO는 “생성형 AI 부상이 새로운 산업혁명을 가져왔다”며 “AI 기술이 개인용 컴퓨터에 탑재될 때 엔비디아가 중요한 역할을 할 것으로 기대한다”며 “엔비디아가 클라우드 서비스 제공업체(CSP) 고객을 넘어 고객 기반을 더욱 확대하면 많은 기업과 정부가 AI를 수용할 것”이라고 했다.

엔비디아의 AI 가속기 진화에 따라 HBM의 진화와 공급 경쟁도 한층 가속화될 것으로 보인다. 현재 엔비디아는 SK하이닉스로부터 HBM을 공급받아 B100, H100 등 AI 가속기를 진화시켜왔다. 여기에 엔비디아가 이날 루빈 플랫폼 양산 일정을 제시하면서 반도체 업계의 HBM4 공급 경쟁에도 불이 붙을 것으로 예상된다.

SK하이닉스는 HBM4 12단 양산을 애초 2026년을 목표로 했으나 이를 내년 하반기로 앞당겼다. 삼성전자는 한 발 앞서 지난 3월 별도 신설한 HBM 개발팀을 통해 HBM4 개발에 가속도를 붙여 내년에는 샘플링 공급을 본격화할 계획이다.


한형용 기자 je8day@

〈ⓒ 대한경제신문(www.dnews.co.kr), 무단전재 및 수집, 재배포금지〉

프로필 이미지
산업부
한형용 기자
je8day@dnews.co.kr
▶ 구글 플레이스토어에서 '대한경제i' 앱을 다운받으시면
     - 종이신문을 스마트폰과 PC로보실 수 있습니다.
     - 명품 컨텐츠가 '내손안에' 대한경제i
법률라운지
사회
로딩바