본문내용 바로가기
SK하이닉스, 지능형 반도체 AiM 설루션 공개
페이스북 트위터 네이버
기사입력 2024-09-19 11:22:24   폰트크기 변경      
데이터센터부터 엣지 디바이스까지 활용… 美 ‘AI 하드웨어 서밋’ 참가


임의철 SK하이닉스 부사장이 미국 캘리포니아주 새너제이에서 열린 ‘인공지능(AI) 하드웨어 & 엣지 AI 서밋 2024(이하 AI 하드웨어 서밋)’에서 데이터센터와 엣지 디바이스에서의 AiM 제품 개발 계획을 발표하고 있다. / 사진 : SK하이닉스 제공 


[대한경제=한형용 기자] SK하이닉스가 9일부터 나흘간 미국 캘리포니아주 새너제이에서 열린 ‘인공지능(AI) 하드웨어 & 엣지 AI 서밋 2024(이하 AI 하드웨어 서밋)’에서 AiMX 등 AI 시대를 위한 기술을 선보였다.

AiM은 SK하이닉스의 지능형 반도체(PIM) 제품명이며, 이번에 선보인 AiMX는 GDDR6-AiM 칩을 사용해 대규모 언어 모델(LLM)에 특화된 SK하이닉스의 가속기 카드 제품이다.

19일 SK하이닉스 뉴스룸에 따르면 SK하이닉스는 이번 행사에 ‘데이터센터부터 엣지 디바이스까지 AI 성능을 가속하는 AiM’이라는 주제로 참가해 AiM 설루션과 미래 비전을 제시했다. AI 하드웨어 서밋은 글로벌 IT 기업과 유망 스타트업 등이 참가해 최신 기술과 연구 결과를 공유하고 네트워킹을 통해 산업 내 협력 기회를 모색하는 자리다.

행사에서 선보인 AiMX은 최근 비약적으로 발전하고 있는 생성형 AI를 위한 최고의 설루션으로 꼽힌다. 기존 GPU(그래픽처리장치)를 사용할 때보다 고성능ㆍ저전력에 비용도 절감할 수 있는 설루션으로 알려졌다.


SK하이닉스는 자사의 AiM이 메모리 내에서 일부 연산을 수행해 기존 메모리 대비 높은 대역폭과 우수한 에너지 효율성을 보이며, LLM 기반의 생성형 AI가 요구하는 높은 컴퓨팅 성능을 더 경제적으로 구현할 수 있게 해준다고 설명했다.


SK하이닉스가 AI 하드웨어 서밋에서 AiMX 카드를 활용해 최신 LLM을 시연하고 있는 모습. / 사진 : SK하이닉스 제공 


실제 전시에서 메타의 최신 LLM 모델인 ‘라마(Llama)3 70B’를 활용해 AiMX의 성능을 시연했다. 현장에서 선보인 AiMX는 메모리 용량이 16GB(기가바이트)에서 32GB로 기존 대비 2배로 늘어났으며, 여러 데이터 그룹을 동시에 처리하는 기법인 멀티 배치(Multi-Batch)로 데이터를 처리해 눈길을 끌었다.

특히 데이터센터뿐 아니라 엣지 디바이스(온디바이스 AI)에도 적용 가능한 AiM 설루션도 공개했다.  SK하이닉스 측은 “기존 엣지 디바이스의 메모리 인터페이스를 변경하지 않고도 성능을 높일 수 있는 것이 이번 설루션의 강점”이라며 “모바일 D램을 SK하이닉스의 AiM으로 대체할 경우 기존 대비 최대 3배 이상의 LLM 속도 향상과 에너지 효율이 기대된다”고 밝혔다.

SK하이닉스는 세션 발표를 통해 AiM 솔루션의 미래 비전도 제시했다. 임의철 SK하이닉스 부사장은 ‘LLM 서비스의 성능 향상’을 주제로 데이터센터부터 엣지 디바이스까지 AiM 기술이 LLM 서비스를 위한 핵심 설루션이라고 강조했다. 특히 모바일 D램을 기반한 온디바이스 AI용 AiM 제품 개발 계획을 공유하며 청중들의 이목을 집중시켰다. 


한형용 기자 je8day@

〈ⓒ 대한경제신문(www.dnews.co.kr), 무단전재 및 수집, 재배포금지〉

프로필 이미지
산업부
한형용 기자
je8day@dnews.co.kr
▶ 구글 플레이스토어에서 '대한경제i' 앱을 다운받으시면
     - 종이신문을 스마트폰과 PC로보실 수 있습니다.
     - 명품 컨텐츠가 '내손안에' 대한경제i
법률라운지
사회
로딩바