SK하이닉스가 현존 HBM(High Bandwidth Memory) 최대 용량인 36GB(기가바이트)를 구현한 HBM3E 12단 신제품 양산에 들어갔다고 26일 밝혔다.
양산 제품은 연내 고객사에 공급할 예정으로 지난 3월 HBM3E 8단 제품을 고객사에 납품한 지 6개월 만에 또 한 번 기술력을 증명했다는 분석이다.
우선 회사는 이번 제품의 동작 속도를 현존 메모리 최고 속도인 9.6Gbps로 높였다.
제품 4개를 탑재한 단일 GPU로 거대언어모델(LLM)인 ‘라마 3 70B‘를 구동할 때 700억 개의 전체 파라미터를 초당 35번 읽어낼 수 있는 수준이다.
라마 3(Llama 3)은 지난 4월 메타가 공개한 오픈소스 LLM으로 8B(Billion), 70B, 400B 총 3가지 크기로 분류한다.
또 기존 8단 제품과 동일한 두께로 3GB D램 칩 12개를 적층해 용량을 50% 늘렸다.
이를 위해 D램 단품 칩을 기존보다 40% 얇게 만들고 TSV((Through Silicon Via): D램 칩에 수천 개의 미세한 구멍을 뚫어 상층과 하층 칩의 구멍을 수직으로 관통하는 전극으로 연결하는 어드밴스드 패키징 기술)를 활용해 수직으로 쌓았다.
여기에 얇아진 칩을 더 높이 쌓을 때 생기는 구조적 문제도 해결했다.
회사는 자사 핵심 기술인 어드밴스드(Advanced) MR-MUF(쌓은 칩 사이에 액체 보호재 주입 공법) 공정을 이번 제품에 적용해 전 세대보다 방열 성능을 10% 높였으며 강화된 휨 현상 제어를 통해 제품의 안정성과 신뢰성을 확보했다.
SK하이닉스 측은 “2013년 세계 첫 HBM 1세대(HBM1)를 출시한 데 이어 HBM 5세대(HBM3E)까지 전 세대 라인업을 개발해 시장에 공급했다”며 "AI 기업들의 눈높이에 맞춘 12단 신제품도 가장 먼저 양산에 성공해 AI(인공지능) 메모리 시장 선점에 나서겠다”고 전했다.
이어 “HBM3E 12단 제품이 AI 메모리에 필수적인 속도, 용량, 안정성 등 모든 부문에서 세계 최고 수준을 충족시켰다”고 설명했다.
HBM은 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고성능 제품으로 고부가가치로 알려졌다.
이는 1세대(HBM), 2세대(HBM2), 3세대(HBM2E), 4세대(HBM3), 5세대(HBM3E) 순으로 개발됐다.
5세대 HBM3E는 HBM3의 확장) 버전으로 기존 HBM3E의 최대 용량은 3GB D램 단품 칩 8개를 수직 적층한 24GB이였다.
김주선 SK하이닉스 사장은 “다시 한 번 기술 한계를 돌파하며 시대를 선도하는 독보적인 AI 메모리 선도 기업으로의 면모를 입증했다”며, “앞으로도 AI 시대의 난제들을 극복하기 위한 차세대 메모리 제품을 착실히 준비해 ‘글로벌 1위 AI 메모리 기업’으로서의 위상을 이어가겠다”고 말했다.
[ⓒ 세계일보 & Segye.com, 무단전재 및 재배포 금지]