세계일보

검색

SK하이닉스, ‘추론형 AI’ 시장 판 키운다

입력 : 2025-10-28 06:00:00 수정 : 2025-10-27 20:12:17
이동수 기자 ds@segye.com

인쇄 메일 url 공유 - +

美 OCP서 ‘AIN 라인업’ 공개
HBM 적층 솔루션 낸드에 적용
AI 최적화 메모리 우위 굳히기

고대역폭메모리(HBM)로 글로벌 D램 시장에서 우뚝 선 SK하이닉스가 인공지능(AI) 낸드플래시 시장을 노린 고대역폭플래시(HBF)를 개발해 미국에서 공개했다. D램에 이어 낸드까지 AI 시대에 최적화된 메모리 솔루션으로 AI 메모리 우위를 굳히겠다는 전략이다.

경기도 이천 SK하이닉스 본사. 연합뉴스

SK하이닉스는 지난 13∼16일(현지시간) 미국 캘리포니아주 새너제이에서 진행된 ‘2025 OCP 글로벌 서밋’ 행사에서 차세대 낸드 스토리지 제품 전략을 발표했다고 27일 밝혔다. OCP 글로벌 서밋은 개방형 데이터센터 기술을 논의하는 세계 최대 규모의 회의다.

SK하이닉스는 “AI 추론 시장이 급성장하면서 많은 데이터를 신속하고 효율적으로 처리할 수 있는 낸드 스토리지(저장장치) 제품 수요가 크게 확대되고 있다”며 “이에 ‘AI 낸드(AIN) 패밀리’ 라인업을 구축하게 됐다”고 말했다.

SK하이닉스의 AIN 패밀리 제품군 중 업계 시선은 AIN B(Bandwidth·대역폭) 라인, 바로 HBF에 쏠리고 있다. SK하이닉스는 2013년 세계 최초로 D램을 수직으로 쌓아 올려 대역폭을 크게 확대한 HBM을 개발했고, 이는 곧 AI ‘학습’에서 그래픽처리장치(GPU)의 메모리 병목 현상을 해결하는 핵심 솔루션으로 거듭났다. 이 같은 적층 솔루션을 낸드에도 적용해 대역폭을 확대한 것이 바로 HBF다. 대역폭은 데이터가 이동하는 통로의 너비로, 대역폭이 넓을수록 더 많은 데이터를 한 번에 빠르게 이동시킬 수 있다.

HBF는 AI ‘추론’에서 빛을 발할 예정이다. D램이 거대언어모델(LLM)을 학습시킬 때 데이터를 빠르게 공급하는 ‘고속도로’라면, HBF는 학습이 끝난 LLM을 불러와 꺼내 쓰는 ‘창고’에 해당한다. HBF는 기존 낸드보다 더 높은 대역폭으로 창고에서 LLM을 최대한 빠르게 꺼내오는 역할을 수행한다. SK하이닉스는 이와 관련해 “대용량, 저비용의 낸드에 HBM 적층 구조를 결합한 것이 핵심”이라고 말했다.

SK하이닉스가 공개한 AIN 패밀리는 이 외에도 △AIN P(Performance·성능) △AIN D(Density·용량)가 있다. AIN P는 대규모 AI 추론 환경에서 발생하는 방대한 데이터 입출력을 효율적으로 처리하는 데 초점을 맞췄고, AIN D는 저전력·저비용으로 대용량 데이터를 저장하는 데 특화된 고용량 솔루션이다.

안현 SK하이닉스 개발총괄 사장(CDO)은 “이번 OCP 서밋을 통해 ‘글로벌 AI 메모리 솔루션 프로바이더’로 성장한 SK하이닉스의 현재와 미래를 선보였다”며 “차세대 낸드 스토리지에서도 고객, 파트너와 협력해 AI 메모리 시장의 핵심 플레이어로 올라서겠다”고 밝혔다.


오피니언

포토

김고은 '사랑스러운 눈빛'
  • 김고은 '사랑스러운 눈빛'
  • 안은진 물오른 미모…시크 표정으로 찰칵
  • 복근 드러낸 김태리, 신비롭고 몽환적이고 섹시하고
  • 정려원 '완벽한 미모'