SK하이닉스 "HBM 수요 더 늘어날 것…파트너와 협력 강화"


오프라인 대표 이미지 - SBS 뉴스

▲ 이강욱 SK하이닉스 PKG개발 담당 부사장

SK하이닉스 이강욱 PKG(패키징)개발 담당 부사장은 "응용 제품에 따라 다르지만 고대역폭 메모리(HBM) 세대가 발전하면서 훈련, 추론 인공지능(AI) 서버에 탑재되는 평균 채택 숫자는 더 늘어날 것"이라고 밝혔습니다.

이 부사장은 타이완 타이베이 난강전시장에서 열린 '이종집적 글로벌 서밋 2024'에서 'AI 시대를 위한 HBM과 어드밴스드 패키징 기술'이란 주제로 발표에 나섰습니다.

HBM은 AI 칩의 필수 반도체로, 늘어나는 데이터 트래픽과 이에 따른 메모리 시스템 병목 현상을 극복하기 위한 현존 최고 사양의 D램이 HBM이라는 게 이 부사장의 설명입니다.

이 부사장은 "현재 HBM3E 8단·12단은 초당 1.18TB(테라바이트) 이상의 데이터를 처리하고 최대 36GB(기가바이트)의 용량을 지원하는데, HBM4는 12·16단으로 공급되며 용량은 최대 48GB까지, 데이터 처리 속도는 초당 1.65TB 이상으로 발전한다"고 설명했습니다.

이어 "HBM4부터는 베이스 다이에 로직 공정을 적용해 성능과 에너지 효율 향상을 기대하고 있다"고 덧붙였습니다.

오프라인 - SBS 뉴스
SK하이닉스 HBM3E

이 부사장은 HBM 성능 발전에 따라 HBM에 대한 수요는 AI 시장에서 더 늘어날 것으로 내다봤습니다.

업계에 따르면 지난해부터 2032년까지 생성형 AI 시장은 연평균 27% 성장할 것으로 예상되며, HBM 시장은 2022년부터 2025년까지 연평균 109%의 성장이 전망됩니다.

SK하이닉스는 지난 3월 메모리업체 중 최초로 5세대 HBM인 HBM3E 8단 제품을 엔비디아에 납품하기 시작했고, 맞춤형 HBM인 6세대 HBM4도 준비 중입니다.

이 부사장은 "7세대 제품인 HBM4E부터는 커스텀(맞춤형) 성격이 강해질 것으로 예상돼 다양한 고객 요구에 효율적으로 대응하기 위한 생태계 구축 관점에서도 글로벌 파트너들과의 협력을 강화해 가고 있다"고 말했습니다.

(사진=SK하이닉스 제공, 연합뉴스)

댓글
댓글 표시하기
이 시각 인기기사
기사 표시하기
많이 본 뉴스
기사 표시하기
SBS NEWS 모바일