18일 삼성전자 DS(디바이스솔루션·반도체) 사업부는 뉴스룸에 올린 HBM 사업 담당 임원 인터뷰 기사를 통해 이러한 미래 사업 계획을 공개했다.
삼성전자는 지난 2월 업계 최초로 12단 적층 HBM3E 개발에 성공하고 2분기부터 양산한다고 밝힌 바 있다. 24Gb(기가비트) 용량 D램 칩을 12개 쌓아 만든 삼성전자 12단 HBM3E는 24Gb(기가비트) 용량 D램 칩 8개를 쌓은 경쟁사 8단 HBM3E보다 AI 반도체 용량 확장에 유리하다. 실제로 삼성전자 12단 HBM3E는 최대 36GB(기가바이트·288Gb)의 용량을 제공해 최대 24GB(192Gb) 용량을 갖춘 8단 HBM3E보다 D램 용량이 33%가량 더 많다. AI 반도체 D램 용량을 확대하면 AI 학습 효율이 올라가고 하나의 칩에서 운영(추론)할 수 있는 AI 서비스 수가 늘어난다.
윤재윤 삼성전자 D램개발실 상무는 "AI에 최적화된 D램이 HBM"이라며 "삼성전자 12단 HBM3E는 속도(최대 10Gbps)와 용량(36GB) 측면에서 세계 최고 사양을 갖췄다"고 강조했다.
대만 시장조사업체 트렌드포스에 따르면 AMD는 올해 4분기, 엔비디아는 내년 1분기에 12단 HBM3E를 탑재한 차세대 AI 반도체(MI350·B200)를 양산한다. 삼성전자는 여기에 자사 고부가가치 HBM을 공급함으로써 시장 점유율을 확대하며 SK하이닉스를 따라잡을 계획이다. 업계에 따르면 12단 HBM3E를 탑재한 엔비디아·AMD AI칩은 288GB의 용량을 갖춰 8단 HBM3E를 탑재한 기존 AI칩(192GB)보다 D램 용량이 33% 확대된다. 이는 현재 엔비디아·AMD의 AI칩이 하나의 코어에 최대 8개의 HBM D램을 패키징 결합할 수 있기 때문이다.
김경륜 삼성전자 상품기획실 상무는 "12단 HBM3E는 현재 시장 주요 제품인 8단 HBM3(4세대 고대역폭 메모리)와 비교해 2.25배 큰 용량의 제품"이라며 "전보다 더 적은 수의 AI 서버로 초거대언어모델(LLM)을 서비스할 수 있어 총소유비용(TCO·서비스운영비용) 절감에 따른 고객 기대가 크다"고 설명했다.
삼성전자는 향후 HBM 시장이 고객 요구에 맞춘 '맞춤형 메모리' 형태로 전개될 것으로 예측했다. 삼성전자 등이 반도체 표준(JEDEC)에 맞춘 D램을 납품하면 고객사가 이에 맞춰 완성된 반도체 칩을 만드는 과거 구도에서 벗어나 고객사 칩 구조에 맞춘 맞춤형 D램이 보편화될 것이란 주장이다.
이러한 고객 요구에 대응하기 위해 삼성전자는 HBM 공용 설계 성능을 강화하면서 생태계 파트너를 확대하며 맞춤화 요구에 대응할 수 있는 체계를 만들기로 했다. 또, HBM 품질을 완벽히 보증할 수 있는 설계·테스트 기술을 확보하고, 전력 소모를 줄일 수 있는 HBM 구조 연구개발에 착수한다.
김 상무는 "(AI 칩은) 향후 전력 소모를 줄이기 위해 처리장치와 D램의 거리가 더 가까워질 것"이라며 "HBM4, 3차원 패키징(결합) HBM, HBM-PIM(프로세스 인 메모리·처리장치+메모리) 등 혁신을 지속하기 위해 고객사와 지속해서 논의하고 협력할 것"이라고 밝혔다.
2025년 공개를 목표로 HBM4 개발에도 속도를 낸다. 업계에 따르면 삼성전자는 HBM4에 D램 칩을 최대 16단까지 적층하며 48GB 용량을 구현하고 메모리 컨트롤러(제어장치) 기능을 갖춘 '로직(시스템) 다이'를 더할 계획이다. 이를 통해 HBM의 핵심 성능인 대역폭(시간당 전송할 수 있는 데이터 양)을 HBM3E보다 약 66% 늘어난 2TB(테라바이트)까지 확대할 계획이다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지