본문 바로가기
경제

삼성전자 MS, 메타에 공급할 고대역폭 메모리 개발 착수, 내년 말 양산 착수

by 보나_ 2024. 11. 12.
반응형

안녕하세요, 보나입니다.

 

요즘 반도체 업체들의 HBM 경쟁이 아주 뜨거운데요.

 

삼성전자가 마이크로소프트(MS)와 메타에 맞춤형으로 공급할 고대역폭 메모리 ‘커스텀 HBM4’ 개발에 착수했다는 소식이 전해졌죠.

 

삼성전자 MS, 메타 전용 메모리 개발 착수

삼성전자 MS, 메타에 공급할 고대역폭 메모리 개발 착수, 내년 말 양산 착수
삼성전자 MS, 메타에 공급할 고대역폭 메모리 개발 착수, 내년 말 양산 착수

차세대 제품인 HBM4부터는 메모리 기능뿐만 아니라 고객사의 요구에 맞는 다양한 연산을 수행해야 하므로 ‘컴퓨팅 인 메모리(CIM·Compute-in-Memory)’라고 불립니다.

 

11일 관련 업계에 따르면, 삼성전자는 현재 MS와 메타에 제공할 HBM4를 개발 중입니다.

 

MS는 마이아 100, 메타는 아르테미스라는 자체 인공지능(AI) 칩을 보유하고 있는 것으로 알려져 있는데요.

 

업계에서 삼성전자는 메모리사업부와 연산 칩을 직접 설계할 수 있는 LSI사업부를 보유하고 있어 이들 빅테크 기업들에게 최적의 파트너로 꼽힙니다.

 

삼성전자 HBM4 개발 내년 말까지 완료 예정

삼성전자 MS, 메타에 공급할 고대역폭 메모리 개발 착수, 내년 말 양산 착수
삼성전자 MS, 메타에 공급할 고대역폭 메모리 개발 착수, 내년 말 양산 착수

대다수 빅테크 기업들은 자체 AI 데이터센터를 보유하고 있어, 칩 구매 비용을 줄일 필요성이 큰 상태인데요.

 

이들이 AI 반도체 설계 기업인 엔비디아나 AMD가 개발한 AI 칩을 구매하면서도 별도로 AI 가속기 칩을 직접 설계해 사용하는 이유가 여기에 있습니다.

 

삼성전자는 HBM4 개발을 내년 말까지 완료한 후 곧바로 양산에 돌입할 방침입니다.

 

삼성전자가 이들 기업에 공급할 커스텀 HBM4의 세부 사양은 아직 알려지지 않았지만, 지난 2월 반도체 학술대회 ‘ISSCC 2024’를 통해 HBM4 사양을 공개한 바 있습니다.

 

HBM4에 AI 연산, 데이터 처리 기능 반영

데이터 전송 속도인 대역폭은 HBM3E보다 66% 증가한 초당 2테라바이트(TB)이며, 디램(DRAM) 단수를 16단으로 쌓아 올려 용량이 현재 36GB보다 33% 늘어난 48기가바이트(GB)에 달합니다.

 

HBM3까지는 발열 해결과 속도가 관건이었는데요.

삼성전자 MS, 메타에 공급할 고대역폭 메모리 개발 착수, 내년 말 양산 착수삼성전자 MS, 메타에 공급할 고대역폭 메모리 개발 착수, 내년 말 양산 착수
삼성전자 MS, 메타에 공급할 고대역폭 메모리 개발 착수, 내년 말 양산 착수

HBM4부터는 고객 요구에 맞춰 AI 연산(NPU)이나 특정 데이터 처리 기능(IP) 등을 반영할 수 있는 역량이 더욱 중요해졌습니다.

 

HBM을 16단으로 안정적으로 쌓더라도 단과 단 사이에 고객이 요구하는 특별 단인 ‘버퍼 다이’를 설계하고 삽입할 수 있는 능력이 필요합니다.

 

전 세계 HBM 시장 규모는 올해 약 182억 달러(약 25조 원)에 도달한 후 내년에는 2.5배 커진 467억 달러(약 65조 원)로 성장할 전망입니다.

 

AI 칩 설계 1위인 엔비디아가 차세대 그래픽 처리 장치(GPU)인 ‘루빈(Rubin)’을 2026년에 양산할 계획이어서, HBM 채택을 둘러싼 경쟁이 더욱 치열해질 것으로 예상됩니다.

반응형