세레브라스 시스템즈의 시장 데뷔와 공모 시장의 열광

세레브라스 시스템즈(Cerebras Systems)의 상장은 2026년 상반기 기술주 IPO 가운데 가장 뜨거운 이벤트 중 하나로 기록됐습니다. 당초 주당 115~125달러로 예상됐던 공모가는 기관 투자자들의 폭발적인 수요 속에서 150~160달러로 상향 조정됐고, 최종적으로는 이를 뛰어넘는 185달러에 확정됐습니다.

상장 첫날 주가는 시초가 350달러로 출발해 장중 한때 385달러까지 치솟았으며, 공모가 대비 약 68.2% 상승한 311.07달러에 마감했습니다. 이에 따라 세레브라스의 시가총액은 약 670억 달러, 완전 희석 기준으로는 최대 1,067억 달러 수준까지 평가받았습니다.

이는 시장이 세레브라스를 단순한 AI 스타트업이 아니라, 엔비디아(NVIDIA)의 실질적인 대항마로 인식하고 있음을 보여주는 상징적인 사건이었습니다.


HBM은 정말 필요 없는가? 세레브라스의 기술적 반란

세레브라스가 엔비디아와 가장 강하게 충돌하는 지점은 바로 메모리 아키텍처입니다.

엔비디아는 GPU 주변에 HBM(고대역폭 메모리)을 적층해 데이터를 공급하는 구조를 사용합니다. 반면 세레브라스는 “칩 내부에 메모리를 최대한 집어넣는다”는 완전히 다른 철학을 선택했습니다.

SRAM vs HBM: 대역폭의 한계를 돌파하다

세레브라스의 WSE-3 칩에는 무려 44GB 규모의 SRAM(Static Random Access Memory)이 내장되어 있습니다. 숫자만 보면 엔비디아 B200의 HBM3e 용량(192GB)보다 작아 보이지만, 핵심은 ‘용량’이 아니라 ‘속도’입니다.

  • 압도적인 메모리 대역폭
    세레브라스 WSE-3의 메모리 대역폭은 초당 21PB/s(페타바이트)에 달합니다. 이는 엔비디아 H100의 약 3TB/s 대비 약 7,000배, B200의 8TB/s 대비 약 2,625배 수준의 차이를 의미합니다.
  • 데이터 이동 병목 제거
    기존 GPU 구조에서는 데이터를 HBM에서 연산 코어로 이동시키는 과정에서 상당한 시간과 전력이 소모됩니다. 하지만 세레브라스는 연산 코어 바로 옆에 SRAM이 위치하기 때문에 데이터 이동 거리가 사실상 ‘제로’에 가깝습니다.
  • HBM의 필요성 논쟁
    세레브라스는 초저지연 추론(Inference) 환경에서는 오히려 HBM이 병목이 될 수 있다고 주장합니다. 다만 수조 개의 파라미터를 가진 초거대 모델 저장에는 여전히 대용량 메모리가 필요하며, 이를 위해 외부 DRAM을 연결하는 ‘MemoryX’ 기술을 활용하고 있습니다.

삼성전자와 SK하이닉스에게 위협인가, 기회인가?

세레브라스 시스템즈의 상장과 SRAM 중심 아키텍처의 부상은 한국 메모리 반도체 산업에도 상당한 영향을 미치고 있습니다. 특히 삼성전자와 SK하이닉스에는 위협과 기회가 동시에 존재합니다.

1. HBM 수요 잠식 우려와 현실적 한계

일부 시장에서는 세레브라스 방식이 확산될 경우 삼성전자와 SK하이닉스의 핵심 수익원인 HBM 수요가 감소할 수 있다는 우려를 제기합니다. 하지만 업계 전문가들은 SRAM이 HBM을 완전히 대체하기는 어렵다고 평가합니다.

  • 비용과 집적도의 한계
    SRAM 셀은 DRAM 셀보다 물리적으로 5~10배 큰 면적을 차지하며 비트당 비용 역시 훨씬 높습니다. 따라서 초거대 AI 모델의 메인 메모리 역할은 여전히 DRAM과 HBM이 담당할 가능성이 높습니다.
  • 보완적 관계 형성
    세레브라스 구조는 초저지연 추론에 특화된 솔루션입니다. 향후 AI 인프라는 SRAM(초저지연) + HBM(고대역폭 메인 메모리) + DRAM(시스템 메모리) 구조로 진화할 가능성이 큽니다.

2. 삼성전자의 전략적 우위

삼성전자는 메모리 제조와 첨단 파운드리 사업을 동시에 수행하고 있다는 점에서 독특한 위치를 차지합니다.

  • SRAM 파운드리 수혜 가능성
    SRAM은 로직 공정과 유사한 제조 방식이 필요합니다. 삼성전자는 첨단 공정 경쟁력을 바탕으로 비GPU 계열 AI 칩 업체들의 주요 생산 파트너가 될 가능성이 있습니다.
  • HBM4E 선점 전략
    삼성은 최근 데이터센터용 HBM4E 코어 다이 웨이퍼를 공개하며 차세대 AI 메모리 시장에서도 존재감을 강화하고 있습니다.

3. SK하이닉스와 HBM 슈퍼사이클

SK하이닉스는 엔비디아와의 긴밀한 협력을 바탕으로 HBM 시장 리더십을 더욱 강화하고 있습니다.

  • 엔비디아 루빈(Rubin) 플랫폼 협력
    SK하이닉스는 엔비디아 차세대 플랫폼 ‘루빈’에 최적화된 메모리 모듈 양산을 준비 중이며, 2026년까지 HBM4E 샘플 공급 계획을 밝힌 상태입니다.
  • 지속되는 공급 부족
    2026년 글로벌 메모리 지출은 약 6,330억 달러 규모로 확대될 전망이며, AI 데이터센터가 고성능 DRAM 수요의 중심축이 되면서 HBM 슈퍼사이클이 지속될 가능성이 높습니다.

결론: AI 메모리 패권 전쟁은 이제 시작이다

세레브라스의 성공적인 상장은 AI 반도체 시장이 더 이상 GPU 단일 구조로만 흘러가지 않는다는 신호탄입니다. AI 인프라는 앞으로 더욱 다양한 아키텍처 경쟁 체제로 진입할 가능성이 큽니다.

단기적으로는 HBM 시장에 대한 심리적 우려가 발생할 수 있지만, 대규모 AI 학습(Training)과 범용 추론 시장에서는 여전히 HBM의 역할이 절대적입니다.

특히 세레브라스조차 외부 DRAM 기반의 ‘MemoryX’를 사용하고 있다는 점은, 결국 어떤 형태의 AI 인프라에서도 대규모 메모리 수요 자체는 줄어들기 어렵다는 사실을 보여줍니다.

다만 향후 오픈AI, 구글, 메타 같은 초대형 AI 기업들이 추론 워크로드 일부를 SRAM 중심 구조로 전환할 경우, 메모리 시장의 구성(Mix)은 변화할 가능성이 있습니다.

결국 삼성전자와 SK하이닉스의 미래 경쟁력은 단순한 메모리 생산이 아니라, HBM4E·PIM·차세대 AI 메모리 생태계 전체를 얼마나 선점하느냐에 달려 있다고 볼 수 있습니다.