현재 램 부족 사태의 가장 큰 원흉

현재 램 부족 사태의 가장 큰 원흉

  • 1위 서울교황
    4,607,000 EXP
  • 2위 덕수동
    2,907,600 EXP
  • 3위 역마쌀
    2,891,500 EXP
  • 4위 로로피아낭
    2,729,600 EXP
  • 5위 태풍
    2,295,870 EXP
  • 6위 내좀살리도
    2,289,800 EXP
  • 7위 냥냥뻔치
    2,164,000 EXP
  • 8위 오늘만산다
    1,985,400 EXP
  • 9위 도윤짱
    1,950,100 EXP
  • 10위 니깡내캉
    1,725,900 EXP
  • 1위 서울교황
    3,717,000 P
  • 2위 로로피아낭
    2,279,600 P
  • 3위 덕수동
    1,843,200 P
  • 4위 역마쌀
    1,734,300 P
  • 5위 봉구스박보검
    1,719,400 P
  • 6위 도윤짱
    1,600,100 P
  • 7위 내좀살리도
    1,434,800 P
  • 8위 냥냥뻔치
    1,333,700 P
  • 9위 태풍
    1,281,870 P
  • 10위 흑랑
    1,216,000 P
강지은 치어리더.mp4
로이스
요리하는 미연.gif
로이스
얼굴만 착해보이는 김주영
가자가자가자고 +5
운동녀의 수영장 방문기
네이마르로 +3
남편한테 사랑받는 유부녀
감정괴물 +7

현재 램 부족 사태의 가장 큰 원흉
댓글 0 조회   559

총 게시글: 1,283개 총 댓글: 0개
# 베라 루빈 NVL72 상세 요약
- CPU: Vera CPU 36개 (88코어 Arm 기반 Olympus 커스텀 코어, LPDDR5X 메모리 최대 1.5TB 지원)
- GPU: Rubin GPU 72개 (HBM4 메모리 탑재, GPU당 288GB, Transformer Engine 지원)
- 슈퍼칩 단위: Vera CPU 1개 + Rubin GPU 2개 결합
- 기타 칩: NVLink 6 스위치, ConnectX-9 SuperNIC, BlueField-4 DPU, Spectrum-6 Ethernet 스위치 등 6개 칩 극한 공동 설계
## 성능 (Blackwell 대비)
- 추론(Inference): 5배 향상 (NVFP4 기준 3.6 EFLOPS, GPU당 50 PFLOPS)
- 훈련(Training): 3.5배 향상 (NVFP4 기준 2.5 EFLOPS)
- 토큰당 비용: MoE 모델 기준 10분의 1 수준 (추론 비용 대폭 절감)
- MoE 모델 훈련: 필요한 GPU 수 4분의 1로 감소
- 메모리: HBM4 20.7TB + LPDDR5X 54TB
- 대역폭: NVLink 6로 GPU당 3.6 TB/s, 랙 전체 260 TB/s (인터넷 전체 대역폭 초과)
 
 
램을 몇층씩 적층으로 쌓은 HBM4를 '테라'단위로 씀.

시스템 구조라 1GPU당은 288GB,

이런데 램이 안 부족하면 그게 더 신기할 지경임


가지마라님의 다른 글
유머게시판
제목