엔비디아, 최신 AI 칩 ‘H200’ 공개…“H100보다 출력 두 배 빨라”

입력 2023-11-14 11:21
  • 가장작게

  • 작게

  • 기본

  • 크게

  • 가장크게

차세대 메모리 ‘HBM3’ 탑재
내년 2분기 출하 예정

▲엔비디아의 최신 그래픽처리장치(GPU) H200. 출처 엔비디아 홈페이지
▲엔비디아의 최신 그래픽처리장치(GPU) H200. 출처 엔비디아 홈페이지
인공지능(AI)용 반도체 시장을 주도하고 있는 엔비디아가 AI 언어모델 훈련용 최신 칩을 발표했다.

13일(현지시간) CNBC에 따르면 엔비디아는 대규모언어모델(LLM)을 훈련하도록 설계된 최신 그래픽처리장치(GPU) H200을 공개했다. H200은 챗GPT 개발사 오픈AI가 자사의 최신 LLM인 GPT-4 훈련에 사용하는 칩 H100의 업그레이드 버전이다.

H200에는 141기가바이트(GB)의 차세대 메모리 ‘HBM3’가 탑재됐다. HBM(고대역폭메모리)은 데이터 전송 속도를 높여 고성능을 발휘하는 메모리로, 텍스트와 이미지 등을 생성하기 위해 훈련된 LLM의 추론에 도움이 된다.

엔비디아는 “HBM3을 사용하면 H200은 A100에 비해 용량은 약 2배 늘어나고 대역폭은 2.4배 증가한 초당 4.8테라바이트(TB)가 될 것”이라고 설명했다. 또 메타의 LLM 라마2에 H200을 사용한 테스트를 근거로 “H200의 출력이 H100보다 약 2배 빠르다”고 강조했다.

미국 투자은행 레이몬드제임스 추정에 따르면 현재 H100 칩 가격은 2만5000~4만 달러(약 3300만~ 5290만 원)다. LLM을 훈련하는 과정에는 수천 개의 칩이 필요하다. H200의 가격은 아직 알려지지 않았다.

엔비디아는 내년 2분기 H200 출하를 시작할 예정이다.

이안 벅 엔비디아 하이퍼스케일·HPC담당 부사장은 “대용량의 데이터를 고속으로 효율적으로 처리하기 위해 크고 빠른 GPU 메모리를 사용해야 한다”면서 “엔비디아의 H200을 통해 세계에서 가장 중요한 과제 중 일부를 해결하는 속도가 더 빨라질 것”이라고 말했다.

  • 좋아요0
  • 화나요0
  • 슬퍼요0
  • 추가취재 원해요0

주요 뉴스

  • '수조원'로 쏟았는데…AI 빅테크, 미생ㆍ완생 딜레마 [AI, 거품론 vs 수익화]
  • 에스파→염정아 이어 임영웅까지…이들이 '촌스러움'을 즐기는 이유 [이슈크래커]
  • 중고거래 판매자·구매자 모두 "안전결제 필요" [데이터클립]
  • 법조계 판도 흔드는 ‘AI’…美선 변호사 월급 좌지우지 [로펌, AI에 미래 걸다 ②]
  • “HBM3는 시작 했는데”…삼성전자, 엔비디아 ‘HBM3E’ 공급은 언제될까
  • 배드민턴협회장, 선수단과 따로 귀국…대표팀 감독은 '침묵' [파리올림픽]
  • 'NEW' 피프티 피프티로 돌아온다…키나 포함 5인조로 9월 20일 전격 컴백
  • 음주 전동킥보드 혐의…BTS 슈가 "여지가 없는 제 책임, 머리 숙여 사과"
  • 오늘의 상승종목

  • 08.07 장종료

실시간 암호화폐 시세

  • 종목
  • 현재가(원)
  • 변동률
    • 비트코인
    • 81,323,000
    • +3.61%
    • 이더리움
    • 3,501,000
    • +0.34%
    • 비트코인 캐시
    • 463,500
    • +4.23%
    • 리플
    • 734
    • +2.51%
    • 솔라나
    • 217,300
    • +10.08%
    • 에이다
    • 477
    • +3.25%
    • 이오스
    • 653
    • +1.24%
    • 트론
    • 178
    • +1.71%
    • 스텔라루멘
    • 137
    • +7.87%
    • 비트코인에스브이
    • 59,750
    • +13.49%
    • 체인링크
    • 14,420
    • +1.84%
    • 샌드박스
    • 356
    • +2.89%
* 24시간 변동률 기준