목차
반응형
엔비디아 2025년 1분기 어닝콜 스크립트를 요약/정리
Nvidia (NVDA) Q1 2025 Earnings Call Transcript | The Motley Fool
NVDA earnings call for the period ending March 31, 2024.
www.fool.com
매출 요약
총 매출
- $26 billion (전년 대비 262% 증가)
데이터 센터 매출
- $22.6 billion (전년 대비 427% 증가)
게이밍 매출
- $2.65 billion (전년 대비 18% 증가)
프로페셔널 비주얼라이제이션(프로비즈) 매출
- $427 million (전년 대비 45% 증가)
자동차 매출
-$329 million (전년 대비 11% 증가)
데이터 센터 수익의 급증
총 매출
- 데이터 센터 매출은 $22.6 billion으로, 전년 대비 427% 증가.
순차적 증가
- 전분기 대비 23% 증가.
컴퓨팅 매출
- 전년 대비 5배 이상 증가.
네트워킹 매출
- 전년 대비 3배 이상 증가.
고객 유형별 성장
- 대형 클라우드 제공자
- 데이터 센터 매출의 중간 40%대를 차지.
- 기업 및 소비자 인터넷 기업
- 강력한 성장 주도.
- 엔터프라이즈
- 테슬라의 AI 클러스터 확장 등으로 인한 강력한 성장.
주요 프로젝트
- 테슬라: 35,000개의 H100 GPU 기반 AI 클러스터 확장.
- 메타: 24,000개의 H100 GPU로 훈련된 Llama 3 발표.
지역별 성장
- 주요 국가 투자: 일본, 프랑스, 이탈리아, 싱가포르 등 다양한 국가에서 데이터 센터 인프라 투자.
소버린 AI
- 소버린 AI 수익: 전년도에는 없었지만, 올해는 고자릿수 억 달러에 달할 것으로 예상.
H100과 H200, Blackwell GPU의 수요 초과 공급
H100 GPU 수요
- H100에 대한 수요: 계속 증가 중.
- CUDA 알고리즘 혁신: H100에서 LLM 추론을 최대 3배 가속화, 비용 절감 효과 제공.
- 공급 상황: H100의 공급이 증가했지만 여전히 수요를 충족하지 못함.
H200 GPU 출시
- H200 샘플링: 1분기 시작.
- 생산 및 출하: 2분기 출하 예정, 생산은 이미 시작됨.
- 성능 개선: H100 대비 추론 성능을 거의 두 배로 향상.
- 첫 시스템 배달: OpenAI 팀에게 첫 번째 H200 시스템 전달, GPT-4o 데모에 사용.
- 수요 상황: H200에 대한 수요가 공급을 앞지름.
Blackwell GPU
- Blackwell 플랫폼 출시: 3월 GTC에서 차세대 AI 공장 플랫폼인 Blackwell 발표.
- 성능 향상: H100 대비 최대 4배 빠른 훈련 및 30배 빠른 추론 제공.
- 에너지 효율성: 최대 25배 낮은 총 소유 비용(TCO) 및 에너지 소비.
- 구성 요소: NVLink 5세대, X800 시리즈 InfiniBand 및 이더넷 스위치 포함.
- 시스템 호환성: x86, Grace CPU, 이더넷, InfiniBand 네트워킹, 공기 냉각 및 액체 냉각 모두 지원.
- 수요 및 공급 전망: 2024년 말까지 H200 및 Blackwell에 대한 수요가 공급을 초과할 것으로 예상.
제품 생산 및 출하
- H100 공급 증가: H200 및 Blackwell 출시 준비 중.
- 시스템 생산: Blackwell은 이미 생산 중이며, 시스템과 클라우드 파트너가 글로벌 가용성을 위해 준비 중.
- 제품 수요: H200 및 Blackwell에 대한 수요가 공급을 한참 앞지르고 있으며, 내년까지 계속 그럴 것으로 예상.
고객 및 애플리케이션
- H100 활용 고객: 대형 클라우드 제공자, 엔터프라이즈, 소비자 인터넷 기업 등.
- Blackwell 초기 고객: 아마존, 구글, 메타, 마이크로소프트, 오픈AI, 오라클, 테슬라, XAi 등.
- 애플리케이션 예: OpenAI의 GPT-4o 데모, 메타의 Llama 3 훈련, 테슬라의 자율 주행 소프트웨어.
시장 전망
- 강력한 수요: H100, H200, Blackwell에 대한 강력한 수요는 다양한 산업 및 애플리케이션에서 지속될 것으로 예상.
- 공급 제약: H200 및 Blackwell의 수요가 공급을 계속 앞지르며, 이에 따른 지속적인 성장이 예상됨.
소버린 AI 시장의 성장 가능성
소버린 AI 정의
- 소버린 AI: 국가가 자체 인프라, 데이터, 인력, 비즈니스 네트워크를 활용해 인공지능을 생산하는 능력.
시장 성장 전망
- 작년 대비 성장: 전년에는 소버린 AI 매출이 없었으나, 올해는 고자릿수 억 달러에 달할 것으로 예상.
국가별 투자 및 프로젝트
- 일본
- 투자 금액: 7억 4천만 달러 이상 투자.
- 투자 대상: KDDI, 사쿠라 인터넷, 소프트뱅크 등 주요 디지털 인프라 제공 업체.
- 목적: 일본의 소버린 AI 인프라 구축.
- 프랑스
- 프로젝트: Scaleway, Iliad Group의 자회사로서 유럽에서 가장 강력한 클라우드 네이티브 AI 슈퍼컴퓨터 구축.
- 이탈리아
- 프로젝트: Swisscom Group이 이탈리아 최초의 강력한 NVIDIA DGX 기반 슈퍼컴퓨터 구축.
- 목적: 이탈리아어로 네이티브 훈련된 최초의 대형 언어 모델 개발.
- 싱가포르
- 업그레이드 계획: National Supercomputer Centre가 NVIDIA Hopper GPU로 업그레이드.
- 추가 프로젝트: Singtel이 동남아시아 전역에 NVIDIA 가속 AI 공장 구축.
소버린 AI 수익 예상
- 매출 목표: 소버린 AI 매출이 올해 고자릿수 억 달러에 이를 것으로 예상.
- 주요 원인: 국가별 AI 투자 증가와 다양한 프로젝트.
NVIDIA의 역할
- 종합 컴퓨팅 솔루션 제공: 컴퓨팅에서 네트워킹 기술까지, 소프트웨어 및 AI 전문성 제공.
- 파트너 생태계: 다양한 파트너 및 고객 생태계를 통해 국가 AI 야망 지원.
- 구체적인 예: NVIDIA AI 인프라를 활용하여 테슬라의 자율 주행 소프트웨어 성능 개선.
경쟁 및 시장 상황
- 중국 시장
- 매출 감소: 새로운 수출 통제 규제 이후 데이터 센터 매출 감소.
- 경쟁 심화: 새로운 제품을 통해 시장 경쟁력 유지.
- 전략: 규제를 준수하면서 맞춤형 제품 제공.
제품 및 기술 혁신
- Hopper GPU 아키텍처: LLM 추론을 최대 3배 가속화, 비용 절감.
- H200 및 Blackwell: 새로운 아키텍처로 성능 향상.
- Grace Hopper 슈퍼칩: 에너지 효율적인 AI 처리 능력 제공.
미래 전망
- AI의 중요성: AI의 중요성이 모든 국가의 관심을 끌고 있음.
- 지속적인 성장: AI 투자와 인프라 구축이 지속적으로 증가할 것으로 예상.
Grace Hopper 슈퍼칩의 대량 출하와 에너지 효율성
Grace Hopper 슈퍼칩의 개요
- 제품명: Grace Hopper 슈퍼칩.
- 주요 특징: 고에너지 효율과 높은 성능을 제공하는 AI 처리 능력.
출하 상황
- 대량 출하: Grace Hopper 슈퍼칩이 대량으로 출하되고 있음.
- 출하 시기: 1분기 동안 출하 시작.
주요 수퍼컴퓨터 적용 사례
- Alps 슈퍼컴퓨터: 스위스 국가 슈퍼컴퓨팅 센터에서 사용, 유럽에서 가장 빠른 AI 슈퍼컴퓨터.
- Isambard-AI: 영국 브리스톨 대학교에서 사용.
- JUPITER 슈퍼컴퓨터: 독일 Julich 슈퍼컴퓨팅 센터에서 사용.
에너지 효율성
- 세계 최고 에너지 효율성: Grace Hopper가 사용된 슈퍼컴퓨터가 세계에서 가장 에너지 효율적인 슈퍼컴퓨터 순위 1위, 2위, 3위를 차지.
- 이유: Grace Hopper의 높은 에너지 효율성 및 성능 덕분.
채택 비율
- 슈퍼컴퓨팅 채택률: Grace Hopper가 80%의 채택률을 기록, 이는 고성능과 에너지 효율성 때문.
향후 전망
- 계속되는 수요: Grace Hopper의 높은 성능과 에너지 효율성 덕분에 수요가 지속될 것으로 예상.
- 업계 표준: 에너지 효율성이 중요한 시대에 Grace Hopper가 표준으로 자리 잡을 가능성.
업계 반응
- 국제 슈퍼컴퓨팅 컨퍼런스 발표: 200 엑사플롭스 이상의 AI 처리 능력을 제공하는 9개의 새로운 슈퍼컴퓨터가 Grace Hopper를 사용한다고 발표.
시장의 기대
- 새로운 시스템 채택: 다양한 산업과 국가에서 Grace Hopper 기반 시스템을 채택할 것으로 예상.
- NVIDIA의 전략적 위치 강화: 고성능 및 에너지 효율적인 AI 솔루션 제공을 통해 시장에서의 위치 강화.
AI 공장의 중요성과 다음 산업 혁명
AI 공장의 개념
- 정의: AI 공장은 데이터가 입력되고 지능이 출력되는 차세대 데이터 센터.
- 주요 특징: 고성능 컴퓨팅 플랫폼을 통해 AI를 생산하는 인프라.
산업 혁명의 시작
- 주요 주장: 다음 산업 혁명이 시작되었으며, AI가 주요 동력.
- 변화의 성격: 기존 데이터 센터의 가속화된 컴퓨팅으로의 전환과 새로운 데이터 센터, 즉 AI 공장의 구축.
AI 공장의 생산성 향상
- 생산성 증가: AI는 거의 모든 산업에 걸쳐 생산성을 크게 향상시킴.
- 비용 절감 및 효율성 증대: 기업들이 비용과 에너지를 절감하고, 수익 기회를 확대하는 데 도움.
주요 고객 및 산업 적용 사례
- 대형 클라우드 서비스 제공자(CSP): AI 공장을 통해 비용과 전력을 절감하고, AI 서비스로 수익을 창출.
- 기업 및 소비자 인터넷 기업: AI 인프라의 활용이 성장의 주요 동력.
- 자율 주행 자동차 산업: 테슬라와 같은 기업이 AI 공장을 통해 자율 주행 소프트웨어 개발 가속화.
기술적 혁신과 플랫폼 변환
- 컴퓨팅의 변화: 전통적인 CPU 중심의 컴퓨팅에서 GPU 가속 컴퓨팅으로의 전환.
- 모델의 변화: 정보 검색에서 답변 및 스킬 생성 모델로의 전환.
- 인공지능의 진화: AI가 문맥과 의도를 이해하고, 지식을 바탕으로 계획을 세우고 작업을 수행.
AI 공장의 사례 및 도입
- 메타의 Llama 3: 24,000개의 H100 GPU로 훈련된 Llama 3 모델을 AI 공장에서 활용.
- 테슬라의 자율 주행: 35,000개의 H100 GPU를 사용한 AI 클러스터 확장.
수요와 공급
- 수요 초과 공급: AI 공장의 수요가 공급을 초과하며, 앞으로도 수요가 계속 증가할 것으로 예상.
- 글로벌 AI 투자: 전 세계 여러 국가가 자국의 AI 인프라 구축을 위해 대규모 투자.
NVIDIA의 역할
- 완전한 솔루션 제공: GPU, CPU, 네트워킹 기술, 소프트웨어 스택 등 엔드 투 엔드 컴퓨팅 솔루션 제공.
- 생태계 구축: 다양한 파트너 및 고객 생태계를 통해 AI 공장의 성공적인 구축 지원.
- 혁신적인 제품: Hopper, H200, Blackwell과 같은 최신 GPU 아키텍처 및 Grace CPU와의 통합을 통해 AI 공장의 성능 향상.
RTX GPU를 활용한 AI PC의 성장 가능성
RTX GPU와 AI의 통합
- CUDA Tensor 코어: GeForce RTX GPU는 CUDA Tensor 코어를 장착하여 AI 작업을 가속화.
- AI 애플리케이션 실행: RTX GPU는 게이머, 크리에이터, AI 애호가에게 이상적이며, PC에서 생성형 AI 애플리케이션 실행에 뛰어난 성능 제공.
시장 성장 동력
- 설치 기반: 1억 대 이상의 GeForce RTX GPU가 설치되어 있어 AI PC의 성장을 촉진.
- 범용성: AI 모델을 빠르고 효율적으로 실행할 수 있는 능력 덕분에 다양한 사용자층에게 어필.
기술 최적화
- TensorRT-LLM: Microsoft's Phi-3 Mini 모델, Google's Gemma 2B 및 7B 모델과 같은 인기 있는 AI 프레임워크를 가속화.
- LangChain 및 LlamaIndex: 이러한 AI 프레임워크와의 호환성으로 AI PC의 활용도를 높임.
성능 최적화
- Windows 최적화: NVIDIA와 Microsoft가 협력하여 Windows에서 AI 성능 최적화, AI 모델 실행 속도를 최대 3배 향상.
- 최적화 적용: NVIDIA GeForce RTX AI PC에서 실행되는 AI 모델에 적용.
게임 개발자와의 협력
- 주요 개발자: NetEase Games, Tencent, Ubisoft 등 주요 게임 개발자가 NVIDIA Avatar Character Engine을 채택.
- 게임 내 AI: 생동감 있는 아바타를 생성하여 게이머와 비플레이어 캐릭터 간의 상호작용을 혁신.
AI PC의 잠재력
- 성장 가능성: AI PC 시장은 생성형 AI 애플리케이션의 확산과 함께 큰 성장 가능성을 보유.
- AI 애호가 및 전문가: 게이머 외에도 크리에이터, AI 연구자 및 개발자들에게 높은 관심을 받을 전망.
미래 전망
- 새로운 사용 사례: AI 기반 생산성 도구, 멀티미디어 편집 소프트웨어, 가상 비서 등 다양한 새로운 사용 사례 등장 예상.
- 지속적인 혁신: NVIDIA의 지속적인 기술 혁신을 통해 AI PC의 성능 및 효율성 지속 향상.
시장 기회
- 생성형 AI의 중요성: 생성형 AI가 PC의 필수 기능으로 자리 잡을 가능성.
- 고성능 컴퓨팅 수요: AI 작업의 복잡성과 규모가 커짐에 따라 고성능 컴퓨팅 수요 증가.
Blackwell 플랫폼의 범용성 및 확장성
Blackwell 플랫폼 개요
- 발표: 2024년 3월 GTC에서 차세대 AI 공장 플랫폼인 Blackwell 발표.
- 주요 특징: 최대 4배 빠른 훈련 및 30배 빠른 추론 성능 제공, 최대 25배 낮은 총 소유 비용(TCO) 및 에너지 소비.
구성 요소
- GPU 아키텍처: Blackwell GPU 아키텍처.
- 연결성: 5세대 NVLink와 멀티-GPU 스파인, X800 시리즈 InfiniBand 및 이더넷 스위치 포함.
- 냉각 옵션: 공기 냉각 및 액체 냉각 모두 지원.
범용성
- CPU 호환성: x86 및 Grace CPU 모두 지원.
- 네트워킹 호환성: InfiniBand와 이더넷 네트워킹 모두 지원.
- 데이터 센터 호환성: 하이퍼스케일에서 엔터프라이즈까지 다양한 데이터 센터 환경에 적합.
확장성
- GPU 스케일링: 72개의 Blackwell GPU를 연결하여 하나의 거대한 GPU처럼 동작하는 NVLink 도메인 지원.
- 시스템 호환성: 100개 이상의 OEM 및 ODM 시스템에서 Blackwell을 사용할 수 있음.
- 수직 시장 적용: 클라우드 서비스 제공자, 소비자 인터넷 기업, 엔터프라이즈, 자율 주행 및 헬스케어 등 다양한 수직 시장에 적용 가능.
주요 고객
- 초기 고객: Amazon, Google, Meta, Microsoft, OpenAI, Oracle, Tesla, XAi 등.
- 사용 사례: OpenAI의 GPT-4o 데모, Meta의 Llama 3 훈련 등.
소프트웨어 통합
- NVIDIA NIMs: 안전하고 성능 최적화된 컨테이너 제공.
- 범용 소프트웨어: 다양한 AI 애플리케이션에 사용 가능한 표준 API 포함.
수요 및 공급
- 높은 수요: Blackwell에 대한 수요가 공급을 앞지르고 있음.
- 공급 전망: 2024년 말까지 수요가 공급을 초과할 것으로 예상.
미래 전망
- 차세대 혁신: Blackwell 이후에도 지속적인 혁신을 통해 성능과 효율성 향상 예상.
- 에코시스템 강화: 다양한 파트너 및 고객 생태계와의 협력을 통해 Blackwell 플랫폼의 범용성과 확장성을 극대화.
NVIDIA의 차세대 네트워킹 기술, Spectrum-X의 도입
Spectrum-X 개요
- 제품명: Spectrum-X 이더넷 네트워킹 솔루션.
- 목적: AI에 최적화된 이더넷 네트워킹 솔루션 제공.
- 주요 구성 요소: Spectrum-4 스위치, BlueField-3 DPU, 새로운 소프트웨어 기술 포함.
성능 향상
- AI 처리 성능: 전통적인 이더넷 대비 1.6배 높은 네트워킹 성능 제공.
- 최적화 기술: AI 워크로드의 처리 성능을 극대화하기 위한 소프트웨어 기술 도입.
주요 적용 사례
- 대규모 클러스터: 100,000 GPU 클러스터와 같은 대규모 AI 클러스터에 적용.
- 에너지 효율성: 고성능을 유지하면서도 에너지 효율성을 극대화하는 디자인.
시장 도입
- 고객 및 파트너: Dell을 포함한 다수의 고객과 파트너가 Spectrum-X를 채택.
- 사용 사례: 다양한 데이터 센터와 클라우드 환경에서 대규모 AI 워크로드를 처리하는 데 사용.
제품 라인 확장
- 향후 전망: Spectrum-X가 멀티빌리언 달러 제품 라인으로 성장할 것으로 예상.
- 기술 혁신: 지속적인 기술 혁신을 통해 새로운 시장 기회 창출.
기술적 특징
- 네트워크 성능: AI 처리에 최적화된 네트워킹 성능을 제공, 전통적인 이더넷의 한계를 극복.
- 하드웨어 통합: Spectrum-4 스위치와 BlueField-3 DPU의 긴밀한 통합을 통한 최적화.
NVIDIA의 전략
- 이더넷 데이터 센터: 이더넷만을 사용하는 데이터 센터에서도 대규모 AI 워크로드를 처리할 수 있는 솔루션 제공.
- AI 네트워킹 시장 개척: 기존의 네트워킹 솔루션을 뛰어넘는 성능과 효율성을 제공하여 AI 네트워킹 시장을 주도.
기대 효과
- 비용 절감: 높은 성능과 에너지 효율성을 통해 데이터 센터 운영 비용 절감.
- 생산성 향상: AI 처리 성능의 극대화를 통해 데이터 센터와 클라우드 서비스의 생산성 향상.
- 시장 경쟁력 강화: 차세대 네트워킹 기술 도입을 통해 NVIDIA의 시장 경쟁력 강화.
매출 전망
총 매출 전망
- 2분기 매출: 총 매출은 $28 billion (±2%)로 예상.
- 순차적 성장: 모든 시장 플랫폼에서 순차적인 성장 예상.
데이터 센터 매출
- 계속되는 성장: H100, H200, Blackwell GPU의 강력한 수요로 인해 데이터 센터 매출이 계속 성장할 것으로 예상.
- 소버린 AI: 소버린 AI 프로젝트에서의 매출이 고자릿수 억 달러에 이를 것으로 예상.
게이밍 매출
- 계절적 감소: 1분기에는 계절적 요인으로 인해 소폭 감소했으나, 장기적으로는 RTX GPU 기반 AI PC의 성장 잠재력으로 인해 안정적인 매출이 예상됨.
프로페셔널 비주얼라이제이션(프로비즈) 매출
- 성장 요인: Omniverse 및 산업 디지털화에 대한 수요 증가로 인해 매출 증가 예상.
자동차 매출
- 성장 요인: AI Cockpit 솔루션과 자율 주행 플랫폼의 강력한 수요로 인해 매출 증가 예상.
- 신규 디자인 윈: BYD, XPeng, GAC, Nuro와 같은 주요 EV 제조사들의 채택으로 매출 성장 기대.
AI 공장의 매출
- 다양한 산업 적용: 클라우드 서비스 제공자, 소비자 인터넷 기업, 엔터프라이즈, 자율 주행 및 헬스케어 등 다양한 산업에서 AI 공장 매출 증가 예상.
네트워킹 매출
- Spectrum-X 도입: AI에 최적화된 Spectrum-X 이더넷 네트워킹 솔루션의 채택 증가로 매출 성장 예상.
- InfiniBand: 지속적인 성장 및 공급 타이밍 조절로 인해 매출 증가 예상.
비용 및 마진
- 총 마진: GAAP 총 마진은 74.8%, 비GAAP 총 마진은 75.5% (±50bps)로 예상.
- 운영 비용: GAAP 운영 비용은 약 $4 billion, 비GAAP 운영 비용은 약 $2.8 billion으로 예상.
- 세율: GAAP 및 비GAAP 세율은 약 17% (±1%)로 예상.
반응형
'엔비디아(NVDA)' 카테고리의 다른 글
엔비디아(NVDA) 2024/Q4 earnings call 4분기 실적발표 (0) | 2024.02.24 |
---|---|
엔비디아(NVDA) 2024/Q4 earnings release 재무제표 요약 (0) | 2024.02.22 |
엔비디아(NVDA) 2024/Q3 earnings call 3분기 실적발표 (0) | 2024.02.21 |