NVIDIA GTC 2026:AI 수익 1조 달러 달성을 위한 과정 계획

엔비디아 GTC(또는 GPU 기술 컨퍼런스)는 2009년 출범 이후 회사의 영향력과 매출과 함께 매년 성장하는 세계 최고의 AI 컨퍼런스 중 하나로 자리 잡았다. 그러나 올해는 중점 사항이 바뀌었습니다. 과거에 회사는 새로운 시장으로 확장하는 방법에 중점을 두었습니다. 올해는 특히 AI 환경 전반의 핵심 플레이어로서 해당 시장 내에서 어떻게 확장할 것인지 보여주었습니다. Nvidia의 야망과 현재의 성공에 대한 분명한 신호로 Nvidia는 2026년까지 5,000억 달러에 달하는 AI 수익 전망을 2027년까지 1조 달러라는 엄청난 규모로 상향 조정했습니다.

특히 CEO Jensen Huang은 AI 추론에 대한 수요 증가와 에이전트 워크로드의 급속한 증가, 그리고 이러한 성장이 AI 컴퓨팅 전체에 어떤 영향을 미칠 수 있는지에 대해 설명했습니다.

풀 스택을 위한 Nvidia의 비전:AII의 5층 케이크

황은 2025년 12월부터 AI의 '5층 케이크' 아이디어를 홍보해 왔습니다. 이 개념은 단순한 앱이나 모델보다 훨씬 복잡한 기술의 본질적인 수직적 특성을 전달하려고 시도하기 때문에 AI에 대한 회사의 전반적인 전략을 요약하는 것으로 보입니다. AI는 기본 에너지 요구 사항부터 개별 애플리케이션까지 다양한 계층을 갖춘 중요한 인프라로 묘사됩니다. 이는 또한 일반 사람을 위한 전체 AI 스택의 복잡성을 단순화하려는 시도입니다.

NVIDIA GTC 2026:AI 수익 1조 달러 달성을 위한 과정 계획

엔비디아의 AI 5층 케이크

사진 제공:엔비디아

이 스택의 기본에는 에너지가 있으며, 이는 특정 위치에 얼마나 많은 컴퓨팅을 구축할 수 있는지에 대한 제한 요소로 더 많은 주목을 받고 있습니다. 결과적으로 해당 에너지를 사용하는 칩은 AI 문제를 해결하는 데 사용할 수 있는 컴퓨팅 양을 결정합니다. 다음은 토지, 건물, 전력 공급, 컴퓨팅 장비, 냉각 및 네트워킹을 통해 이러한 칩을 지원하는 인프라입니다. 인프라는 애플리케이션과 사용 사례에 따라 달라지는 AI 모델을 지원합니다. 최상위 수준에서 애플리케이션 자체는 모델 출력을 활용하여 AI의 경제적 가치의 기반인 소비자, 비즈니스 사용자, 정부 기관 등에 결과를 제공합니다.

Huang은 "인류 역사상 최대 규모의 인프라 구축"을 지원하기 위해 전체 컴퓨팅 스택을 재창조해야 한다고 말했습니다. Nvidia는 이 메시지를 사용하여 칩 제조업체일 뿐만 아니라 모든 컴퓨팅이 이제 AI로 전환되고 있기 때문에 모든 컴퓨팅의 기본 지원자로서 자리매김하고 있습니다. CEO는 "수직적 통합과 수평적 개방성"을 결합한 Nvidia의 접근 방식에 대해 이야기합니다. 즉, Nvidia의 모델은 누구에게나 열려 있지만 컴퓨팅에 대한 접근 방식은 모든 계층에서 수직적으로 통합된다는 의미입니다.

Vera Rubin Pod, LPX 및 10배 수익 기회

Vera Rubin은 Vera CPU와 Rubin GPU를 결합한 Nvidia의 곧 출시될 고급 컴퓨팅 플랫폼입니다. 지금부터 몇 달 후에 배송이 시작될 예정입니다. Vera Rubin Pod는 데이터 센터 내에서 AI 컴퓨팅 밀도를 또 한 번 크게 향상시킬 것을 약속하는 Nvidia의 랙 규모 제품입니다. 이는 5개의 서로 다른 랙 시스템에 걸쳐 7가지 유형의 Nvidia 칩을 통합하여 지난 세대의 Blackwell 플랫폼보다 최대 10배 빠른 속도로 토큰 생성 및 수익을 가능하게 하는 고성능 구성을 생성합니다. Nvidia는 이를 통해 연간 최대 3,000억 달러의 추론 기회가 가능하다고 주장합니다.

NVIDIA GTC 2026:AI 수익 1조 달러 달성을 위한 과정 계획

Nvidia의 아키텍처 추론 기회를 분석한 차트

사진 제공:엔비디아

Vera Rubin Pod의 가장 큰 활성화 요소 중 하나는 Groq 3 LM30 칩을 활용하는 Groq의 LPX 플랫폼을 사용한다는 것입니다. Groq의 언어 처리 장치는 DRAM(동적 랜덤 액세스 메모리)과 달리 상당한 양의 SRAM(정적 랜덤 액세스 메모리)을 사용한다는 점에서 Nvidia의 GPU와 본질적으로 다릅니다. Groq LPU는 Rubin GPU에 비해 ​​메모리 대역폭을 55배나 증가시키기 때문에 본질적으로 극도로 메모리 집약적인 작업을 처리하는 데 적합합니다. 이는 Nvidia가 2025년 12월 Groq의 IP와 가장 중요한 인재를 200억 달러에 인수한 이유를 설명하는 데 도움이 됩니다.

GPU를 넘어 성장:다양한 하드웨어 초점

Groq 사례는 Nvidia가 GPU를 모든 문제에 대한 솔루션으로 만들려는 노력에서 어떻게 벗어나고 있는지 보여줍니다. Nvidia의 생태계는 오랫동안 GPU를 넘어 확장되어 왔지만, 이러한 확장은 CPU, 네트워킹 칩 또는 소프트웨어를 통해 거의 항상 GPU 서비스에 사용되었습니다. Groq 3 LPU의 도입으로 Nvidia의 컴퓨팅 아키텍처는 GPU 전용 접근 방식을 완전히 능가했습니다.

또한 Nvidia는 CPU 전용 랙 솔루션 내에서 자체 Arm 기반 CPU와 같은 제품을 제공하기 시작했습니다. 이 회사는 새로운 88코어 Vera CPU를 데이터 센터 분야에서 Intel 및 AMD와 경쟁할 수 있는 제품으로 포지셔닝하고 있습니다. 이러한 CPU는 랙당 최대 256개의 칩으로 구성할 수 있으며 Nvidia에는 ​​이미 Meta를 포함한 고객이 이를 배포하려는 고객이 있습니다. Nvidia는 CPU를 넘어 스토리지 지향 애플리케이션을 위한 Bluefield 4 STX 솔루션에 대해서도 이야기했습니다. 회사에 따르면 이 제품은 스토리지가 AI 출력에 병목 현상을 일으키지 않도록 성능을 향상시킨다.

추가 Vera Rubin 제품:Nvidia DSX AI Factory And Space 1

Nvidia DSX는 AI 공장용 참조 설계를 포함하고 Nvidia의 Omniverse Digital Twin을 활용하는 AI Factory 제품을 위한 회사의 최신 Vera Rubin 기반 플랫폼입니다. (Omniverse에 대한 배경 정보는 GTC 2025에 대한 내 글과 2025년 2월부터 물리적 AI에 대한 Nvidia의 움직임에 대한 동료 Bill Curtis의 자세한 검토를 참조하세요.) 회사는 이를 Nvidia와 파트너가 AI 공장을 계획, 구축 및 유지 관리하는 데 도움을 주기 위해 만든 모든 기능을 활용하는 턴키 솔루션이라고 부릅니다. 이 플랫폼은 인프라를 통합하지 않고도 산업 규모의 자체 AI를 배포하려는 대규모 기업과 하이퍼스케일러의 구현을 위해 설계되었습니다.

최근에는 배치 문제를 해결하기 위해 많은 스타트업이 출범하면서 우주에서의 AI 컴퓨팅에 대한 소문이 많이 떠돌고 있습니다. Vera Rubin을 기반으로 한 Space 1 모듈을 발표하기 전에 Nvidia는 우주 애플리케이션을 위해 임베디드 Jetson Orin 칩과 H100 GPU를 주로 배포했습니다. Nvidia는 새로운 우주 중심 모듈이 이러한 극한 애플리케이션을 위해 설계되었으며 H100보다 우주에서 AI 성능이 25배나 향상되었다고 밝혔습니다. 또한 우주에서의 작동이 출력에 영향을 미치지 않도록 보장하는 잠금 단계 처리 및 오류 수정 코드 기능을 갖추고 있습니다. 즉, 저는 Space 1이 상당히 틈새 애플리케이션을 다룰 것이며 우주에 데이터 센터의 필요성을 검증하는 것으로 보아서는 안 된다고 믿습니다.

NemoClaw:전문 에이전트 구축

Claude Code와 같은 에이전트가 사용자의 실제 작업 처리를 지원함에 따라 Agentic AI는 빠르게 중요한 초점 영역이 되었습니다. 기술적인 측면에서 에이전트는 IT 인프라가 구축되는 방식과 해당 인프라 내부의 칩이 설계되는 방식을 재편하고 있습니다. 가장 흥미로운 최근 개발 중 하나는 작업 지향 에이전트를 보다 안전하게 배포하기 위해 Nvidia의 새로운 오픈 소스 NemoClaw 스택을 사용하여 로컬에서 실행되는 오픈 소스 에이전트인 OpenClaw의 도입입니다.

NemoClaw 에이전트 툴킷은 자율적이고 안전한 AI 에이전트를 구축, 훈련 및 배포하도록 설계되어 누구나 자신의 에이전트를 더 쉽게 만들 수 있습니다. 새로운 스택을 개발하면서 Nvidia는 원치 않는 에이전트 작업이나 잠재적으로 위험한 결과를 방지하기 위해 OpenClaw 개발자 및 보안 연구원과 긴밀히 협력했습니다.

DLSS 5.0:논란의 여지가 있는 신경 렌더링 배치

Nvidia는 이미지 품질을 향상하고 더 빠른 렌더링을 제공하기 위한 회사의 선택적 AI 지원 기능인 DLSS 5.0을 발표하면서 나를 포함한 많은 사람들을 놀라게 했습니다. 낮은 해상도로 렌더링한 다음 AI를 사용하여 이미지를 기본 해상도로 확대하는 방식으로 작동합니다. 대부분의 사용자는 이전 DLSS 구현에 만족하는 것 같습니다. 이제 DLSS 5.0에는 밋밋해 보일 수 있는 장면의 조명을 더욱 향상시키는 신경 렌더링 기술이 도입되었습니다. 또한 이를 통해 게임 개발자는 사용자 경험을 더욱 효과적으로 제어할 수 있으며 DLSS 5.0을 조정하여 게임의 시각적 요소에 미치는 영향을 변경할 수 있습니다.

많은 사람들이 DLSS 5.0을 사용하여 만든 초기 사진과 비디오에 부정적인 반응을 보였습니다. 나는 이것이 심각한 과잉반응이라고 생각한다. 대부분의 AI 강화 기능을 싫어하는 게이머가 많으며, DLSS 5.0에 대한 반응은 그러한 좌절감의 정점일 수 있습니다. 데모를 직접 본 결과 거의 모든 개선 사항이 긍정적이고 현실감을 향상시키는 것 같다고 말할 수 있습니다. 이는 편집 도구에 대해 매우 까다로울 수 있는 진지한 사진가의 의견입니다. 그 외에도 DLSS 5.0은 아직 출시되지 않았으므로 최종 제품이 어떤 모습일지, 어떤 GPU에서 이를 실행할 수 있을지는 확실하지 않습니다. 현재 인스턴스화는 두 개의 Nvidia RTX 5090 그래픽 카드에서 실행되지만 Nvidia에 따르면 소프트웨어는 가을까지 단일 GPU에서 실행되도록 최적화될 예정입니다.

추론 변곡점과 Huang의 1조 달러 시장 전망

GTC에서의 연설에서 Huang은 업계의 AI 수익 기회 증가에 대해 이야기하면서 "Nvidia GPU에 대한 수요는 차트를 벗어났습니다."라고 덧붙였습니다. 그는 추론의 성장이 2025년 말 워싱턴 D.C.에서 개최된 GTC 특별판(여기서 쓴 내용) 이후 훨씬 더 많은 수익을 창출하고 있다고 주장했습니다.

불과 몇 달 전이었지만 회사는 이제 2026년까지 5,000억 달러의 매출 기회를 2027년까지 1조 달러로 업그레이드하고 있습니다. 이는 Nvidia가 올해를 강세로 마무리할 뿐만 아니라 2027년은 훨씬 더 강해질 것으로 기대한다는 것을 의미합니다. 즉, 수천억 달러가 더 강할 것입니다. 분석가로서의 내 관점에서는 AI 교육에서 광범위한 AI 추론 및 퍼베이시브 에이전트 AI로의 전환이 업계의 중요한 동인이 될 것이라고 생각하는 것이 합리적이었습니다. 그러나 Huang의 말이 옳다면 이는 얼마 전만 해도 누구도 상상했던 것보다 Nvidia와 그 파트너의 성장을 위한 훨씬 더 많은 촉매제가 될 수 있음이 입증될 수 있습니다.

공개:Nvidia는 제가 운영하는 Moor Insights &Strategy의 자문 고객입니다.


사업 전략
  1. 회계
  2. 사업 전략
  3. 사업
  4. 고객 관계 관리
  5. 재원
  6. 주식 관리
  7. 개인 금융
  8. 투자하다
  9. 기업 자금 조달
  10. 예산
  11. 저금
  12. 보험
  13. 은퇴하다