당신이 쓰는 ChatGPT, 매일 사용하는 AI 도구들. 그 뒤에서 돌아가는 칩은 거의 대부분 Nvidia 것입니다. 2026년 2월 기준, Nvidia는 시가총액 5조 달러를 돌파했습니다. Apple, Microsoft를 제치고 세계 1위 기업이 된 이유는 단 하나입니다. AI 칩 시장의 95% 이상을 장악했기 때문입니다.
그런데 Nvidia는 왜 지금, GTC 2026 무대에서 디즈니 로봇과 우주 데이터센터를 꺼내 들었을까요? 그리고 그들이 발표한 'Inference의 inflection point'는 무엇을 의미할까요?
3월 17일(현지시간), 캘리포니아 산호세에서 열린 Nvidia GTC 2026 키노트. CEO 젠슨 황(Jensen Huang)은 거의 3시간 동안 무대에 섰습니다. 발표 내용을 한 문장으로 요약하면 이렇습니다.
"Nvidia는 이제 칩 회사가 아니라, AI 인프라 전체를 설계하는 플랫폼 기업이다."
가장 눈에 띄는 발표는 Disney와의 AI + 로봇 파트너십입니다. 무대 위에 등장한 건 디즈니 애니메이션 <겨울왕국>의 눈사람 캐릭터 Olaf를 본뜬 실제 로봇. 단순한 쇼가 아닙니다. Nvidia는 물리적 AI(Physical AI)를 실현하기 위해 Disney의 엔터테인먼트 IP와 결합한 로봇 개발을 본격화하고 있습니다.
이 로봇은 Nvidia의 로봇공학 플랫폼 Omniverse와 Isaac Sim 기반으로 제작되었으며, 실시간으로 환경을 인지하고 대화할 수 있습니다. Disney는 테마파크, 영화 제작, 고객 경험에 이 기술을 적용할 계획입니다.
Nvidia는 새로운 에이전트 AI 개발 플랫폼 NemoClaw를 공개했습니다. 이름에서 알 수 있듯, 2025년 바이럴을 탄 오픈소스 AI 에이전트 프로젝트 OpenClaw에서 영감을 받았습니다.
NemoClaw는 개발자가 자율 AI 에이전트를 빠르게 구축하고 배포할 수 있도록 설계되었습니다. 기존 Nemo 프레임워크(LLM 파인튜닝·배포 도구)에 멀티모달 추론, 도구 사용(Tool Use), 장기 메모리 기능을 결합한 형태입니다. OpenClaw의 철학인 "자율적이되 인간이 개입 가능한 에이전트"를 그대로 계승했습니다.
하드웨어 측면에서 가장 중요한 발표는 Vera Rubin 플랫폼과 Rubin Ultra GPU 아키텍처입니다. 기존 Blackwell 아키텍처(2025년 발표)를 뛰어넘는 성능을 자랑하며, 특히 Inference(추론) 작업에 최적화되어 있습니다.
젠슨 황이 강조한 핵심 메시지는 **"AI의 무게중심이 학습(Training)에서 추론(Inference)으로 이동했다"**는 것입니다.
"AI가 이제 생산적인 일을 할 수 있게 되었고, 따라서 Inference의 inflection point가 도래했습니다. AI가 생각하려면 추론해야 하고, 행동하려면 추론해야 하며, 읽으려면 추론해야 합니다."
— Jensen Huang, Nvidia CEO
예를 들어, ChatGPT가 당신의 질문에 답하는 순간이 바로 Inference입니다. 모델은 이미 학습되어 있고, 실시간으로 당신의 입력을 분석해 답변을 생성합니다.
2023~2025년까지 AI 산업의 주요 화두는 "더 큰 모델, 더 많은 데이터"였습니다. GPT-4, Gemini Ultra, Claude 3.5 등 거대 모델(LLM)을 만드는 데 집중했죠. 하지만 2026년 들어 분위기가 바뀌었습니다.
Nvidia의 Rubin Ultra는 바로 이 Inference 비용을 획기적으로 줄이기 위한 칩입니다.
Nvidia가 또 하나 강조한 방향은 **온디바이스 AI(On-Device AI)**입니다. GTC에서 시연한 Project G Assist가 대표적입니다.
PC나 노트북에 내장된 AI 어시스턴트입니다. 클라우드 없이, 기기 내부에서 AI 모델이 실행됩니다. 사용자가 음성으로 "게임 설정 최적화해줘" 같은 명령을 내리면, AI가 실시간으로 설정을 조정합니다.
예를 들어, 전략 게임 를 처음 하는 유저가 "병력 배치 전략 알려줘"라고 물으면, AI가 게임 내 상황을 분석해 맞춤형 조언을 합니다. 이 모든 과정이 기기 내부에서 일어나기 때문에:
Nvidia는 2026년 상반기 중 N1, N1X라는 이름의 Windows 노트북 전용 AI 칩을 출시할 계획입니다. MediaTek과 협업해 제작하며, Arm 아키텍처 기반입니다. Dell과 Lenovo가 이 칩을 탑재한 제품을 출시할 예정입니다.
Nvidia의 GTC 2026 발표는 단순히 "새 칩 나왔다"가 아닙니다. AI 산업의 구조적 전환을 보여줍니다.
OpenAI, Google, Anthropic 등은 클라우드 중심 AI 서비스를 제공합니다. 하지만 Nvidia는 온디바이스 AI를 밀고 있습니다. 왜일까요?
클라우드 AI의 한계:
온디바이스 AI의 강점:
Nvidia는 칩 판매 + 플랫폼 라이선스로 수익을 냅니다. 클라우드 기업은 사용자가 늘수록 Nvidia 칩을 더 사야 하지만, 온디바이스 사용자는 한 번 사면 끝입니다. Nvidia 입장에서는 양쪽에 칩을 팔 수 있으니 무조건 이득입니다.
AI 칩 수요의 중심이 바뀌고 있습니다. 2025년까지는 "모델 학습용 H100 칩 구하기 전쟁"이었다면, 2026년부터는 "Inference 효율을 높이는 칩 확보 경쟁"입니다.
Meta는 최근 Nebius(러시아계 AI 클라우드 기업)와 $27B(약 36조 원) 규모의 인프라 계약을 체결했습니다. 이 계약의 핵심은 Inference 전용 데이터센터 구축입니다. Meta는 Instagram, WhatsApp, Facebook에서 실시간으로 AI 번역, 추천, 콘텐츠 생성을 제공하는데, 이 모든 작업이 Inference입니다.
Disney 파트너십은 상징적입니다. AI가 화면 밖으로 나와 실제 세계와 상호작용하는 시대가 옵니다. Tesla의 Optimus 로봇, Boston Dynamics의 Atlas, 그리고 이제 Disney의 캐릭터 로봇까지.
Nvidia의 Omniverse는 가상 환경에서 로봇을 시뮬레이션하고 학습시킨 뒤, 실제 로봇에 배포할 수 있는 플랫폼입니다. BMW, Amazon, Siemens 등이 이미 공장 자동화에 활용 중입니다.
Nvidia GTC 2026은 단순한 제품 발표회가 아니었습니다. AI 산업의 다음 10년을 설계하는 청사진이었습니다.
당신이 내일 아침 일어나 "AI 비서야, 오늘 일정 정리해줘"라고 말할 때, 그 AI는 클라우드에서 돌아갈까요, 아니면 당신의 노트북에서 돌아갈까요? Nvidia는 후자에 베팅하고 있습니다.
당신의 회사는 AI 인프라 전환에 이미 대비하고 있나요?