엔비디아가 GTC 2026에서 전 세계 18개 자동차 제조사와 로보택시 파트너십을 발표했습니다. 이 숫자는 BYD, 현대, 닛산, 지리를 포함해 연간 1,800만 대 생산 규모에 달합니다. 솔직히 제가 작년에 물리적 AI를 처음 접했을 때만 해도 이 정도 속도는 예상하지 못했습니다. 젠슨황의 발표를 지켜보면서 자율주행의 'ChatGPT 모멘트'가 정말 도래했다는 걸 실감했습니다.

물리적 AI 시대의 핵심 인프라
엔비디아는 GTC 2026에서 물리적 AI(Physical AI) 생태계 구축을 위한 세 가지 컴퓨팅 시스템을 공개했습니다. 첫 번째는 AI 모델 훈련용 컴퓨터, 두 번째는 합성 데이터 생성 및 시뮬레이션 컴퓨터, 세 번째는 로봇 내부에 탑재되는 로보틱스 컴퓨터입니다. 여기서 물리적 AI란 현실 세계에서 직접 작동하고 상호작용하는 로봇과 자율 시스템을 의미합니다(출처: NVIDIA 공식 블로그).
제가 주목한 건 합성 데이터 생성 방식입니다. 실제 세계는 너무 다양하고 예측 불가능해서 실제 데이터만으론 모든 상황을 학습시킬 수 없습니다. 엔비디아는 이 문제를 "컴퓨트가 곧 데이터"라는 개념으로 해결했습니다. Isaac Lab이라는 오픈소스 플랫폼에서 로봇 훈련과 평가를 수행하고, Newton을 통해 GPU 기반 미분 가능 물리 시뮬레이션을 실행합니다.
Cosmos 월드 모델(World Foundation Model)은 신경 시뮬레이션을 담당하는데, 이건 실제 환경을 AI가 재현해 무한대로 학습 시나리오를 만들어내는 기술입니다. 쉽게 말해 가상 세계에서 로봇이 수천 가지 상황을 미리 경험하게 만드는 거죠. 제 경험상 이런 시뮬레이션 기반 접근은 실제 하드웨어 테스트 비용을 획기적으로 줄여줍니다.
물리적 AI를 구현하는 기업들의 사례도 구체적으로 공개됐습니다.
- Peritas AI: Isaac Lab에서 수술실 보조 로봇 훈련
- Skilled AI: Cosmos를 활용한 후훈련(post-training) 데이터 생성
- Fourier Intelligence: 전신 제어 및 조작 정책 훈련
- Hexagon Robotics: 훈련 및 데이터 생성용 Isaac Lab 활용
- Foxconn과 Noble Machines: Groot 모델 파인튜닝
이 회사들이 공통적으로 사용하는 Groot는 로봇 추론과 행동 생성을 위한 오픈 로보틱스 파운데이션 모델입니다. 여기서 파운데이션 모델이란 범용적으로 사용 가능한 거대 AI 모델을 뜻합니다.
로보택시 생태계의 급속한 확장
엔비디아의 AlphaGo 플랫폼은 자율주행차에 추론 능력을 부여해 다양한 시나리오에서 안전하고 지능적으로 작동하도록 설계됐습니다. 발표 영상에서 차량이 스스로 행동을 설명하는 장면이 인상적이었습니다. "제 경로를 따라가기 위해 우측 차선으로 변경하고 있습니다", "제 차선에 이중 주차된 차량이 있어 우회하겠습니다" 같은 내러티브를 실시간으로 생성하더군요.
올해 발표된 신규 파트너는 BYD, 현대자동차, 닛산, 지리자동차입니다. 기존 파트너인 메르세데스, 토요타, GM과 합치면 글로벌 자동차 생산량의 상당 부분을 차지합니다. 특히 우버와의 파트너십은 실제 상용화 측면에서 의미가 큽니다. 엔비디아는 여러 도시에서 이 로보택시 준비 차량들을 우버 네트워크에 연결할 계획이라고 밝혔습니다.
저는 25년 초만 해도 자율주행이 상용화되려면 5년은 더 걸릴 거라 봤습니다. 그런데 지금 보면 하루가 다르게 발전하고 있고, 예상보다 훨씬 빠르게 우리 곁으로 다가오고 있습니다. 엔비디아가 AI 산업에서 가장 중요한 역할을 하다 보니, GTC에서 이야기하는 모든 것들이 이제 곧 새로운 산업과 기술로 현실화될 것 같습니다.
자율주행 기술의 핵심은 엣지 케이스(edge case) 처리입니다. 엣지 케이스란 일상적이지 않은 드문 상황, 예를 들어 갑자기 튀어나오는 보행자나 공사 구간 같은 예외 상황을 의미합니다. 실제 데이터만으론 이런 모든 경우를 커버할 수 없기에 합성 데이터가 필수적입니다. 엔비디아는 이 문제를 대규모 시뮬레이션으로 해결했고, 이게 로보택시 상용화의 결정적 열쇠가 됐습니다.
휴머노이드 로봇과 산업용 로봇의 진화
GTC 2026 현장에는 110대가 넘는 로봇이 전시됐습니다. ABB, Universal Robotics, KUKA 같은 산업용 로봇 기업들이 엔비디아의 물리적 AI 모델을 자사 시스템에 통합해 제조 라인에 배치할 준비를 하고 있습니다. Caterpillar 같은 건설장비 회사도 참여했고, 심지어 T-Mobile 같은 통신사도 포함됐습니다.
T-Mobile의 참여가 흥미로운 이유는 향후 통신 기지국이 단순한 전파탑이 아니라 엔비디아 에어리얼 AI RAM(Aerial AI RAN)으로 진화하기 때문입니다. 여기서 RAN(Radio Access Network)은 무선 접속 네트워크를 뜻하는데, AI가 트래픽을 분석하고 빔포밍을 조정해 에너지 효율과 신호 품질을 최적화하는 방식입니다. 쉽게 말해 기지국이 스스로 생각하고 판단하는 로봇처럼 작동한다는 겁니다.
개인적으로 가장 인상 깊었던 건 디즈니 리서치의 캐릭터 로봇이었습니다. 디즈니는 자체 물리 시뮬레이터인 Chamino를 Newton과 Isaac Lab에 통합해 다양한 캐릭터 로봇의 정책을 훈련시켰습니다. 발표 영상에서 올라프(Olaf) 스노우맨이 실제로 걷고 균형을 잡으며 "걷는 게 순록 타는 것보다 훨씬 좋네요"라고 말하는 장면이 나왔습니다. 이건 단순한 쇼가 아니라 Newton 솔버가 실제 물리 세계에 적응하도록 만든 결과물입니다.
휴머노이드 로봇들도 속속 등장했습니다. Fourier Intelligence는 Isaac Lab에서 전신 제어 정책을 훈련시켰고, 여러 휴머노이드 제조사들이 Groot 모델을 활용해 로봇의 행동 생성 능력을 향상시키고 있습니다. 제가 직접 써본 건 아니지만, 이런 로봇들이 실제 공장이나 물류센터에 배치되는 속도를 보면 2~3년 내에 본격적인 상용화가 이뤄질 것 같습니다.
디즈니의 사례에서 보듯 물리 시뮬레이션의 정밀도가 로봇 성능을 좌우합니다. Newton은 GPU 가속 미분 가능 물리 엔진으로, 로봇이 중력, 마찰, 충돌 같은 물리 법칙을 학습하도록 돕습니다. 이 기술 덕분에 로봇이 실제 환경에서도 안정적으로 작동할 수 있게 됐습니다.
엔비디아는 GTC 2026을 통해 물리적 AI 시대의 청사진을 확실하게 제시했습니다. 로보택시부터 휴머노이드, 산업용 로봇, 심지어 통신 인프라까지 AI가 스며들지 않는 영역이 없습니다. 젠슨황의 말처럼 "이것은 물리적 AI와 로보틱스의 시대"이며, 컴퓨트를 데이터로 전환하는 방식이 이 모든 혁신의 핵심입니다.
저는 이번 발표를 보면서 기술 낙관론을 넘어 현실적인 우려도 함께 생각하게 됐습니다. 범용 로봇 모델이 실제 현장의 복잡한 변수에 얼마나 잘 적응할지, 자율 시스템의 윤리적 책임을 누가 어떻게 질지에 대한 구체적 대안은 아직 부족해 보입니다. 자동화가 가져올 노동 시장 충격과 보안 취약점에 대한 사회적 논의도 기술 발전 속도만큼 빠르게 진행돼야 합니다. 하지만 분명한 건, 엔비디아가 제시한 방향대로 세상이 움직이고 있고, 우리는 그 변화의 한가운데 서 있다는 사실입니다.