솔직히 저는 엔비디아 GTC 2026에 가기 전까지만 해도, 휴머노이드 로봇들이 CES 때처럼 화려한 시연을 보여줄 거라고 기대했습니다. 그런데 막상 현장에서 본 로봇들은 제 예상과는 좀 달랐습니다. 로비에서부터 인포메이션 데스크까지, 로봇들이 곳곳에 배치되어 있었지만, 제가 느낀 건 "기술 과시"보다는 "실용성 실험"에 가까웠습니다. 젠슨황이 강조한 피지컬 AI(Physical AI)라는 개념이 실제로 어떻게 구현되고 있는지 직접 확인할 수 있었던 자리였습니다.

로비부터 시작된 휴머노이드 로봇 체험
전시장에 들어서자마자 만난 건 인봇(IntBot)의 카이(Kai)와 나일로(Nylo)였습니다. 카이는 로비에서 관람객들과 대화를 나누고 있었는데, AI 챗봇을 활용해 자연스럽게 소통하는 모습이 인상적이었습니다. 다만 이 로봇은 완전 자율 주행이 아니라, 사람이 원격으로 이동 경로를 제어하는 방식이었습니다.
여기서 텔레오퍼레이션(teleoperation)이란 사람이 원격으로 로봇을 조종하는 기술을 의미합니다. 완전 자율 주행이 아직 군중 속에서 안전성을 보장하기 어렵기 때문에, 현실적으로 가장 많이 사용되는 방식입니다. 제가 직접 카이에게 "GTC에서 가장 인상 깊었던 건 뭐예요?"라고 물었더니, 로봇이 제 질문을 역으로 던지면서 인터뷰하려는 모습이 재미있었습니다.
나일로는 인포메이션 데스크에서 다국어로 안내를 제공하고 있었습니다. 스페인어로 말을 걸자 즉시 스페인어로 답변하는 걸 보고, 언어 모델과 로봇의 결합이 꽤 자연스럽게 구현되고 있다는 걸 느꼈습니다. 하지만 솔직히 이 정도 수준이라면 굳이 휴머노이드 형태일 필요가 있나 싶은 생각도 들었습니다.
그 다음으로 본 건 노블 머신스(Noble Machines)의 모비3(Moby 3)였습니다. 다른 휴머노이드들보다 훨씬 육중한 체형인데, 그 이유는 최대 50파운드(약 23kg)까지 들어 올릴 수 있도록 설계되었기 때문입니다. 가장 눈에 띈 건 그리퍼(gripper)였습니다. 일반적인 로봇 손가락 대신, 강아지 장난감 소재로 만든 그리퍼를 사용하고 있었습니다.
여기서 그리퍼란 로봇이 물체를 집고 옮기는 데 사용하는 손 역할의 부품을 말합니다. 노블 머신스는 비용 효율성과 내구성을 동시에 잡기 위해 이런 창의적인 선택을 했다고 설명했습니다. 제가 직접 시연을 지켜보니, 자율 모드로 작동하다가 어려운 상황이 되면 즉시 수동 모드로 전환되는 걸 확인할 수 있었습니다. 화면에 "Manual Mode"라는 표시가 뜨면서, 사람이 개입해 작업을 완료하는 방식이었습니다.
이게 바로 현재 로봇 기술의 현실입니다. 완전 자율이 아니라, 자율과 반자율(semi-autonomous)을 오가며 학습하는 단계인 겁니다. 반자율이란 로봇이 대부분의 작업을 스스로 수행하되, 어려운 판단이 필요한 순간에만 사람이 개입하는 방식을 뜻합니다. 무게 200파운드(약 91kg)의 모비3에는 긴급 정지 버튼이 로봇 본체와 조작자 목에 걸린 리모컨 양쪽에 달려 있었습니다. 만약 긴급 상황에서 전원이 차단되면, 기계적 댐퍼(mechanical dampener)가 작동해 로봇이 급격히 넘어지지 않고 천천히 앉는 방식으로 설계되었다고 합니다.
다음으로 본 건 휴머노이드 알파(Humanoid Alpha) 두 대가 협업하는 시연이었습니다. 두 로봇이 같은 AI를 공유하면서 하나의 작업을 나눠 처리하는 방식이었습니다. 저는 "로보 스토어"에서 물건을 주문했고, 로봇 하나는 제 손을 찾아 물건을 건네주고, 다른 로봇은 다른 물건을 가져오는 식이었습니다. 처음엔 제 손을 찾지 못해 헤매다가, 제가 손을 좀 더 가까이 내밀자 그제야 인식하더군요.
첫 주문에서 로봇이 실수를 했는데, 두 번째 시도에서 보상 차원인지 물건을 두 개 더 챙겨주는 모습이 인간적(?)이었습니다. 이 시연의 핵심은 한 명의 조작자가 여러 대의 로봇을 동시에 제어할 수 있다는 걸 보여주는 것이었습니다. 멀티 로봇 코디네이션(multi-robot coordination)이라 불리는 이 기술은 물류 창고나 제조 현장에서 인력 효율성을 크게 높일 수 있는 방식입니다.
엔비디아 플랫폼이 만드는 로봇 생태계
전시장을 돌면서 제가 가장 인상 깊었던 건, 로봇 그 자체보다 엔비디아가 구축하고 있는 로봇 개발 생태계였습니다. 리치 미니(Reachy Mini)라는 작은 데스크톱 로봇이 있었는데, 가격이 300달러부터 시작한다고 합니다. 이 로봇은 개발자들을 위한 플랫폼으로, 엔비디아의 DGX Spark(4,500달러)라는 데스크톱 AI 슈퍼컴퓨터와 연결되어 오픈클로(OpenClaw) AI 에이전트를 구동하고 있었습니다.
여기서 AI 에이전트란 특정 작업을 자율적으로 수행할 수 있는 소프트웨어 시스템을 말합니다. 제가 리치 미니에게 "메탈 록스타처럼 헤드뱅잉 해줘"라고 요청했더니, 텍스트로 답변만 주고 실제 동작은 하지 않더군요. 아마도 이 로봇은 AI의 응답을 시각적으로 표현하기 위한 인터페이스 역할일 뿐, 제 명령을 물리적으로 실행하는 용도는 아닌 것 같았습니다.
젠슨황은 기조연설에서 에이전틱 AI(agentic AI)와 로봇 기술이 점점 더 융합될 거라고 예측했습니다(출처: NVIDIA 공식 블로그). 에이전틱 AI란 단순히 명령을 수행하는 걸 넘어, 목표를 이해하고 스스로 계획을 세워 실행하는 AI를 의미합니다. 현재 기술 수준으로는 아직 초기 단계지만, 엔비디아가 제공하는 시뮬레이션 플랫폼 덕분에 자본이나 기술력이 부족한 스타트업들도 로봇 개발에 뛰어들 수 있게 되었습니다.
마지막으로 본 건 애자일 로보틱스(Agile Robotics)의 픽앤플레이스(pick and place) 시연이었습니다. 독일 기반 회사인 이곳은 원래 로봇 팔을 만들던 곳인데, 이제는 휴머노이드 전체를 선보이고 있었습니다. 불량품을 골라내 버리는 단순한 작업이었지만, 이런 반복 작업이야말로 로봇이 가장 빛을 발할 수 있는 영역입니다.
엔비디아가 제공하는 로봇 시뮬레이션 플랫폼의 핵심은 다음과 같습니다:
- 가상 환경에서 무한 반복 훈련 가능
- 실제 로봇 제작 전 알고리즘 검증
- 중소·스타트업의 개발 진입 장벽 대폭 완화
제가 현장에서 느낀 건, 이 모든 게 결국 엔비디아의 AI 칩셋과 플랫폼으로 수렴된다는 점입니다. 로봇 회사들이 엔비디아 플랫폼으로 훈련하고 개발하면, 나중에 상용화 단계에서도 엔비디아 칩을 쓸 수밖에 없는 구조가 만들어지는 겁니다. 젠슨황이 그리는 큰 그림은 단순히 로봇을 파는 게 아니라, 로봇 산업 전체의 인프라를 장악하는 것처럼 보였습니다(출처: MIT Technology Review).
일각에서는 휴머노이드 로봇이 곧 인간을 대체할 거라고 말하지만, 제 경험상 현실은 좀 다릅니다. 중국 업체들이 공개하는 영상 속 로봇들은 훨씬 더 유려하고 자율적으로 움직이는 것처럼 보이지만, GTC에서 본 로봇들은 여전히 사람의 개입에 크게 의존하고 있었습니다. 강아지 장난감으로 만든 그리퍼는 창의적이지만, 실제 산업 현장의 정밀도와 내구성 요구를 충족할지는 의문입니다. 결국 이번 전시는 로봇의 완성도를 자랑하기보다는, 엔비디아 생태계로 개발자들을 끌어들이기 위한 마케팅 성격이 강했다고 생각합니다.
하지만 분명한 건, 이런 전시가 쌓이고 플랫폼이 고도화되면서 로봇 기술의 실용성도 점차 높아질 거라는 점입니다. 지금은 불완전해도, 엔비디아가 깔아놓은 레일 위에서 수많은 스타트업과 개발자들이 경쟁하며 기술을 발전시킬 테니까요. 저는 다음 GTC에서는 좀 더 완성도 높은 자율 로봇을 볼 수 있기를 기대합니다.