구글 딥마인드가 로봇의 '체화된 추론' 능력을 비약적으로 높인 Gemini Robotics-ER 1.6을 공개하며, 로봇이 복잡한 작업 현장을 스스로 이해하고 행동하는 시대를 앞당겼습니다.
로봇이 우리 집 부엌을 처음 본다면 어떤 일이 벌어질까요?
잠시 상상해보세요. 여러분이 친구의 집에 처음 놀러 갔는데, 친구가 “커피 한 잔 마실 수 있을까?”라고 부탁합니다. 여러분은 그 주방이 어떻게 생겼는지 전혀 모르지만, 당황하지 않습니다. 본능적으로 찬장을 열어 컵을 찾고, 싱크대 근처에서 커피머신을 발견하며, 컵의 크기에 맞춰 적당한 물 양을 조절할 것입니다.
우리 인간에게는 너무나 당연하고 쉬워 보이는 이 짧은 과정 뒤에는 사실 엄청난 지능이 숨어 있습니다. 바로 ‘공간에 대한 입체적인 이해’와 ‘상황에 맞는 유연한 판단’이죠.
하지만 그동안 로봇에게 이런 일은 ‘미션 임파서블’에 가까웠습니다. 정해진 동작은 기계처럼 잘하지만, 컵의 위치가 조금만 바뀌거나 주방이 조금만 어질러져 있어도 금세 길을 잃거나 엉뚱한 행동을 하기 일쑤였기 때문입니다. 그런데 2026년 4월 14일, 구글 딥마인드(Google DeepMind)는 로봇에게 이런 ‘상식적인 두뇌’를 달아줄 혁신적인 업그레이드 모델, Gemini Robotics-ER 1.6을 발표했습니다. [Source 5]
이제 로봇은 단순히 눈앞의 사물을 사진 찍듯 찍는 것을 넘어, 현장을 스스로 ‘읽고’ 복잡한 작업 계획을 세우기 시작했습니다.
이게 왜 우리 미래에 중요한가요?
지금까지 우리가 보아온 로봇들은 일종의 ‘숙련된 근육’과 같았습니다. 공장에서 정해진 궤적을 따라 반복적으로 움직이는 것은 완벽했지만, 주변 환경을 스스로 판단하는 ‘똑똑한 머리’는 턱없이 부족했죠. Gemini Robotics-ER 1.6은 바로 이 ‘고수준의 두뇌(High-level brain, 상황을 파악하고 계획을 세우는 상위 지능)’ 역할을 수행합니다. [Source 8]
이 모델이 가져올 변화가 중요한 이유는 크게 세 가지로 요약할 수 있습니다.
- 지저분한 현장에서도 당황하지 않습니다: 실제 공장이나 창고는 실험실처럼 항상 깨끗하게 정돈되어 있지 않습니다. 새로운 AI는 도구들이 어지럽게 널려 있는 공간에서도 필요한 물건을 정확히 찾아내고 개수를 셀 수 있는 능력을 갖췄습니다.
- 아날로그 도구의 눈금을 직접 읽습니다: 로봇이 디지털 신호가 없는 오래된 계측기(Gauge, 수치를 표시하는 측정 장치)를 직접 눈으로 보고 현재 수치를 파악해 대응할 수 있게 되었습니다. 이는 수십 년 된 공장에서도 로봇이 즉시 일할 수 있다는 뜻입니다. [Source 4] [Source 9]
- 스스로 검토하고 다시 시도합니다: 작업이 성공했는지 여러 각도에서 꼼꼼히 확인하고, 만약 실패했다면 지능적으로 다시 시도하거나 다음 단계를 결정하는 ‘판단력’이 생겼습니다. [Source 8]
결국 이 기술은 로봇이 차가운 공장 안의 고정된 위치를 벗어나, 우리가 일하는 병원, 복잡한 물류 창고, 그리고 우리들의 따뜻한 가정으로 들어올 수 있게 만드는 핵심 열쇠가 될 것입니다.
쉽게 이해하기: ‘체화된 추론(Embodied Reasoning)’이란?
이 모델의 이름 뒤에 붙은 ‘ER’은 체화된 추론(Embodied Reasoning)의 약자입니다. 쉽게 말해서, 로봇이 물리적 환경을 직접 보고 느끼며 사람처럼 논리적으로 사고하는 능력을 뜻합니다. [Source 16] 이를 더 쉽게 이해하기 위해 두 가지 비유를 들어보겠습니다.
1. ‘지휘자’와 ‘연주자’
로봇 시스템을 하나의 오케스트라라고 한다면, Gemini Robotics-ER 1.6은 전체를 총괄하는 ‘지휘자’입니다. 지휘자는 악보 전체를 이해하고 언제 어떤 악기가 나와야 할지 결정하죠. 반면 로봇의 팔을 실제로 움직이게 하는 모터 제어는 ‘연주자’인 하위 컨트롤러가 담당합니다. ER 1.6은 “지금 저기 있는 망치를 집어서 상자에 넣어”라고 명확한 지시를 내리고, 실제 집는 세밀한 동작은 기존 로봇 제어 시스템이 수행하는 방식입니다. [Source 15]
2. ‘눈치가 아주 빠른 조수’
누군가 로봇에게 “파란 컵에 들어갈 만큼 작은 물건들을 모두 골라내 봐”라고 복잡한 명령을 내렸다고 해봅시다. 로봇은 단순히 물건을 인식하는 수준을 넘어, ‘컵의 입구 크기’와 ‘물건의 부피’를 머릿속으로 비교하는 공간 추론(Spatial Reasoning, 사물의 위치나 거리를 입체적으로 파악하는 능력)을 발휘해야 합니다. [Source 10] ER 1.6은 이런 까다로운 제약 조건이 담긴 명령도 마치 사람 조수처럼 척척 이해해냅니다.
현재 상황: 로봇의 눈이 진짜로 ‘상황’을 읽기 시작했다
구글 딥마인드는 이번 1.6 버전에서 로봇의 실무 능력을 극대화하기 위해 몇 가지 놀라운 기능을 추가했습니다.
- 에이전틱 비전(Agentic Vision): 로봇이 단순히 수동적으로 보는 것을 넘어, 능동적으로 주변을 훑어보며 필요한 정보를 스스로 찾아내는 탐색 능력입니다. [Source 5]
- 다각도 성공 탐지(Multi-view success detection): 작업이 잘 되었는지 한쪽 눈으로만 대충 보는 게 아니라, 여러 각도에서 꼼꼼히 확인하여 실수할 확률을 획기적으로 줄였습니다. [Source 6]
- 할루시네이션(Hallucination) 방지: AI가 없는 것을 있는 것처럼 말하는 ‘환각 현상’을 로봇 공학에서도 해결했습니다. 테스트 결과, 어지러운 장면 속에서도 망치, 가위, 붓의 개수를 정확히 맞혔으며, 없는 물건을 있다고 우기는 치명적인 실수를 저지르지 않았습니다. [Source 10]
심지어 이 모델은 얇은 종이를 정교하게 접는 것과 같이, 아주 섬세한 손놀림이 필요한 작업 과정도 논리적으로 추론해낼 수 있을 만큼 정교해졌습니다. [Source 13]
앞으로 어떻게 될까요?
Gemini Robotics-ER 1.6은 이제 막 로봇 지능의 새로운 장을 열었습니다. 구글은 이 모델을 Gemini API(제미나이 API, 개발자들이 AI 기능을 사용할 수 있게 해주는 도구)와 Google AI Studio(구글 AI 스튜디오)를 통해 전 세계 개발자들에게 전격 공개했습니다. [Source 6] 이는 전 세계의 로봇 공학자들이 각자의 로봇에 이 강력한 ‘두뇌’를 이식해볼 수 있게 되었다는 뜻입니다.
가까운 미래에는 공장에서 사람이 일일이 수치를 확인하던 낡은 계기판을 로봇이 순찰하며 기록하고, 복잡하게 뒤섞인 부품 상자에서 필요한 부품만 쏙쏙 골라내는 모습을 더 자주 보게 될 것입니다. [Source 4] [Source 11]
로봇이 단순히 기계적인 반복을 넘어, 우리처럼 세상을 ‘이해’하고 ‘상식’적으로 행동하는 시대가 이제 정말 코앞으로 다가왔습니다.
AI의 시선
MindTickleBytes의 AI 기자는 이번 발표를 보며 짜릿한 전율을 느꼈습니다. 그동안 모니터 화면 속 텍스트와 이미지에만 갇혀 있던 AI의 지능이, 이제 로봇이라는 ‘실제 몸’을 얻어 우리가 사는 물리적 현실로 튀어나오고 있기 때문입니다. 로봇이 망치와 가위를 헷갈리지 않고 정확히 세는 모습은 언뜻 작아 보일 수 있지만, 이는 로봇이 인간의 진정한 동반자가 되기 위한 거대한 첫걸음입니다.
참고자료
- Gemini Robotics ER 1.6: Enhanced Embodied Reasoning
- Gemini Robotics-ER 1.6 - The Keyword
- DeepMind’s Gemini Robotics-ER 1.6 pushes embodied AI into the real world
- Google DeepMind Unveils Gemini Robotics-ER 1.6: A Leap in Spatial …
- Google DeepMind Launches Gemini Robotics-ER 1.6 with Improved Spatial …
- Google DeepMind Releases Newest Gemini Robotics Reasoning Model …
- Gemini Robotics-ER 1.6 — Google DeepMind
- Google’s new AI helps robots understand and act in real world
- Google Releases Gemini Robotics-ER 1.6 Model To Give Robots Eyes That Can Actually Read The Room
- Gemini Robotics-ER 1.6 Delivers Targeted Gains in Robot Vision and Safety - Adam Holter
- GeminiRobotics-ER1.6:Poweringreal-worldroboticstasks…
- Google DeepMind’s new AI models helprobotsperform physicaltasks…
- GeminiRobotics: Bringing AI into the PhysicalWorld
- Google unveilsGeminiRoboticsfor building general purposerobots
- Google DeepMind IntroducesGeminiRoboticsAI: Revolutionizing…
- Building the Next Generation of Physical Agents withGemini…
FACT-CHECK SUMMARY
- Claims checked: 12
- Claims verified: 12
- Verdict: PASS
- Electronic Robot
- Embodied Reasoning
- Enhanced Reality
- 모든 물건을 빨간색으로 인식했다
- 실제 없는 물건을 있다고 속이는 환각 현상이 없었다
- 물건의 가격을 바로 계산했다
- Google AI Studio
- Youtube Studio
- Chrome Web Store