로봇이 이제 '눈치'를 챙겼다? 구글 딥마인드가 공개한 로봇의 새로운 뇌 '제미나이 로보틱스-ER 1.6'

로봇 팔이 복잡한 산업용 계기판을 응시하며 데이터를 분석하고 있는 지적인 모습
AI Summary

구글 딥마인드가 공개한 제미나이 로보틱스-ER 1.6은 로봇이 물리적 세계를 이해하고 스스로 판단하며 작업을 수행하도록 돕는 최신 AI 모델입니다.

로봇, 이제 ‘생각’하고 ‘행동’하다

상상해보세요. 복잡한 기계들이 쉴 새 없이 돌아가는 공장 한복판, 로봇 한 대가 조용히 벽면에 붙은 압력계를 가만히 들여다보고 있습니다. 잠시 후, 이 로봇은 “지금 압력이 위험 수치까지 올라갔으니, 안전을 위해 2번 밸브를 조금 잠가야겠어”라고 판단합니다. 그리고는 스스로 손을 뻗어 조치를 취하죠. 작업이 끝난 뒤에는 다시 한번 계기판을 확인하며 “음, 이제 압력이 정상이군. 임무 완료!”라며 스스로의 성과를 확인합니다.

이런 장면, 예전에는 영화 속 SF 이야기로만 느껴졌죠? 하지만 이제는 우리 곁의 현실이 되고 있습니다. 구글 딥마인드(Google DeepMind)가 2026년 4월 14일, 로봇에게 이러한 고차원적인 지능을 부여할 새로운 인공지능 모델, ‘제미나이 로보틱스-ER 1.6(Gemini Robotics-ER 1.6)’을 전격 발표했기 때문입니다 Gemini Robotics-ER 1.6: What Google’s New Robotics Model Does. 이 모델은 로봇을 단순한 ‘기계’에서 탈피시켜, 우리가 사는 복잡한 세상을 이해하고 스스로 판단하는 ‘지능형 에이전트(Agent, 스스로 목적을 가지고 행동하는 주체)’로 진화시키는 핵심 열쇠가 될 전망입니다 [Gemini Robotics-ER 1.6 Gemini API Google AI for Developers](https://ai.google.dev/gemini-api/docs/robotics-overview).

이게 왜 중요한가요?

그동안 우리가 봐왔던 로봇들은 대부분 ‘정해진 일’만 잘하는 우등생이었습니다. 미리 입력된 경로를 따라가거나, 정해진 위치에 있는 물건을 옮기는 정도였죠. 문제는 우리가 사는 현실 세계가 그리 호락호락하지 않다는 점입니다. 물건의 위치가 아주 조금만 바뀌거나, 갑자기 누군가 앞을 가로막기만 해도 로봇은 금세 당황하며 멈춰버리기 일쑤였습니다.

제미나이 로보틱스-ER 1.6은 이런 로봇들에게 ‘구체화된 추론(Embodied Reasoning)’이라는 특별한 능력을 선물합니다 Gemini Robotics: Bringing AI into the Physical World. ‘구체화된 추론’이란 쉽게 말해 ‘로봇이 자신의 물리적인 몸을 가지고 실제 환경 속에서 인간처럼 생각하고 판단하는 능력’을 의미합니다. 로봇이 눈(카메라)으로 단순히 영상을 찍는 것을 넘어, “저 물체는 무엇인가?”, “나와의 거리는 얼마나 되는가?”, “내가 지금 저걸 만지면 어떤 일이 벌어질까?”를 논리적으로 파악하게 된 것입니다 Google News - Google DeepMind unveils Gemini Robotics-ER….

이전의 로봇이 똑똑한 ‘눈’과 튼튼한 ‘손’을 가졌지만 이 둘을 연결할 ‘생각의 고리’가 부족했다면, 이제는 그 모든 것을 통합해 상황을 읽어내는 ‘진짜 뇌’를 갖추게 된 셈입니다.

쉽게 이해하기: 로봇의 새로운 능력을 비유로 살펴보기

제미나이 로보틱스-ER 1.6이 가져온 변화가 감이 잘 안 오신다고요? 우리 일상 속 친숙한 모습들에 비유해 보면 그 차이가 명확해집니다.

1. “저거 봐!”라고 하면 찰떡같이 알아듣는 공간 지능

어린아이에게 “저기 탁자 위에 있는 빨간 사과 좀 가져다줄래?”라고 하면, 아이는 주변을 슥 훑어 사과를 찾아내고 그 거리를 가늠해 걸어갑니다. 제미나이 로보틱스-ER 1.6은 로봇에게 이런 공간적 추론(Spatial Reasoning) 능력을 부여합니다 Gemini Robotics-ER 1.6: Powering real-world robotics tasks…. 이제 로봇은 단순히 사물을 인식하는 수준을 넘어, 특정 객체를 감지하고(Object Detection), 손가락으로 가리키며(Pointing), 그 개수를 세는(Counting) 등의 복잡한 공간 작업을 훨씬 정교하게 해낼 수 있습니다 Gemini Robotics: Bringing AI into the Physical World.

2. “내 숙제, 틀린 건 없나?” 스스로 검토하기

학생이 시험 문제를 다 풀고 나서 정답을 다시 한번 확인하는 것처럼, 로봇에게도 ‘성공 감지(Success Detection)’ 능력이 생겼습니다 Gemini Robotics-ER 1.6: What Google’s New Robotics Model Does. 로봇이 어떤 명령을 수행한 직후, 카메라로 현장을 살피며 “내가 계획한 대로 서랍이 잘 닫혔나?”, “물건이 안전하게 옮겨졌나?”를 스스로 판단하는 것이죠 Google DeepMind Gemini Robotics-ER 1.6 via Gemini API …. 덕분에 로봇은 누군가 일일이 확인해주지 않아도 실수를 줄이며 자율적으로 일할 수 있게 되었습니다.

3. 미세한 눈금까지 읽어내는 ‘베테랑의 눈’

가장 놀라운 점은 로봇이 산업 현장의 복잡한 계기판(Gauges)이나 액체가 담긴 유리관(Sight glasses)의 수치를 읽을 수 있게 되었다는 점입니다 DeepMind’s Gemini Robotics-ER 1.6 Lets Spot Read Gauges. 마치 수십 년 경력의 엔지니어가 미세하게 흔들리는 바늘을 보고 기계의 컨디션을 읽어내듯, 로봇이 시각 데이터를 고도로 해석해 낼 수 있게 된 것입니다 Google’s new AI helps robots understand and act in real world.

현재 상황: 어디까지 왔나?

구글 딥마인드에 따르면, 이번 제미나이 로보틱스-ER 1.6은 이전 모델(1.5 버전)이나 일반적인 AI 모델인 제미나이 3.0 플래시보다도 훨씬 뛰어난 성능을 보여줍니다 Gemini Robotics-ER 1.6: Powering real-world robotics tasks…. 특히 로봇이 맞닥뜨리는 ‘물리적인 상황’을 추론하는 영역에서는 그야말로 괄목할 만한 진화를 이루었습니다 Google DeepMind’s New Robot Brain… - AI Universe: A News Startup.

현재 이 모델을 장착한 로봇들은 다음과 같은 놀라운 능력을 발휘하고 있습니다.

구글은 이 강력한 모델을 제미나이 API(Gemini API)와 구글 AI 스튜디오를 통해 개발자들에게 전면 공개했습니다 DeepMind’s Gemini Robotics-ER 1.6 Lets Spot Read Gauges. 이제 전 세계의 개발자들이 자신의 로봇에게 이 ‘똑똑한 뇌’를 이식할 수 있게 된 셈이죠 Google DeepMind Gemini Robotics-ER 1.6 via Gemini API ….

앞으로 어떻게 될까?

제미나이 로보틱스-ER 1.6의 등장은 우리가 로봇을 바라보는 시선 자체를 바꿀 것입니다. 이제 로봇은 시키는 일만 하는 ‘도구’가 아니라, 상황에 맞춰 유연하게 대처하는 믿음직한 ‘동료’가 되어가고 있습니다 Google DeepMind Launches Gemini Robotics-ER 1.6 - Colitco.

조만간 우리는 거친 건설 현장이나 복잡한 스마트 팩토리, 심지어는 우리의 따뜻한 가정 내에서도 이 지능형 로봇들이 활약하는 모습을 보게 될 것입니다. 로봇이 “주인님, 지금 세탁기에 빨래가 너무 많이 들어간 것 같아 제가 코스를 조정했어요”라고 말하며 스스로 문제를 해결하는 일상이 생각보다 빨리 찾아올지도 모릅니다.


AI의 시선 (AI’s Take)

MindTickleBytes의 AI 기자 시선 과거 로봇에게 ‘눈’이 생긴 것이 1차 혁명이었다면, 이제 그 눈으로 본 세상을 ‘이해’하고 자신의 몸을 어떻게 움직일지 스스로 결정하는 ‘구체화된 추론’의 시대가 열렸습니다. 제미나이 로보틱스-ER 1.6은 AI가 단순히 가상 세계의 데이터 속에서 노는 존재가 아니라, 우리가 발을 딛고 서 있는 물리적 현실의 법칙을 이해하기 시작했음을 증명하는 아주 중요한 이정표입니다. 인간과 로봇이 안전하게 협력하는 진정한 ‘공존의 기술’이 이 작은 뇌에서부터 시작되고 있습니다.

참고자료

  1. Gemini Robotics-ER 1.6: Powering real-world robotics tasks through enhanced embodied reasoning
  2. Google News - Google DeepMind unveils Gemini Robotics-ER…
  3. Gemini Robotics-ER 1.6: Powering real-world robotics tasks…
  4. DeepMind’s Gemini Robotics-ER 1.6 Lets Spot Read Gauges
  5. [Gemini Robotics-ER 1.6 Gemini API Google AI for Developers](https://ai.google.dev/gemini-api/docs/robotics-overview)
  6. Gemini Robotics: Bringing AI into the Physical World
  7. Building the Next Generation of Physical Agents with Gemini…
  8. Gemini Robotics-ER 1.6: What Google’s New Robotics Model Does
  9. Google DeepMind Gemini Robotics-ER 1.6 via Gemini API …
  10. Google’s new AI helps robots understand and act in real world
  11. Google DeepMind Launches Gemini Robotics-ER 1.6 - Colitco
  12. Google DeepMind’s New Robot Brain… - AI Universe: A News Startup
  13. Google DeepMind’s new AI models help robots perform physical tasks…

FACT-CHECK SUMMARY

  • Claims checked: 19
  • Claims verified: 19
  • Verdict: PASS
이 글을 얼마나 이해했나요?
Q1. 제미나이 로보틱스-ER 1.6이 이전 버전(1.5)과 비교해 특히 강화된 능력은 무엇인가요?
  • 로봇의 이동 속도 향상
  • 공간 및 물리적 추론 능력 강화
  • 배터리 효율 최적화
제미나이 로보틱스-ER 1.6은 이전 버전인 1.5나 제미나이 3.0 플래시보다 공간 및 물리적 추론 능력이 크게 향상되었습니다.
Q2. 이번 모델을 통해 로봇이 산업 현장에서 수행할 수 있게 된 새로운 작업은?
  • 금속 용접
  • 산업용 계기판 및 유리창 수치 읽기
  • 자율 주행 자동차 운전
이 모델은 산업용 계기판(Gauges)이나 액면계(Sight glasses)를 읽는 능력을 갖추어 자율적인 산업 점검이 가능해졌습니다.
Q3. 로봇이 자신의 작업이 잘 끝났는지 스스로 확인하는 기능을 무엇이라 부르나요?
  • 객체 탐지
  • 경로 예측
  • 성공 감지(Success detection)
모델의 핵심 기능 중 하나인 '성공 감지'는 로봇이 수행한 작업이 실제로 완료되었는지를 스스로 판단하는 능력입니다.
로봇이 이제 '눈치'를 챙겼다? 구글 딥마인드가 ...
0:00