구글 딥마인드가 로봇에게 '상식'과 '추론 능력'을 심어주는 업그레이드된 두뇌, 제미나이 로보틱스 ER 1.6을 선보이며 로봇 기술의 새로운 정점을 찍었습니다.
로봇에게 ‘상식’이 생긴다면 어떤 일이 벌어질까요?
상상해보세요. 여러분이 로봇에게 “부엌에 가서 물 한 잔만 가져다줘”라고 부탁했습니다. 그런데 부엌으로 간 로봇이 물컵 앞에 엎질러진 우유를 발견합니다. 기존의 로봇이라면 어땠을까요? 아마 미리 입력된 지도 위를 기계적으로 움직이다가 우유를 밟고 미끄러지거나, 우유를 치워야 한다는 사실을 전혀 인지하지 못한 채 물컵만 들고 거실로 돌아왔을지도 모릅니다. 융통성이라곤 전혀 없는 모습이죠.
하지만 이제 로봇이 ‘눈치’를 챙기기 시작했습니다. 구글 딥마인드(Google DeepMind)가 최근 발표한 제미나이 로보틱스 ER 1.6(Gemini Robotics-ER 1.6)은 로봇에게 일종의 ‘상식’, 즉 체화된 추론(Embodied Reasoning, 로봇이 물리적 환경 안에서 스스로 논리적으로 생각하고 판단하는 것) 능력을 심어주는 새로운 인공지능 두뇌입니다 Gemini Robotics ER 1.6: Enhanced Embodied Reasoning. 이 기술 덕분에 로봇은 단순히 입력된 동작을 무한 반복하는 기계를 넘어, 우리 주변의 복잡하고 예측 불가능한 세상을 이해하고 그 안에서 스스로 최선의 계획을 세울 수 있는 똑똑한 존재로 거듭나고 있습니다 Gemini Robotics-ER 1.6 - The Keyword.
이게 왜 중요한가요?
지금까지 우리가 보아온 로봇들은 대부분 ‘정해진 규칙’이나 ‘미리 프로그래밍된 명령어’에만 의존했습니다. 자동차 공장의 컨베이어 벨트 위에서 한 치의 오차 없이 용접만 반복하는 로봇 팔이 대표적이죠. 하지만 우리가 살아가는 일상 공간은 공장처럼 정형화되어 있지 않습니다. 아침에 둔 물건의 위치가 오후에 바뀌기도 하고, 갑자기 반려견이 앞을 가로막는 장애물이 나타나기도 합니다.
| 제미나이 로보틱스 ER 1.6이 중요한 이유는 로봇이 드디어 ‘상식적인 판단’을 내릴 수 있게 해주기 때문입니다 [DeepMind’s Gemini 1.6 Gives Robots Point-and-Click … | …](https://robohorizon.com/en-us/news/2026/04/deepminds-gemini-16-gives-robots-point-and-click-reality/). 비유하자면, 이전의 로봇이 악보대로만 연주하는 오르골이었다면, 이제는 관객의 호응에 맞춰 즉흥 연주를 할 수 있는 연주자가 된 셈입니다. |
예를 들어, 산업 현장에서 가스 밸브의 압력을 확인해야 할 때를 상상해보세요. 로봇은 단순히 계측기를 바라보는 것에 그치지 않습니다. 그 수치가 정상 범위인지, 만약 바늘이 위험 수치를 가리키고 있다면 어떤 밸브를 먼저 잠가야 할지를 스스로 판단하고 행동에 옮길 수 있게 됩니다 Google’s new AI helpsrobotsunderstand and act inrealworld. 이는 로봇의 자율성을 극적으로 높여주며, 인간이 위험한 환경에 직접 들어가지 않고도 더 안전하고 효율적으로 작업을 수행할 수 있도록 돕습니다 Gemini Robotics-ER 1.6: Real-World Robotics Intelligence.
쉽게 이해하기: 로봇의 새로운 ‘눈’과 ‘뇌’
제미나이 로보틱스 ER 1.6을 더 쉽게 이해하기 위해 두 가지 핵심 개념을 살펴보겠습니다.
1. 시각-언어 모델(VLM, Vision-Language Model)
이것은 로봇이 사물을 보는 ‘눈(시각)’과 인간의 말을 알아듣는 ‘귀(언어)’를 하나의 지능으로 통합한 구조입니다 Gemini Robotics-ER 1.6 | Gemini API | Google AI for Developers.
-
쉽게 말해서: 우리가 요리책의 사진을 보면서 “아, 저 고기는 이 정도 크기로 썰어야겠구나”라고 즉시 이해하는 것과 같습니다. 로봇도 카메라를 통해 들어온 복잡한 영상 데이터를 보고, 사용자가 내린 “저기 있는 빨간 컵을 옮겨줘”라는 자연스러운 명령과 연결하여 정확한 행동을 계획합니다 [Gemini Robotics-ER 1.6 Gemini API Google AI for Developers](https://ai.google.dev/gemini-api/docs/models/gemini-robotics-er-1-6-preview).
2. 체화된 추론(Embodied Reasoning)
단순히 컴퓨터 화면 속의 데이터를 처리하는 것을 넘어, 실제 물리적 세계(몸, Embodied)와 연결된 논리적 사고를 뜻합니다.
- 비유하자면: ‘단순한 GPS’와 ‘노련한 지역 가이드’의 차이입니다. 기존 로봇이 미리 입력된 길로만 가다가 막히면 멈춰버리는 GPS라면, 제미나이 로보틱스 ER 1.6을 탑재한 로봇은 길가에 공사 중인 표지판을 보고 스스로 우회로를 찾는 노련한 가이드와 같습니다. 이 모델은 로봇이 환경 변화에 유연하게 적응하고, 자신이 수행한 작업이 성공했는지를 스스로 확인하며(Success Detection), 실패했을 경우 포기하지 않고 다시 시도할지를 결정하게 합니다 Gemini Robotics-ER 1.6 — Google DeepMind.
현재 상황: 무엇이 더 좋아졌나요?
이번 1.6 버전은 이전 모델인 1.5 버전보다 훨씬 더 영리해졌습니다. 특히 구글의 최신 범용 AI 모델인 ‘제미나이 3.0 플래시’와 비교했을 때도, ‘로봇 특화 작업’에서만큼은 훨씬 압도적인 성능을 보여줍니다 Google DeepMind ReleasesGeminiRobotics-ER1.6: Bringing….
구체적으로 어떤 점이 좋아졌을까요?
- 정밀한 공간 파악: “세 번째 칸에 있는 파란 공”처럼 물체의 위치를 정확히 가리키거나 숫자를 세는 능력이 대폭 향상되었습니다 DeepMind’sGeminiRobotics-ER1.6Lets Spot Read Gauges.
- 입체적인 시각 분석: 로봇의 몸 이곳저곳에 달린 여러 개의 카메라 영상을 동시에 분석하여, 사방의 주변 환경을 입체적으로 파악합니다 Gemini Robotics ER 1.6: Real-World Robotics Intelligence.
- 아날로그 계기판 읽기: 산업 현장에 여전히 많은 아날로그 계측기 수치를 마치 사람이 보듯 정확하게 읽어낼 수 있습니다 Google News - Google DeepMind unveilsGeminiRobotics-ER….
| 현재 이 모델은 개발자들이 직접 테스트하고 실제 로봇에 적용해 볼 수 있도록 제미나이 API와 구글 AI 스튜디오를 통해 제공되고 있습니다 [Gemini Robotics ER 1.6 powers real-world tasks with enhanced reasoning | Trending Stories | HyperAI](https://beta.hyper.ai/en/stories/f846584e94ff774dd312356d2d2a6612). 덕분에 로봇 제조사나 연구원들은 모델 이름만 변경하여 즉시 최신 기능을 로봇에게 이식할 수 있게 되었습니다 [Gemini Robotics-ER 1.6 | Gemini API | Google AI for Developers](https://ai.google.dev/gemini-api/docs/robotics-overview). |
앞으로 어떻게 될까?
제미나이 로보틱스 ER 1.6의 등장은 우리가 공상과학 영화에서나 보던 ‘진짜 로봇 조수’의 시대를 성큼 앞당기고 있습니다. 이제 로봇은 “A 지점에서 B 지점으로 이동해”라는 단순한 명령 대신, “공구함에서 망치를 찾아와서 작업대 위에 놓아줘”라는 복잡한 맥락의 명령을 수행할 수 있는 지능을 갖추게 되었습니다 Gemini Robotics-ER 1.6 — Google DeepMind.
가까운 미래에는 공장이나 연구소뿐만 아니라, 우리의 일상 공간인 집이나 사무실에서도 로봇이 주변 상황을 능숙하게 판단하며 우리를 돕는 모습을 보게 될 것입니다. 문 앞에 놓인 택배를 알아서 안으로 들여놓거나, 설거지 거리가 쌓인 것을 보고 스스로 정리를 시작하는 로봇, 정말 기대되지 않나요? 이제 로봇은 단순한 기계를 넘어 우리의 일상을 더 풍요롭게 만드는 똑똑한 동반자가 되어가고 있습니다.
AI의 시선
로봇 기술이 ‘물리적 육체’의 발달을 넘어 ‘지적인 사고력’을 본격적으로 갖추기 시작했습니다. 제미나이 로보틱스 ER 1.6은 로봇이 단순히 인간의 편리함을 위한 도구에 머무는 것이 아니라, 세상을 스스로 이해하고 소통하는 지능형 파트너로 진화하는 결정적인 한 걸음이 될 것입니다.
참고자료
- Gemini Robotics ER 1.6: Enhanced Embodied Reasoning
-
[Gemini Robotics-ER 1.6 Gemini API Google AI for Developers (Overview)](https://ai.google.dev/gemini-api/docs/robotics-overview) - Gemini Robotics-ER 1.6 - The Keyword
-
[Gemini Robotics-ER 1.6 Gemini API Google AI for Developers (Models)](https://ai.google.dev/gemini-api/docs/models/gemini-robotics-er-1-6-preview) - Gemini Robotics-ER 1.6: Real-World Robotics Intelligence
- DeepMind’s Gemini 1.6 Gives Robots Point-and-Click Reality
- Google News - Google DeepMind unveils Gemini Robotics-ER 1.6
- Gemini Robotics ER 1.6: Enhancing spatial reasoning
- Google DeepMind Releases Gemini Robotics-ER 1.6: Bringing Enhanced Embodied Reasoning
- DeepMind’s Gemini Robotics-ER 1.6 Lets Spot Read Gauges
- Google’s new AI helps robots understand and act in real world
- Gemini Robotics-ER 1.6: Powering real-world robotics tasks — OODAloop
- Gemini Robotics-ER 1.6 — Google DeepMind (Official Models Page)
-
[Gemini Robotics ER 1.6 powers real-world tasks with enhanced reasoning HyperAI](https://beta.hyper.ai/en/stories/f846584e94ff774dd312356d2d2a6612)
FACT-CHECK SUMMARY
- Claims checked: 10
- Claims verified: 9
- Verdict: PASS
- 빠른 이동 속도
- 공간 및 물리적 추론 능력
- 배터리 효율성
- 디지털 트윈
- 체화된 추론 (Embodied Reasoning)
- 클라우드 컴퓨팅
- 일반 사용자들
- 정부 기관만
- 제미나이 API와 구글 AI 스튜디오를 이용하는 개발자