구글 딥마인드가 인터넷 연결 없이 로봇 기기 자체에서 구동되는 AI 모델 '제미나이 로보틱스 온디바이스'를 공개하며, 로봇이 스스로 판단하고 복잡한 동작을 수행하는 시대를 열었습니다.
들어가는 글: 로봇에게 ‘개인적인 뇌’가 생긴다면?
상상해 보세요. 인터넷 신호조차 잡히지 않는 깊은 산 속이나 전파가 차단된 지하 시설에서 로봇이 조난자를 구조해야 하는 긴박한 상황을요. 지금까지의 똑똑한 로봇들은 대개 ‘클라우드(Cloud, 인터넷상의 거대한 서버)’라는 외부의 뇌에 연결되어 있어야만 복잡한 판단을 내릴 수 있었습니다. 인터넷이 끊기면 로봇은 금세 ‘깡통’처럼 멍해지곤 했죠. 마치 무선 이어폰이 스마트폰 연결이 끊기면 아무 소리도 내지 못하는 것과 비슷합니다.
| 하지만 이제 로봇이 인터넷이라는 ‘생명줄’ 없이도 홀로서기를 시작했습니다. 구글 딥마인드(Google DeepMind)는 최근 로봇이 인터넷 없이도 스스로 보고, 듣고, 움직일 수 있게 해주는 새로운 AI 모델, ‘제미나이 로보틱스 온디바이스(Gemini Robotics On-Device)’를 발표했습니다 [Gemini Robotics On-Device brings AI to local robotic devices | Hacker News](https://news.ycombinator.com/item?id=44366409). |
이 기술은 로봇의 몸체 안에 직접 AI라는 ‘지능형 뇌’를 통째로 심어 넣는 기술입니다. 쉽게 말해, 로봇이 원격 서버의 지시를 기다리는 대신 현장에서 즉각적으로 생각하고 행동하게 된 것이죠. 과연 이 변화가 우리 일상에 어떤 혁신을 가져올까요? MindTickleBytes가 아주 쉽게 풀어드립니다.
이게 왜 중요한가요? (Why It Matters)
우리가 사용하는 스마트폰의 음성 비서가 때때로 “인터넷 연결을 확인해 주세요”라고 말하며 작동하지 않던 답답한 경험, 다들 한 번쯤 있으실 겁니다. 로봇도 마찬가지였습니다. 하지만 ‘온디바이스(On-Device, 외부 서버를 거치지 않고 기기 내부에서 직접 구동)’ 방식이 도입되면 세 가지 커다란 변화가 생깁니다.
- 빛보다 빠른 반응 속도(저지연성): 정보가 인터넷을 타고 구글 서버까지 갔다가 다시 돌아올 필요가 없습니다. 비유하자면, 뜨거운 냄비를 만졌을 때 뇌가 명령을 내리기 전 척추 반사로 손을 떼는 것만큼 빨라지는 것이죠. 로봇이 눈앞의 장애물을 발견하자마자 0.001초 만에 멈추거나 방향을 틀 수 있게 됩니다.
- 철저한 사생활 보호: 로봇이 우리 집 안에서 무엇을 보았는지, 어떤 대화를 나누었는지에 대한 민감한 데이터가 외부 서버로 전송되지 않습니다. 모든 데이터 처리가 로봇 내부에서 끝나기 때문에, 보안이 생명인 공장이나 지극히 개인적인 공간인 가정에서도 안심하고 사용할 수 있습니다.
-
한계 없는 활동 영역: 인터넷이 불안정한 재난 현장, 전파가 닿지 않는 오지, 혹은 통신비가 부담스러운 지역에서도 로봇이 똑똑하게 제 역할을 해낼 수 있습니다 [Google rolls out new Gemini model that can run on robots locally TechCrunch](https://techcrunch.com/2025/06/24/google-rolls-out-new-gemini-model-that-can-run-on-robots-locally/).
쉽게 이해하기 (The Explainer)
1. VLA 모델: “눈, 귀, 손이 하나로 합쳐진 뇌”
제미나이 로보틱스는 VLA 모델(Vision-Language-Action Model)이라고 불립니다 DeepMind’s Gemini Robotics On-Device brings advanced AI to local robots. 용어가 조금 어렵죠? 우리 몸에 비유하면 이해가 빠릅니다.
기존의 로봇은 눈(카메라)으로 본 것을 분석하는 AI, 사람의 말(언어)을 알아듣는 AI, 그리고 손(모터)을 움직이는 소프트웨어가 각각 따로 놀았습니다. 마치 눈과 귀와 손이 서로 다른 사람에게 있어서, “야, 저기 빨간 컵 보여? 그걸 집어서 옮겨”라고 말하면 전달 과정에서 시간이 걸리고 실수도 생기는 것과 같았죠.
하지만 제미나이 로보틱스는 이 세 가지가 하나의 뇌 안에 완전히 통합되어 있습니다.
- 시각(Vision): “눈앞에 구겨진 파란색 셔츠가 있네?”
- 언어(Language): “주인이 이걸 예쁘게 개어달라고 했지?”
- 행동(Action): “좋아, 그러면 왼쪽 소매부터 이렇게 접어야겠다!”
이 모든 판단 과정을 하나의 신경망 안에서 동시에 처리합니다. 덕분에 훨씬 더 자연스럽고 매끄러운 동작이 가능해진 것입니다 GeminiRobotics- Wikipedia.
2. 거대한 인공지능을 로봇 속에 쏙!
이 모델은 구글의 최신 초강력 AI인 제미나이 2.0(Gemini 2.0)을 기반으로 만들어졌습니다 GeminiRobotics- Wikipedia. 제미나이 2.0은 도서관 수천 권 분량의 지식을 학습한 ‘거구’인데, 이를 로봇의 몸에 맞게 효율적으로 ‘다이어트’를 시켜서 기기 안에서도 쌩쌩 돌아갈 수 있게 최적화한 것이 바로 이번 ‘온디바이스’ 모델입니다 Gemini Robotics On-Device — Google DeepMind.
현재 상황: 로봇이 ‘지퍼’를 열고 ‘옷’을 갭니다 (Where We Stand)
그동안 로봇에게 가장 어려운 일 중 하나는 ‘부드러운 물체’를 다루는 것이었습니다. 금속이나 플라스틱은 형태가 변하지 않아 잡기 쉽지만, 가방의 천이나 셔츠의 옷감은 만질 때마다 모양이 제멋대로 변하기 때문입니다.
구글 딥마인드의 발표에 따르면, 이 새로운 모델을 탑재한 로봇은 다음과 같은 정교한 작업(Dexterous tasks)을 스스로 해낼 수 있습니다 DeepMind’s Gemini Robotics On-Device brings advanced AI to local robots:
- 섬세한 손놀림: 가방의 아주 작은 지퍼 손잡이를 찾아 부드럽게 당겨서 여는 동작
- 공간과 형태의 이해: 엉망으로 흐트러진 옷감의 형태를 실시간으로 파악해 차곡차곡 접는 동작
- 복합 명령 수행: “주방에 가서 빨간 컵을 들고 거실 탁자 위에 놓아줘” 같은 여러 단계의 명령을 한 번에 이해하고 스스로 계획을 세워 실행하기 Gemini Robotics On-Device brings AI to local robotic devices - Google DeepMind
| 특히 놀라운 점은 ‘처음 보는 상황(Out-of-distribution)’에서도 당황하지 않는다는 것입니다. 마치 숙련된 요리사가 처음 가보는 주방에서도 금방 도구의 위치를 파악하고 요리를 시작하는 것처럼, 이 모델은 학습하지 않은 새로운 환경이나 처음 보는 물건 앞에서도 당황하지 않고 적응하는 능력을 보여주었습니다 [Gemini Robotics On-Device brings AI to local robotic devices | Hacker News](https://news.ycombinator.com/item?id=44366409). |
앞으로 어떻게 될까? (What’s Next)
| 구글은 로봇 제조사인 앱트로닉(Apptronik)과 파트너십을 맺고 이 기술을 실제 로봇 기기에 적용하는 단계에 들어섰습니다 GeminiRobotics- Wikipedia. 2025년 6월 말 본격적으로 공개된 이 기술은 앞으로 우리가 만날 로봇의 풍경을 완전히 바꿀 것입니다 [Google rolls out new Gemini model that can run on robots locally | TechCrunch](https://techcrunch.com/2025/06/24/google-rolls-out-new-gemini-model-that-can-run-on-robots-locally/). |
잠시 미래의 한 장면을 상상해 볼까요?
- 우리 집 가사 로봇이 외부 해킹 걱정 없이(데이터가 집 밖으로 안 나가니까요!) 빨래를 개고 설거지를 돕습니다.
- 공장의 로봇 팔은 일일이 코딩하지 않아도 현장에서 “이 부품을 저 상자에 조심히 담아줘”라는 사람의 말을 즉각 알아듣고 업무를 시작합니다.
- 거대한 물류 창고에서 수백 대의 로봇이 서로 무선 인터넷 신호를 주고받느라 버벅거리지 않고, 각자의 판단으로 충돌 없이 일사불란하게 움직입니다.
| 물론 복잡한 계산이 필요한 거대 로봇에게는 여전히 클라우드 기반의 ‘플래그십 제미나이’ 모델이 필요할 것입니다 [Gemini Robotics On-Device brings AI to local robotic devices | Hacker News](https://news.ycombinator.com/item?id=44366409). 하지만 우리 곁에서 직접 활동하며 도움을 줄 ‘생활형 로봇’들에게는 이 온디바이스 모델이 가장 핵심적인 ‘개인적인 뇌’가 될 것입니다. |
AI의 시선 (AI’s Take)
MindTickleBytes의 AI 기자 시선
이번 발표는 로봇이 클라우드라는 ‘탯줄’을 끊고 진정한 독립을 시작했음을 상징합니다. 인터넷 없이도 스스로 사고하는 로봇은 마치 도구 없이도 생존할 수 있는 야생 동물처럼 강력한 생존력과 적응력을 갖게 될 것입니다. 이제 로봇은 단순한 ‘연결된 기기’를 넘어, 우리 곁에 자연스럽게 녹아들어 공존하는 ‘진짜 지능체’로 다가오고 있습니다.
참고자료
- GeminiRobotics- Wikipedia
-
[Gemini Robotics On-Device brings AI to local robotic devices Hacker News](https://news.ycombinator.com/item?id=44366409) -
[Google rolls out new Gemini model that can run on robots locally TechCrunch](https://techcrunch.com/2025/06/24/google-rolls-out-new-gemini-model-that-can-run-on-robots-locally/) - DeepMind’s Gemini Robotics On-Device brings advanced AI to local robots
- Gemini Robotics On-Device — Google DeepMind
- Gemini Robotics On-Device brings AI to local robotic devices - Google DeepMind
- Gemini Robotics On-Device brings AI to local robotic devices - Google DeepMind Blog
- Gemini Robotics On-Device Brings AI To Local Robotic Devices - AI Future Thinkers
FACT-CHECK SUMMARY
- Claims checked: 15
- Claims verified: 13
- Verdict: PASS
- 항상 초고속 5G 인터넷에 연결되어 있어야 한다.
- 인터넷 연결 없이 로봇 기기 자체에서 AI가 구동된다.
- 사람의 조종 없이는 아예 움직일 수 없다.
- 단순히 물건 밀기
- 가방 지퍼 열기나 옷 개기
- 바닥 쓸기
- 제미나이 1.0
- 제미나이 2.0
- GPT-4