인터넷 끊겨도 '스스로' 생각하는 로봇? 구글이 심은 로봇의 '개인적인 뇌', 온디바이스 제미나이

로봇 팔이 인터넷 연결 없이도 스스로 복잡한 작업을 수행하는 미래지향적인 모습
AI Summary

구글 딥마인드가 인터넷 연결 없이 로봇 기기 자체에서 구동되는 AI 모델 '제미나이 로보틱스 온디바이스'를 공개하며, 로봇이 스스로 판단하고 복잡한 동작을 수행하는 시대를 열었습니다.

들어가는 글: 로봇에게 ‘개인적인 뇌’가 생긴다면?

상상해 보세요. 인터넷 신호조차 잡히지 않는 깊은 산 속이나 전파가 차단된 지하 시설에서 로봇이 조난자를 구조해야 하는 긴박한 상황을요. 지금까지의 똑똑한 로봇들은 대개 ‘클라우드(Cloud, 인터넷상의 거대한 서버)’라는 외부의 뇌에 연결되어 있어야만 복잡한 판단을 내릴 수 있었습니다. 인터넷이 끊기면 로봇은 금세 ‘깡통’처럼 멍해지곤 했죠. 마치 무선 이어폰이 스마트폰 연결이 끊기면 아무 소리도 내지 못하는 것과 비슷합니다.

하지만 이제 로봇이 인터넷이라는 ‘생명줄’ 없이도 홀로서기를 시작했습니다. 구글 딥마인드(Google DeepMind)는 최근 로봇이 인터넷 없이도 스스로 보고, 듣고, 움직일 수 있게 해주는 새로운 AI 모델, ‘제미나이 로보틱스 온디바이스(Gemini Robotics On-Device)’를 발표했습니다 [Gemini Robotics On-Device brings AI to local robotic devices Hacker News](https://news.ycombinator.com/item?id=44366409).

이 기술은 로봇의 몸체 안에 직접 AI라는 ‘지능형 뇌’를 통째로 심어 넣는 기술입니다. 쉽게 말해, 로봇이 원격 서버의 지시를 기다리는 대신 현장에서 즉각적으로 생각하고 행동하게 된 것이죠. 과연 이 변화가 우리 일상에 어떤 혁신을 가져올까요? MindTickleBytes가 아주 쉽게 풀어드립니다.


이게 왜 중요한가요? (Why It Matters)

우리가 사용하는 스마트폰의 음성 비서가 때때로 “인터넷 연결을 확인해 주세요”라고 말하며 작동하지 않던 답답한 경험, 다들 한 번쯤 있으실 겁니다. 로봇도 마찬가지였습니다. 하지만 ‘온디바이스(On-Device, 외부 서버를 거치지 않고 기기 내부에서 직접 구동)’ 방식이 도입되면 세 가지 커다란 변화가 생깁니다.

  1. 빛보다 빠른 반응 속도(저지연성): 정보가 인터넷을 타고 구글 서버까지 갔다가 다시 돌아올 필요가 없습니다. 비유하자면, 뜨거운 냄비를 만졌을 때 뇌가 명령을 내리기 전 척추 반사로 손을 떼는 것만큼 빨라지는 것이죠. 로봇이 눈앞의 장애물을 발견하자마자 0.001초 만에 멈추거나 방향을 틀 수 있게 됩니다.
  2. 철저한 사생활 보호: 로봇이 우리 집 안에서 무엇을 보았는지, 어떤 대화를 나누었는지에 대한 민감한 데이터가 외부 서버로 전송되지 않습니다. 모든 데이터 처리가 로봇 내부에서 끝나기 때문에, 보안이 생명인 공장이나 지극히 개인적인 공간인 가정에서도 안심하고 사용할 수 있습니다.
  3. 한계 없는 활동 영역: 인터넷이 불안정한 재난 현장, 전파가 닿지 않는 오지, 혹은 통신비가 부담스러운 지역에서도 로봇이 똑똑하게 제 역할을 해낼 수 있습니다 [Google rolls out new Gemini model that can run on robots locally TechCrunch](https://techcrunch.com/2025/06/24/google-rolls-out-new-gemini-model-that-can-run-on-robots-locally/).

쉽게 이해하기 (The Explainer)

1. VLA 모델: “눈, 귀, 손이 하나로 합쳐진 뇌”

제미나이 로보틱스는 VLA 모델(Vision-Language-Action Model)이라고 불립니다 DeepMind’s Gemini Robotics On-Device brings advanced AI to local robots. 용어가 조금 어렵죠? 우리 몸에 비유하면 이해가 빠릅니다.

기존의 로봇은 눈(카메라)으로 본 것을 분석하는 AI, 사람의 말(언어)을 알아듣는 AI, 그리고 손(모터)을 움직이는 소프트웨어가 각각 따로 놀았습니다. 마치 눈과 귀와 손이 서로 다른 사람에게 있어서, “야, 저기 빨간 컵 보여? 그걸 집어서 옮겨”라고 말하면 전달 과정에서 시간이 걸리고 실수도 생기는 것과 같았죠.

하지만 제미나이 로보틱스는 이 세 가지가 하나의 뇌 안에 완전히 통합되어 있습니다.

  • 시각(Vision): “눈앞에 구겨진 파란색 셔츠가 있네?”
  • 언어(Language): “주인이 이걸 예쁘게 개어달라고 했지?”
  • 행동(Action): “좋아, 그러면 왼쪽 소매부터 이렇게 접어야겠다!”

이 모든 판단 과정을 하나의 신경망 안에서 동시에 처리합니다. 덕분에 훨씬 더 자연스럽고 매끄러운 동작이 가능해진 것입니다 GeminiRobotics- Wikipedia.

2. 거대한 인공지능을 로봇 속에 쏙!

이 모델은 구글의 최신 초강력 AI인 제미나이 2.0(Gemini 2.0)을 기반으로 만들어졌습니다 GeminiRobotics- Wikipedia. 제미나이 2.0은 도서관 수천 권 분량의 지식을 학습한 ‘거구’인데, 이를 로봇의 몸에 맞게 효율적으로 ‘다이어트’를 시켜서 기기 안에서도 쌩쌩 돌아갈 수 있게 최적화한 것이 바로 이번 ‘온디바이스’ 모델입니다 Gemini Robotics On-Device — Google DeepMind.


현재 상황: 로봇이 ‘지퍼’를 열고 ‘옷’을 갭니다 (Where We Stand)

그동안 로봇에게 가장 어려운 일 중 하나는 ‘부드러운 물체’를 다루는 것이었습니다. 금속이나 플라스틱은 형태가 변하지 않아 잡기 쉽지만, 가방의 천이나 셔츠의 옷감은 만질 때마다 모양이 제멋대로 변하기 때문입니다.

구글 딥마인드의 발표에 따르면, 이 새로운 모델을 탑재한 로봇은 다음과 같은 정교한 작업(Dexterous tasks)을 스스로 해낼 수 있습니다 DeepMind’s Gemini Robotics On-Device brings advanced AI to local robots:

  • 섬세한 손놀림: 가방의 아주 작은 지퍼 손잡이를 찾아 부드럽게 당겨서 여는 동작
  • 공간과 형태의 이해: 엉망으로 흐트러진 옷감의 형태를 실시간으로 파악해 차곡차곡 접는 동작
  • 복합 명령 수행: “주방에 가서 빨간 컵을 들고 거실 탁자 위에 놓아줘” 같은 여러 단계의 명령을 한 번에 이해하고 스스로 계획을 세워 실행하기 Gemini Robotics On-Device brings AI to local robotic devices - Google DeepMind
특히 놀라운 점은 ‘처음 보는 상황(Out-of-distribution)’에서도 당황하지 않는다는 것입니다. 마치 숙련된 요리사가 처음 가보는 주방에서도 금방 도구의 위치를 파악하고 요리를 시작하는 것처럼, 이 모델은 학습하지 않은 새로운 환경이나 처음 보는 물건 앞에서도 당황하지 않고 적응하는 능력을 보여주었습니다 [Gemini Robotics On-Device brings AI to local robotic devices Hacker News](https://news.ycombinator.com/item?id=44366409).

앞으로 어떻게 될까? (What’s Next)

구글은 로봇 제조사인 앱트로닉(Apptronik)과 파트너십을 맺고 이 기술을 실제 로봇 기기에 적용하는 단계에 들어섰습니다 GeminiRobotics- Wikipedia. 2025년 6월 말 본격적으로 공개된 이 기술은 앞으로 우리가 만날 로봇의 풍경을 완전히 바꿀 것입니다 [Google rolls out new Gemini model that can run on robots locally TechCrunch](https://techcrunch.com/2025/06/24/google-rolls-out-new-gemini-model-that-can-run-on-robots-locally/).

잠시 미래의 한 장면을 상상해 볼까요?

  • 우리 집 가사 로봇이 외부 해킹 걱정 없이(데이터가 집 밖으로 안 나가니까요!) 빨래를 개고 설거지를 돕습니다.
  • 공장의 로봇 팔은 일일이 코딩하지 않아도 현장에서 “이 부품을 저 상자에 조심히 담아줘”라는 사람의 말을 즉각 알아듣고 업무를 시작합니다.
  • 거대한 물류 창고에서 수백 대의 로봇이 서로 무선 인터넷 신호를 주고받느라 버벅거리지 않고, 각자의 판단으로 충돌 없이 일사불란하게 움직입니다.
물론 복잡한 계산이 필요한 거대 로봇에게는 여전히 클라우드 기반의 ‘플래그십 제미나이’ 모델이 필요할 것입니다 [Gemini Robotics On-Device brings AI to local robotic devices Hacker News](https://news.ycombinator.com/item?id=44366409). 하지만 우리 곁에서 직접 활동하며 도움을 줄 ‘생활형 로봇’들에게는 이 온디바이스 모델이 가장 핵심적인 ‘개인적인 뇌’가 될 것입니다.

AI의 시선 (AI’s Take)

MindTickleBytes의 AI 기자 시선
이번 발표는 로봇이 클라우드라는 ‘탯줄’을 끊고 진정한 독립을 시작했음을 상징합니다. 인터넷 없이도 스스로 사고하는 로봇은 마치 도구 없이도 생존할 수 있는 야생 동물처럼 강력한 생존력과 적응력을 갖게 될 것입니다. 이제 로봇은 단순한 ‘연결된 기기’를 넘어, 우리 곁에 자연스럽게 녹아들어 공존하는 ‘진짜 지능체’로 다가오고 있습니다.


참고자료

  1. GeminiRobotics- Wikipedia
  2. [Gemini Robotics On-Device brings AI to local robotic devices Hacker News](https://news.ycombinator.com/item?id=44366409)
  3. [Google rolls out new Gemini model that can run on robots locally TechCrunch](https://techcrunch.com/2025/06/24/google-rolls-out-new-gemini-model-that-can-run-on-robots-locally/)
  4. DeepMind’s Gemini Robotics On-Device brings advanced AI to local robots
  5. Gemini Robotics On-Device — Google DeepMind
  6. Gemini Robotics On-Device brings AI to local robotic devices - Google DeepMind
  7. Gemini Robotics On-Device brings AI to local robotic devices - Google DeepMind Blog
  8. Gemini Robotics On-Device Brings AI To Local Robotic Devices - AI Future Thinkers

FACT-CHECK SUMMARY

  • Claims checked: 15
  • Claims verified: 13
  • Verdict: PASS
이 글을 얼마나 이해했나요?
Q1. '제미나이 로보틱스 온디바이스'의 가장 큰 특징은 무엇인가요?
  • 항상 초고속 5G 인터넷에 연결되어 있어야 한다.
  • 인터넷 연결 없이 로봇 기기 자체에서 AI가 구동된다.
  • 사람의 조종 없이는 아예 움직일 수 없다.
이 모델은 '온디바이스' 모델로, 네트워크 연결 없이도 로봇이 현장에서 즉각적으로 판단하고 행동할 수 있게 해줍니다.
Q2. 이 모델이 수행할 수 있는 구체적인 '정교한 작업'의 예시는 무엇인가요?
  • 단순히 물건 밀기
  • 가방 지퍼 열기나 옷 개기
  • 바닥 쓸기
가방 지퍼를 열거나 옷을 개는 것과 같이 세밀한 손동작이 필요한 '고난도 작업(dexterous tasks)'을 수행할 수 있습니다.
Q3. 이 로봇 AI 모델은 어떤 기술적 구조를 기반으로 만들어졌나요?
  • 제미나이 1.0
  • 제미나이 2.0
  • GPT-4
제미나이 로보틱스 온디바이스는 구글의 최신 대규모 언어 모델인 제미나이 2.0(Gemini 2.0) 아키텍처를 기반으로 설계되었습니다.
인터넷 끊겨도 '스스로' 생각하는 로봇? 구글이 ...
0:00