Google DeepMind 公布的 Gemini Robotics-ER 1.6 是一款最新的 AI 模型,旨在幫助機器人理解物理世界、自主判斷並執行任務。
機器人,現在會「思考」且會「行動」了
想像一下,在機器不停運轉的工廠中心,一台機器人靜靜地注視著牆上的壓力錶。片刻後,這台機器人判斷:「現在壓力已升至危險數值,為了安全起見,必須稍微關閉 2 號閥門。」接著,它主動伸手採取行動。任務結束後,它再次確認儀表板並自我肯定:「嗯,現在壓力正常了。任務完成!」
| 這樣的場景,以前感覺只存在於電影中的科幻故事吧?但現在這正成為我們身邊的現實。因為 Google DeepMind 於 2026 年 4 月 14 日,正式發表了賦予機器人這種高層次智慧的新型人工智慧模型——「Gemini Robotics-ER 1.6」 Gemini Robotics-ER 1.6:Google 的新型機器人模型能做什麼。此模型預計將成為機器人脫離單純「機器」範疇,進化為理解我們所處複雜世界並自主判斷的「智慧型代理 (Agent,具有自主目標並行動的主體)」的核心關鍵 [Gemini Robotics-ER 1.6 | Gemini API | Google AI for Developers](https://ai.google.dev/gemini-api/docs/robotics-overview)。 |
為什麼這很重要?
過去我們看到的機器人大多是只擅長「規定任務」的優等生。它們按照預設路徑移動,或搬運固定位置的物品。問題在於,我們生活的現實世界並非如此簡單。只要物品位置稍微改變,或突然有人擋在面前,機器人往往會立刻陷入慌亂並停下。
Gemini Robotics-ER 1.6 賦予了這些機器人一種名為 「具身推理 (Embodied Reasoning)」 的特殊能力 Gemini Robotics:將 AI 帶入物理世界。簡單來說,「具身推理」意指「機器人利用其物理身體,在實際環境中像人類一樣思考和判斷的能力」。機器人不再僅僅是透過眼睛(攝影機)拍攝影像,而是能邏輯性地掌握「那是什麼物體?」、「與我的距離是多少?」、「如果我現在碰那個會發生什麼事?」Google 新聞 - Google DeepMind 揭曉 Gemini Robotics-ER…。
如果說以前的機器人擁有聰明的「眼睛」和強壯的「雙手」,但缺乏連接兩者的「思考環節」,那麼現在它們則擁有了能整合一切並讀懂狀況的「真正的大腦」。
輕鬆理解:用比喻來看機器人的新能力
Gemini Robotics-ER 1.6 帶來的變化還感覺不太出來嗎?用我們日常生活中熟悉的場景來比喻,差異就會變得非常清晰。
1. 說「看那個!」就能精準理解的空間智慧
當你對小孩說「能幫我拿桌上那顆紅蘋果嗎?」時,小孩會環顧四周找到蘋果,估算距離後走過去。Gemini Robotics-ER 1.6 賦予機器人這種 空間推理 (Spatial Reasoning) 能力 Gemini Robotics-ER 1.6:透過增強的具身推理推動現實世界的機器人任務…。現在,機器人不僅能辨識物體,還能更精細地執行偵測特定物件 (Object Detection)、用手指指引 (Pointing)、計算數量 (Counting) 等複雜的空間任務 Gemini Robotics:將 AI 帶入物理世界。
2. 「我的作業有錯嗎?」自我檢查能力
就像學生做完試題後會再次確認答案一樣,機器人也擁有了 「成功偵測 (Success Detection)」 能力 Gemini Robotics-ER 1.6:Google 的新型機器人模型能做什麼。機器人在執行某項指令後,會立即用攝影機觀察現場並自行判斷:「抽屜是否如我計劃地關好了?」、「物品是否安全搬運了?」Google DeepMind 透過 Gemini API 推出的 Gemini Robotics-ER 1.6…。多虧了這項功能,即使沒有人逐一確認,機器人也能減少失誤並自主工作。
3. 連微小刻度都能讀取的「專家之眼」
最令人驚訝的一點是,機器人現在能夠讀取工業現場複雜的儀表板 (Gauges) 或裝有液體的玻璃管 (Sight glasses) 的數值 DeepMind 的 Gemini Robotics-ER 1.6 讓 Spot 機器狗能讀取儀表。就像擁有數十年經驗的工程師看著微顫的指針就能讀懂機器狀態一樣,機器人現在也能高度解讀視覺數據 Google 的新型 AI 幫助機器人在現實世界中理解與行動。
現況:發展到什麼程度了?
根據 Google DeepMind 的說法,這次的 Gemini Robotics-ER 1.6 表現遠優於先前的模型 (1.5 版本) 或是通用 AI 模型 Gemini 3.0 Flash Gemini Robotics-ER 1.6:透過增強的具身推理推動現實世界的機器人任務…。特別是在推理機器人面臨的「物理狀況」領域,可說是取得了令人矚目的進化 Google DeepMind 的新型機器人大腦… - AI Universe:一家新聞初創公司。
目前配備此模型的機器人展現出以下驚人能力:
- 智慧路徑預測:預測周圍物體的移動,自主決定不會發生碰撞且高效移動的路徑 Gemini Robotics:將 AI 帶入物理世界。
- 細膩的手部動作:不僅能抓取物品,還能執行如整齊摺紙等極其精細的物理作業 (Dexterity) Google DeepMind 的新型 AI 模型幫助機器人執行物理任務…。
- 危險現場自主檢測:在人類難以進入的危險環境中,機器人能自行巡視、確認儀表數值並報告異常徵兆 Google 的新型 AI 幫助機器人在現實世界中理解與行動。
Google 已透過 Gemini API 和 Google AI Studio 向開發者全面公開此強大模型 DeepMind 的 Gemini Robotics-ER 1.6 讓 Spot 機器狗能讀取儀表。現在,全球的開發者都能為自己的機器人移植這顆「聰明的大腦」Google DeepMind 透過 Gemini API 推出的 Gemini Robotics-ER 1.6…。
未來會如何發展?
Gemini Robotics-ER 1.6 的出現將改變我們看待機器人的視角。現在,機器人不再是只會聽命行事的「工具」,而是正成為能根據狀況靈活應對的可靠「夥伴」Google DeepMind 推出 Gemini Robotics-ER 1.6 - Colitco。
不久後,我們將在艱苦的建築工地、複雜的智慧工廠,甚至是溫馨的家庭中看到這些智慧型機器人活躍的身影。機器人說著「主人,現在洗衣機裡的衣服似乎太多了,我已經調整了洗滌行程」並自行解決問題的日常生活,可能比想像中更早到來。
AI 的視角 (AI’s Take)
MindTickleBytes AI 記者的觀點 如果說過去賦予機器人「眼睛」是第一次革命,那麼現在透過那雙眼睛「理解」世界並自行決定如何移動身體的「具身推理」時代已經開啟。Gemini Robotics-ER 1.6 是一個非常重要的里程碑,證明了 AI 不再僅僅是玩弄虛擬世界數據的存在,而是開始理解我們腳下踩著的物理現實法則。人類與機器人安全協作的真正「共存技術」,正從這顆小小的腦袋開始。
參考資料
- Gemini Robotics-ER 1.6:透過增強的具身推理推動現實世界的機器人任務
- Google 新聞 - Google DeepMind 揭曉 Gemini Robotics-ER…
- Gemini Robotics-ER 1.6:透過增強的具身推理推動現實世界的機器人任務…
- DeepMind 的 Gemini Robotics-ER 1.6 讓 Spot 機器狗能讀取儀表
-
[Gemini Robotics-ER 1.6 Gemini API Google AI for Developers](https://ai.google.dev/gemini-api/docs/robotics-overview) - Gemini Robotics:將 AI 帶入物理世界
- 利用 Gemini Robotics-ER 構建下一代物理代理…
- Gemini Robotics-ER 1.6:Google 的新型機器人模型能做什麼
- Google DeepMind 透過 Gemini API 推出的 Gemini Robotics-ER 1.6…
- Google 的新型 AI 幫助機器人在現實世界中理解與行動
- Google DeepMind 推出 Gemini Robotics-ER 1.6 - Colitco
- Google DeepMind 的新型機器人大腦… - AI Universe:一家新聞初創公司
- Google DeepMind 的新型 AI 模型幫助機器人執行物理任務…
事實查核摘要
- 查核聲明數:19
- 已驗證聲明數:19
- 結論:通過
- 提升機器人移動速度
- 強化空間及物理推理能力
- 優化電池效率
- 金屬焊接
- 讀取工業儀表板及液位計數值
- 駕駛自動駕駛汽車
- 物件偵測
- 路徑預測
- 成功偵測 (Success detection)