耗電不到 1% 就能與 AI 對話?Google 打造的口袋『小巨人』:Gemma 3 270M

放置在微型晶片上閃閃發光的寶石發散出巨大的光芒,並與智慧型手機相連的模樣
AI Summary

Google 公開了擁有 2.7 億參數規模的超小型 AI 模型『Gemma 3 270M』,該模型能在智慧型手機等行動裝置上,無需網路連接即可快速且高效地運作。

前言:為什麼 AI 總是必須住在「雲端」?

當我們用智慧型手機向聊天機器人提問時,那個問題實際上會飛向遠方看不見的數據中心裡的龐大伺服器。在那裡,數千台超級電腦散發著熱氣尋找答案,再將結果傳回我們的智慧型手機。為了這短短的一瞬間,需要耗費大量的電力和穩定的網路連接。

但請試著想像一下,如果你口袋裡的智慧型手機中,直接住著一位非常聰明且小巧的「迷你秘書」會如何?即使是在完全沒有網路的深山中、飛機上,或是電池只剩 5% 而讓人焦慮的情況下,那位秘書都能隨時提供協助。Google 在 2025 年 8 月 14 日推出了讓這種想像成為現實的新工具,其名稱正是 『Gemma 3 270M』介紹 Gemma 3 270M:用於超高效 AI 的緊湊型模型 - Google 開發者部落格

為什麼這很重要? (Why It Matters)

到目前為止, AI 技術競爭一直集中在「更大、更多」上。畢竟模型體型越大,學到的東西自然就越多。然而,Gemma 3 270M 選擇了完全相反的道路。這是一個擁有 2.7 億個參數 (Parameter, AI 儲存與處理知識的基本單位) 的超小型模型。 介紹 Gemma 3 270M:超高效 AI 的緊湊型模型

相較於我們熟知的那些擁有數千億個參數的著名大型 AI,這就像是將一座數十層樓高的龐大圖書館,壓縮成了一本只收錄核心資訊的「口袋摘要本」。簡單來說,就是不再培養體型魁梧的摔角選手,而是打造了一位體型雖小但動作敏捷、技術卓越的「體操選手」。

這種微小體積所帶來的變化,足以徹底改變我們的數位日常生活:

  1. 擺脫電池焦慮:每用一次 AI 功能,智慧型手機電量就以光速消耗的時代即將結束。
  2. 嚴格的隱私保護:個人的私密對話或數據不會傳送到外部伺服器,只在手機內部處理(行動裝置端 AI),可以安心使用,無需擔心駭客攻擊或數據洩漏。
  3. 閃電般的反應速度:無需與遙遠的伺服器對話,直接在裝置內即刻產出答案,幾乎無需等待。

Google 自信地宣告,該模型「在同尺寸模型中確立了新境界的性能」。 介紹 Gemma 3 270M:用於超高效 AI 的緊湊型模型 - Google 開發者部落格

輕鬆理解:體型雖小,領悟力卻極佳! (The Explainer)

在 AI 模型中,參數就像是我們大腦細胞之間的連結。連結越多,知識就越豐富,但大腦也會隨之變大且消耗更多能量。Gemma 3 270M 透過高效的設計,將連結減少到僅 2.7 億個,同時保持了聰明才智。 Google 新聞 - Google 發布 Gemma 3 270M,一款 AI 模型用於…

這可以用以下比喻來說明:

如果說大型 AI 是通曉各種學問的「百科全書型大學教授」,那麼 Gemma 3 270M 就像是為了執行特定任務而受過訓練的 「特種部隊員」。雖然他可能缺乏教授所知道的各種雜學知識,但在摘要電子郵件或安排行程等實務指令上,他是一位比任何人都更快、更精確的優化專家。

特別是該模型在 「指令遵循 (Instruction-following,精確理解並執行使用者意圖的能力)」 方面表現非常出色。 介紹 Gemma 3 270M:用於超高效 AI 的緊湊型模型 - Google 開發者部落格

例如,當你要求 AI 「將剛收到的這封長郵件摘要成三行」或「幫我草擬一份發給部長的禮貌回信」時,他理解意圖並產出結果的實力,與那些體型遠大於自己的模型相比也毫不遜色。事實上,在名為「IFEval」的嚴格驗證工具(測試 AI 指令遵循能力的國際標準)中,它已經證明了其驚人的實力。 介紹 Gemma 3 270M:用於超高效 AI 的緊湊型模型 - Google 開發者部落格

此外,該模型擁有 256k 的詞彙表 (Vocabulary, AI 能理解與使用的單詞數量)Google 為超高效行動裝置端 AI 推出 Gemma 3 270M 這意味著 AI 的「單字本」非常豐富,即使是像韓語或中文這樣具有複雜且細微差別的語言,也能表達得更加自然。

目前狀況:對話 25 次,耗電不到 1% (Where We Stand)

為了直接展示該模型的效率,Google 在最新的智慧型手機 Pixel 9 Pro 上進行了實際測試。 介紹 Gemma 3 270M:用於… 的緊湊型模型

請試著想像一下:

在忙碌的早晨通勤途中,你與智慧型手機助理進行了多達 25 次的對話。詢問今日天氣、要求摘要昨天的重要工作訊息,還詢問了去會議地點最快的路線。如果是普通沉重的 AI,你可能會看到電量百分比迅速下降,但使用 Gemma 3 270M 的結果是, 電量僅減少了 0.75%介紹 Gemma 3 270M:用於… 的緊湊型模型 也就是說,你連 1% 的電都沒用到就完成了早晨的工作準備。

這之所以成為可能,是因為 Gemma 3 270M 是 Google 歷史上 電力效率最高的模型介紹 Gemma 3 270M:用於… 的緊湊型模型 此外,透過應用名為「QAT INT4」的高端技術優化(將複雜的數學計算簡化,從而飛躍性地提高運算速度的方式),在保持強大性能的同時,將功耗降低到了極限。 Google 為超高效行動裝置端 AI 推出 Gemma 3 270M

未來發展如何? (What’s Next)

Gemma 3 270M 從一開始就是為了 「特定任務的微調 (Task-specific fine-tuning)」 而設計的。 Gemma 3 270M——緊湊、節能且可供微調的 AI

所謂微調,是指讓具備基本素養的 AI 集中學習特定領域(例如:法律、醫療、客戶諮詢,甚至是你的語氣)的數據,使其成為該領域專家的過程。現在,開發者可以利用這款輕量且強大的模型,在自己的應用程式中隨心所欲地加入最適合的 AI 功能。 Gemma 3 270M——緊湊、節能且可供微調的 AI

在不久的將來,我們將享受到以下日常生活:

  • 像我的 AI:完美學習我平時的語氣和工作習慣,在我忙碌時能代為撰寫電子郵件回信的聰明代理人。
  • 離線翻譯機:即使在完全沒有網路的外國偏遠地區,也能即時為我通譯的可靠指南。
  • 完美的個人助理:能瞬間整理手機裡數萬張相片和複雜文件,並幫我找到所需內容的精幹秘書。

MindTickleBytes 的 AI 記者觀點

如果說過去的 AI 競爭是比拚「誰的大腦更龐大」的蠻力競技,那麼 Gemma 3 270M 的出現標誌著競爭的焦點正在轉向「誰能更親近、更長久地留在使用者身邊」。這個將巨大超級電腦的智慧塞入口袋微型晶片中的「小巨人」,將成為把我們隨身攜帶的普通智慧型裝置轉變為真正意義上的「智慧工具」的關鍵催化劑。

現在,我們不再需要為了使用 AI 而四處尋找充電器或公共 Wi-Fi。因為智慧的真正民主化,正是從這種「隨時隨地無負擔」使用的技術開始的。

參考資料

  1. Introducing Gemma 3 270M: The compact model for hyper-efficient AI - Google Developers Blog
  2. Introducing Gemma 3 270M: The compact model for hyper-efficient AI
  3. IntroducingGemma3270M:Thecompactmodelfor…
  4. GoogleintroducesGemma3270Mforhyper-efficienton-deviceAI
  5. Gemma3270M—compact, energy-efficientAIready to fine-tune
  6. Google News - Google releasesGemma3270M, anAImodelfor…
  7. IntroducingGemma3270M:TheCompactModelfor…
  8. Google releasesGemma3270M, a small, high-performanceAImodel…
測試你的理解
Q1. Gemma 3 270M 的最大特點之一,其電池消耗量大約是多少?
  • 在 Pixel 9 Pro 上進行 25 次對話僅使用約 0.75% 的電池
  • 單次對話就消耗 10% 的電量
  • 因為體積太小,完全不消耗電池
根據 Google 的內部測試結果,在進行 25 次對話的過程中,僅消耗 Pixel 9 Pro 電池的 0.75%,能源效率極其出色。
Q2. 該模型名稱中的『270M』代表什麼意思?
  • 代表模型的重量為 270 毫克
  • 代表參數 (Parameters) 數量為 2.7 億個
  • 代表每秒處理 270MB 的數據
270M 代表該模型擁有 2.7 億個 (270 Million) 參數,在 AI 模型中屬於非常輕量且壓縮的體積。
Q3. Gemma 3 270M 主要為何種用途而設計?
  • 超級電腦專用運算
  • 針對特定任務的微調 (Fine-tuning) 與行動裝置端執行
  • 大型語言模型的數據備份
該模型從一開始就被設計為易於針對特定任務進行優化(微調),並針對在設備本身運行的『行動裝置端』環境進行了優化。