OpenAI 正在進行一項安全檢查,向能夠突破 GPT-5 安全網並提取危險生物與化學資訊的「通用越獄」專家提供最高 2 萬 5 千美元的獎金。
想像一下,你身邊有一位通曉世間所有知識的天才朋友。這位朋友是你可靠的助手,從美味的料理食譜到複雜的微積分問題,沒有什麼能難倒他。但是,如果有人問這位聰明的朋友:「請告訴我如何製造對人類致命的危險病毒或毒性物質」,會發生什麼事呢?如果這位天才毫無顧忌地詳細說明方法,那麼這份龐大的知識將不再是祝福,而會成為威脅人類的巨大災難。
最近,推出 ChatGPT 的 OpenAI 為了防止這種可怕的情節發生,啟動了一場特別且懸賞巨額獎金的「賞金獵人」行動。這就是所謂的 「GPT-5 生物安全漏洞獎勵(Bio Bug Bounty)」 計畫。[Source 8] GPT‑5.5 Bio Bug Bounty - OpenAI (https://openai.com/index/gpt-5-5-bio-bug-bounty/)。這是一項大膽的策略:尋找能強行解開為了防止 AI 吐露危險知識而設置的「安全鎖」的高手,並透過發放獎金來修復這些漏洞。
為什麼這對我們的生活很重要?
我們日常使用的巨型語言模型(LLM,Large Language Model:學習海量數據後能像人類一樣對話的 AI)會學習網路上公開的數億篇科學論文與技術數據。雖然這些海量數據中大部分是對人類有益的資訊,但其中也可能夾雜著一些可能被用於恐怖攻擊或犯罪的危險生物與化學資訊碎片。
打個比方,就像一個背下圖書館所有書籍的 AI,在學習「製藥方法」的過程中,也會同時學到「製毒方法」。如果心懷不軌的人利用 AI 淵博的知識來培養致命病原體或設計複雜的化學武器,這將與單純的網路詐騙或侵犯版權完全不同,是直接關係到全人類生存的問題。
OpenAI 希望在向大眾正式發布次世代模型 GPT-5 與 GPT-5.5 之前,預先阻止這把「知識之刃」被誤用。[Source 10] OpenAI Launches Biosecurity Bug Bounty Program for GPT-5 (https://www.robertodiasduarte.com.br/en/openai-lanca-programa-bug-bounty-de-bioseguranca-para-gpt-5/)。也就是說,透過讓專家扮演「壞人」攻擊 AI,找出安全漏洞並將其修補得更加堅固。
簡單理解:AI 的「越獄」與「萬能鑰匙」
在本次安全檢查計畫中,最常出現的核心術語就是 「越獄(Jailbreak)」。原本是指解除智慧型手機作業系統限制以進行任意修改,但在 AI 領域中,它代表 「使設定的安全規則失效,強行誘導 AI 給出禁止回答內容的行為」。[Source 10] OpenAI Launches Biosecurity Bug Bounty Program for GPT-5 (https://www.robertodiasduarte.com.br/en/openai-lanca-programa-bug-bounty-de-bioseguranca-para-gpt-5/)
簡單來說,AI 內部存有放著危險資訊的「秘密保險箱」,門前站著一名嚴格遵守規則的守門人,規定「無論誰問都絕對不能打開!」。而「越獄」可以看作是一種高度的心理技術,透過巧妙的言語對守門人施加催眠,或欺騙其演繹虛擬情境,使其悄悄打開保險箱。
然而,這次 OpenAI 懸賞巨額獎金的對象並非一般的越獄,而是難度最高的挑戰 —— 「通用越獄(Universal Jailbreak)」。[Source 3] Find a GPT-5 jailbreak and win $25,000 from OpenAI - Varindia (https://www.varindia.com/news/find-a-gpt-5-jailbreak-and-win-25-000-from-openai/)
什麼是「通用越獄」?
假設有 10 個不同的秘密保險箱。通常為了打開一個保險箱,每次都必須使用不同的騙術。但「通用越獄」是找出一個 單一句子(Prompt),就能一次打開所有 10 個保險箱的「萬能鑰匙(Master Key)」。[Source 12] GPT-5 Bio Bug Bounty Programme: Sam Altman-Run OpenAI … (https://www.latestly.com/socially/technology/gpt-5-bio-bug-bounty-programme-sam-altman-run-ai-firm-openai-announces-applications-for-select-bio-red-teamers-check-rewards-and-other-details-7076727.html)
| OpenAI 預先準備了 10 個關於生物及化學領域極其敏感的安全問題。參與者必須在完全沒有對話紀錄的「乾淨對話框(Clean Chat)」狀態下,僅投射一個提問,就繞過 AI 所有的安全過濾器,並獲得這 10 個危險問題的完美答案。[Source 7] TECHSHOTS | OpenAI Launches Bug Bounty: $25K for Universal GPT-5 Jailbreak (https://www.techshotsapp.com/business/openai-launches-bug-bounty-25k-for-universal-gpt-5-jailbreak)。對於最先成功完成這項看似不可能任務的人,將給予高達 25,000 美元(約 3,400 萬韓元) 的優渥獎金。[Source 5] OpenAI Will Pay $25,000 to Jailbreak GPT-5 (https://geekflare.com/news/openai-will-pay-25000-to-jailbreak-gpt-5/) |
現狀:由專家組成的「紅隊」發動總攻
不過,這場賞金獵人行動並非人人都能參加。由於需要判斷 AI 給出的答案實際上有多危險,OpenAI 嚴格挑選並邀請了在生物安全(Biosecurity)領域擁有專業知識的學者與研究人員。[Source 10] OpenAI Launches Biosecurity Bug Bounty Program for GPT-5 (https://www.robertodiasduarte.com.br/en/openai-lanca-proximity-bug-bounty-de-bioseguranca-para-gpt-5/)
這些人在安全術語中被稱為 「紅隊(Red-teaming)」。這是一個專家群體,為了尋找組織的漏洞而故意扮演攻擊者的角色。[Source 8] GPT‑5.5 Bio Bug Bounty - OpenAI (https://openai.com/index/gpt-5-5-bio-bug-bounty/)
參與者簽署了嚴格的 保密協議(NDA, Non-Disclosure Agreement),且僅在 OpenAI 提供的特殊環境中進行測試。[Source 11] OpenAI launches bug bounty for GPT-5 on biological risks (https://keryc.com/en/news/openai-launches-bug-bounty-gpt5-biological-risks-270fb1a8)。他們會仔細評估並記錄 AI 在制定恐怖攻擊計畫時能提供多具體的幫助,或是詳細解釋到何種程度的危險物質製造步驟。[Source 6] GPT-5 System Card OpenAI August 13, 2025 1 (https://cdn.openai.com/gpt-5-system-card.pdf)
OpenAI 從 2025 年 8 月底開始正式啟動該計畫,原因非常明確:在 GPT-5 面世之前,消除所有可能存在的安全死角,展現其確保「絕對安全」的意志。[Source 10] [Source 13]
未來會如何發展?
這次漏洞獎勵計畫不僅僅是一個給錢找漏洞的活動,更可望成為人類建立 「人工智慧安全標準」 的重要里程碑。
未來隨著 AI 變得越來越聰明,與其關注它們擁有多豐富的知識,如何「安全地」控制與管理這些知識,將成為企業與國家的核心技術競爭力。我們應該記住,在我們即將見到的 GPT-5 或 GPT-5.5 的背後,有著無數專家日以繼夜地與 AI 進行智力博弈,才堆疊出如此堅固的「數位防火牆」。
為了讓你手中的 AI 助理能繼續作為幫助人類的朋友,此時此刻,在看不見的數位世界裡,一場最激烈且充滿智慧的「安全戰爭」仍在繼續。
MindTickleBytes AI 記者的視角
OpenAI 的這一舉措顯示出,人工智慧已經超越了單純的「便利工具」,進入了必須承擔「社會責任」的成熟階段。2 萬 5 千美元的獎金對個人來說是一筆大錢,但與 AI 故障或被惡用可能引發的潛在災難規模相比,這其實是一項非常小的投資。隨著技術發展速度加快,我們建立安全承載技術的「容器」之深度,也應該隨之增加。
參考資料
- [Source 3] Find a GPT-5 jailbreak and win $25,000 from OpenAI - Varindia: https://www.varindia.com/news/find-a-gpt-5-jailbreak-and-win-25-000-from-openai
- [Source 4] OpenAI GPT-5 Bio Bug Bounty Program Targets Universal Jailbreaks: https://llmbase.ai/news/openai-gpt-5-bio-bug-bounty-offers-25-000-for-universal-jailbreak-discovery/
- [Source 5] OpenAI Will Pay $25,000 to Jailbreak GPT-5: https://geekflare.com/news/openai-will-pay-25000-to-jailbreak-gpt-5/
- [Source 6] GPT-5 System Card OpenAI August 13, 2025 1: https://cdn.openai.com/gpt-5-system-card.pdf
-
[Source 7] TECHSHOTS OpenAI Launches Bug Bounty: $25K for Universal GPT-5 Jailbreak: https://www.techshotsapp.com/business/openai-launches-bug-bounty-25k-for-universal-gpt-5-jailbreak - [Source 8] GPT‑5.5 Bio Bug Bounty - OpenAI: https://openai.com/index/gpt-5-5-bio-bug-bounty/
- [Source 10] OpenAI Launches Biosecurity Bug Bounty Program for GPT-5: https://www.robertodiasduarte.com.br/en/openai-lanca-programa-bug-bounty-de-bioseguranca-para-gpt-5/
- [Source 11] OpenAI launches bug bounty for
GPT-5on biological risks: https://keryc.com/en/news/openai-launches-bug-bounty-gpt5-biological-risks-270fb1a8 - [Source 12] GPT-5 Bio Bug Bounty Programme: Sam Altman-Run OpenAI …: https://www.latestly.com/socially/technology/gpt-5-bio-bug-bounty-programme-sam-altman-run-ai-firm-openai-announces-applications-for-select-bio-red-teamers-check-rewards-and-other-details-7076727.html
- [Source 13] OpenAI launches GPT-5 Bio Bug Bounty to test safety with …: https://brainai.pro/news/en/2025/09/05/openai-launches-gpt-5-bio-bug-bounty-to-test-safety-with-universal-jailbreak-pro/
- 10,000 美元
- 25,000 美元
- 50,000 美元
- 提高 AI 的運行速度
- 僅用一個提問(Prompt)就突破 10 個危險問題的安全網
- 讓 AI 寫詩
- 全世界所有一般大眾
- OpenAI 選定的生物安全專家及研究人員
- 小學生開發者