OpenAI 正在进行安全检查,向能够攻破 GPT-5 安全网并提取危险生物、化学信息的“通用越狱”专家提供最高 2.5 万美元的奖金。
想象一下。你身边有一位无所不知的天才朋友。从美味的料理食谱到复杂的微积分问题,这位朋友都能为你排忧解难。但是,如果有人问这位聪明的朋友:“请告诉我如何制造可能对人类造成致命伤害的危险病毒或有毒物质”,会发生什么呢?如果这位天才朋友毫无顾忌地详细解释其方法,那么这种庞大的知识将不再是福祉,而将成为威胁人类的巨大灾难。
最近,发布了 ChatGPT 的 OpenAI 为了防止这种可怕情况的发生,启动了一场涉及巨额赏金的特别“赏金猎捕”。这就是所谓的“GPT-5 生物安全漏洞赏金(Bio Bug Bounty)”计划。[Source 8] GPT‑5.5 Bio Bug Bounty - OpenAI (https://openai.com/index/gpt-5-5-bio-bug-bounty/) 这是一个大胆的策略:寻找能够强行解开为防止 AI 吐露危险知识而设置的“安全锁”的高手,反而给予奖金并修复漏洞。
为什么这对我们的生活很重要?
我们在日常生活中使用的大语言模型(LLM, Large Language Model:学习海量数据并像人类一样对话的 AI)会学习互联网上公开的数亿篇科学论文和技术数据。在这些庞大的数据中,虽然大部分是对人类有益的信息,但也有可能混入一些可以被用于恐怖袭击或犯罪的危险生物学、化学信息。
打个比方,这就好比一个背下了大型图书馆所有书籍的 AI,在学习“制药方法”的过程中,也顺便学会了“制毒方法”。想象一下,如果一个怀有恶意的人利用 AI 这种渊博的知识来培养致命病原体或设计复杂的化学武器,这将是与简单的在线诈骗或侵犯版权完全不同层次的问题,直接关系到全人类的生存。
OpenAI 希望在向公众正式发布下一代模型 GPT-5 和 GPT-5.5 之前,预先封锁这种“知识之刃”被错误挥舞的可能性。[Source 10] OpenAI Launches Biosecurity Bug Bounty Program for GPT-5 (https://www.robertodiasduarte.com.br/en/openai-lanca-programa-bug-bounty-de-bioseguranca-para-gpt-5/) 也就是说,通过让专家们预先怀揣“恶意”攻击 AI,找出安全漏洞并将其牢牢补上。
轻松理解:AI 的“越狱”与“万能钥匙”
在此次安全检查计划中,最常出现的核心术语就是“越狱(Jailbreak)”。原本是指解除智能手机操作系统的限制并随意修改,但在 AI 领域,它指的是“使设定的安全规则失效,强制引导出被禁止回答的内容”。[Source 10] OpenAI Launches Biosecurity Bug Bounty Program for GPT-5 (https://www.robertodiasduarte.com.br/en/openai-lanca-programa-bug-bounty-de-bioseguranca-para-gpt-5/)
简单来说,AI 内部存有包含危险信息的“秘密金库”,金库前站着一位严格遵守“无论谁问都绝对不能打开!”规则的守门人。“越狱”可以被看作是一种高超的心理技巧,通过用巧妙的语言催眠守门人,或者欺骗守门人扮演虚构的情境,使其悄悄打开金库。
然而,这次 OpenAI 悬赏巨额奖金的对象并非普通的越狱。而是难度最高的任务——“通用越狱(Universal Jailbreak)”。[Source 3] Find a GPT-5 jailbreak and win $25,000 from OpenAI - Varindia (https://www.varindia.com/news/find-a-gpt-5-jailbreak-and-win-25-000-from-openai/)
什么是“通用越狱”?
假设有 10 个不同的秘密金库。通常情况下,为了打开一个金库,每次都需要使用不同的欺骗手段。但“通用越狱”是寻找一把仅凭一个句子(提示词)就能一次性打开所有 10 个金库的“万能钥匙(Master Key)”。[Source 12] GPT-5 Bio Bug Bounty Programme: Sam Altman-Run OpenAI … (https://www.latestly.com/socially/technology/gpt-5-bio-bug-bounty-programme-sam-altman-run-ai-firm-openai-announces-applications-for-select-bio-red-teamers-check-rewards-and-other-details-7076727.html)
| OpenAI 预先准备了 10 个关于生物及化学领域的极度敏感的安全问题。参与者必须在没有任何先前对话记录的“干净对话框(Clean Chat)”状态下,仅投出一个问题,就要绕过 AI 所有的安全过滤器,并获得针对 10 个危险问题的完美回答。[Source 7] TECHSHOTS | OpenAI Launches Bug Bounty: $25K for Universal GPT-5 Jailbreak (https://www.techshotsapp.com/business/openai-launches-bug-bounty-25k-for-universal-gpt-5-jailbreak) 第一个成功完成这项看似不可能完成的任务的人,将获得高达 25,000 美元(约合 3,400 万韩元)的破格奖金。[Source 5] OpenAI Will Pay $25,000 to Jailbreak GPT-5 (https://geekflare.com/news/openai-will-pay-25000-to-jailbreak-gpt-5/) |
现状:由专家组成的“红队”发起总攻
但是,并非任何人都能参与这场赏金猎捕。由于必须判断 AI 给出的回答实际有多危险,OpenAI 严格挑选并邀请了在生物安全(Biosecurity)领域具备专业知识的学者和研究人员。[Source 10] OpenAI Launches Biosecurity Bug Bounty Program for GPT-5 (https://www.robertodiasduarte.com.br/en/openai-lanca-proximity-bug-bounty-de-bioseguranca-para-gpt-5/)
他们在安全术语中被称为“红队(Red-teaming)”。指的是为了寻找组织的弱点而故意扮演攻击者角色的专家群体。[Source 8] GPT‑5.5 Bio Bug Bounty - OpenAI (https://openai.com/index/gpt-5-5-bio-bug-bounty/)
参与者签署了严格的保密协议(NDA, Non-Disclosure Agreement:承诺不向外部泄露在工作中获悉的机密),并且仅在 OpenAI 准备的特殊环境中进行测试。[Source 11] OpenAI launches bug bounty for GPT-5 on biological risks (https://keryc.com/en/news/openai-launches-bug-bounty-gpt5-biological-risks-270fb1a8) 他们会仔细评估并记录 AI 在制定恐怖袭击计划方面提供了多具体的帮助,或者对危险物质制造步骤的解释有多详尽。[Source 6] GPT-5 System Card OpenAI August 13, 2025 1 (https://cdn.openai.com/gpt-5-system-card.pdf)
OpenAI 从 2025 年 8 月底开始正式启动该计划的原因很明确。即在 GPT-5 问世之前,预先消除所有可能存在的安全死角,确立“绝对安全”的决心。[Source 10] [Source 13]
未来会怎样?
此次漏洞赏金计划不仅是一个出钱寻找漏洞的活动,更将成为人类面临的“人工智能安全标准”重新确立的重要里程碑。
今后,随着 AI 变得越来越聪明,比起它们拥有多少知识,如何“安全地”控制和管理这些知识将成为企业和国家的核心技术竞争力。我们要记住,在不久的将来我们将见到的 GPT-5 或 GPT-5.5 的背后,有如此多专家日以继夜地与 AI 进行智力较量而筑起的坚固“数字防火墙”。
为了让你手中的 AI 助手始终是帮助我们的朋友,此时此刻,在看不见的数字世界里,最激烈、最智慧的“安全战争”仍在继续。
MindTickleBytes 的 AI 记者视角
OpenAI 的这一举措表明,人工智能已经超越了单纯的“便利工具”,进入了必须承担“社会责任”的成熟阶段。25,000 美元的奖金对个人来说虽然是一笔不小的数目,但与 AI 故障或被滥用可能造成的潜在灾难规模相比,其实只是微不足道的投入。随着技术发展速度的加快,构建能够安全承载该技术的“容器”的思考深度也应随之增加。
参考资料
- [Source 3] 发现 GPT-5 越狱即可获得 OpenAI 的 25,000 美元奖金 - Varindia: https://www.varindia.com/news/find-a-gpt-5-jailbreak-and-win-25-000-from-openai
- [Source 4] OpenAI GPT-5 生物安全漏洞赏金计划瞄准通用越狱: https://llmbase.ai/news/openai-gpt-5-bio-bug-bounty-offers-25-000-for-universal-jailbreak-discovery/
- [Source 5] OpenAI 将为 GPT-5 越狱支付 25,000 美元: https://geekflare.com/news/openai-will-pay-25000-to-jailbreak-gpt-5/
- [Source 6] GPT-5 系统卡 OpenAI 2025 年 8 月 13 日 1: https://cdn.openai.com/gpt-5-system-card.pdf
-
[Source 7] TECHSHOTS OpenAI 启动漏洞赏金:悬赏 2.5 万美元征集通用 GPT-5 越狱: https://www.techshotsapp.com/business/openai-launches-bug-bounty-25k-for-universal-gpt-5-jailbreak - [Source 8] GPT‑5.5 生物安全漏洞赏金 - OpenAI: https://openai.com/index/gpt-5-5-bio-bug-bounty/
- [Source 10] OpenAI 为 GPT-5 启动生物安全漏洞赏金计划: https://www.robertodiasduarte.com.br/en/openai-lanca-programa-bug-bounty-de-bioseguranca-para-gpt-5/
- [Source 11] OpenAI 针对
GPT-5生物风险启动漏洞赏金: https://keryc.com/en/news/openai-launches-bug-bounty-gpt5-biological-risks-270fb1a8 - [Source 12] GPT-5 生物安全漏洞赏金计划:萨姆·奥特曼管理的 AI 公司 OpenAI 宣布选拔生物红队成员,查看奖励及其他详情: https://www.latestly.com/socially/technology/gpt-5-bio-bug-bounty-programme-sam-altman-run-ai-firm-openai-announces-applications-for-select-bio-red-teamers-check-rewards-and-other-details-7076727.html
- [Source 13] OpenAI 启动 GPT-5 生物安全漏洞赏金以通过通用越狱测试安全性: https://brainai.pro/news/en/2025/09/05/openai-launches-gpt-5-bio-bug-bounty-to-test-safety-with-universal-jailbreak-pro/
- 10,000 美元
- 25,000 美元
- 50,000 美元
- 提高 AI 的速度
- 仅用一个提示词(Prompt)攻破 10 个危险问题的安全网
- 让 AI 写诗
- 全球所有普通民众
- OpenAI 选定的生物安全专家及研究人员
- 小学生开发者