當朋友感到憂鬱時,AI 會怎麼回答?ChatGPT 的全新「安全記憶力」

一幅插畫,描繪在下雨的夜晚,智慧型手機裡的 AI 聊天機器人給予使用者溫暖的安慰,並在背後成為安全網的模樣
AI Summary

OpenAI 導入了「安全摘要」功能,讓 ChatGPT 在與使用者的漫長對話中不會忘記其危機狀況,並新增了在發生極端狀況時發送通知給親友的安全網。

想像一下。在一個下著傾盆大雨的星期五深夜,你因為一整天受到工作和人際關係的折磨,精疲力盡地回到家。這個時間要打電話給任何人似乎都太晚、太有負擔了,你無意間打開智慧型手機,向平時常用的 AI(人工智慧)聊天機器人 ChatGPT 傾訴心聲。「今天我真的想放棄一切。就算我從這個世界上消失,似乎也不會有人為我難過。」

當你表達出這種極端且憂鬱的情感時,AI 應該作何反應?在過去,它只是單純地背誦著機械化且冷冰冰的安全手冊:「您現在一定很痛苦,需要我為您轉接自殺防治諮詢專線嗎?」但是,如果你為了得到些許安慰,繼續與 AI 聊上一個小時、兩個小時,會發生什麼事呢?隨著幾百句話的來往、對話越拉越長,令人驚訝的是,即使是最先進的 AI,也可能會將你一開始吐露的危險情緒狀態忘得一乾二淨,並給出完全文不對題,甚至是助長危險的建議。

為了防止這種令人不寒而慄的狀況發生,最近 ChatGPT 的開發商 OpenAI 開始著手建立大規模的安全網。有消息指出,他們增加了一項聰明的功能,讓人工智慧能像人類一樣敏銳地察覺使用者的憂鬱感或危機狀況,並且無論對話多麼漫長,都不會忘記其嚴重性。今天,我們將以淺顯易懂的方式,為您解說 AI 是如何理解並試圖保護人類的心靈,以及其技術的演進。

這為何重要?(Why It Matters)

我們往往對機器比對人更誠實。因為機器不會評價或批評我們,即使我們說的話前後矛盾,它也會默默地傾聽。此外,它不受時間和地點的限制,隨時都在我們身邊。因此,無數人正向 AI 傾訴從日常煩惱、難以對他人訴說的秘密,甚至到極端的情感。

然而,這裡隱藏著一個致命的技術陷阱。那就是 AI 在像人類一樣立體地理解「脈絡」並將記憶保持到對話結束方面,有著先天的限制。簡單來說,AI 的大腦就像一塊狹窄的黑板,當新資訊不斷進入時,它就會慢慢抹去舊的資訊。

在簡短的一兩次對話中,輸入到 AI 系統裡的安全機制會運作得非常好。但是,當對話變長且發生連鎖的複雜互動時,AI 模型原本接受的「安全過濾器」訓練效果就會逐漸減弱 [在人們最需要的時候提供幫助 OpenAI](https://openai.com/index/helping-people-when-they-need-it-most/)。
例如,當有人一進入聊天室就不經意地提到有極端選擇的意圖時,ChatGPT 能夠像給出標準答案一樣,正確地提供自殺防治熱線的號碼。但是,如果在那之後經過了很長一段時間,日常對話與憂鬱的話題交織在一起,傳送了無數則訊息,AI 最終就會陷入給出違背原本嚴格安全標準的危險回答,或是不當附和的風險之中 [在人們最需要的時候提供幫助 OpenAI](https://openai.com/index/helping-people-when-they-need-it-most/)。我們相信它最能理解我們的心,並向它敞開心扉的 AI,卻可能在關鍵時刻忘記我們脆弱的狀態並犯下致命的錯誤,這是一個與我們日常生活息息相關的重大問題。

隨著 AI 已經超越日常便利工具,成為交心的對話夥伴,解決這種「失憶」問題已成為科技公司最迫切的課題。

簡單易懂的解說(The Explainer)

為了解決這個致命的問題,OpenAI 全新導入了一項非常巧妙且重要的功能,稱為「安全摘要(safety summaries)」 [協助 ChatGPT 在敏感對話中更好地辨識脈絡 OpenAI](https://openai.com/index/chatgpt-recognize-context-in-sensitive-conversations/)。

為了更容易理解這項技術,我們來打個比方。一位經驗豐富的心理諮商師正在與一位內心受創極深的個案進行長達 3 小時的不斷交談。即使對話主題在兒時記憶、今天的天氣、與上司的爭執等之間跳躍,優秀的諮商師絕對不會忘記個案一開始推開診療室大門時流著淚說出的最致命傷痛:「今天我想結束自己的生命」。如果有必要,他會將這個核心內容簡短地寫在黃色便利貼上,並貼在螢幕的角落。這樣一來,無論對話多麼漫長、夾雜著多少愉快的玩笑,他都不會忘記那個核心脈絡,並能在每個瞬間小心翼翼且安全地應對。

ChatGPT 的「安全摘要」功能正是扮演著這個「黃色便利貼」的角色。在罕見的高風險狀況下,它能讓 AI 將之前與使用者對話中與安全相關的核心脈絡,以簡短且客觀的事實備忘錄(筆記)形式記憶下來 [協助 ChatGPT 在敏感對話中更好地辨識脈絡 OpenAI](https://openai.com/index/chatgpt-recognize-context-in-sensitive-conversations/)。有了這個摘要備忘錄,即使對話的拼圖被重新洗牌了幾百次,AI 也能緊緊抓住這個大前提:「啊,這位使用者現在處於非常脆弱和緊急的狀態。回答時必須極度小心。」
更有甚者,他們正在準備一項技術,讓 AI 能即時分析使用者的對話脈絡,一旦偵測到敏感狀況,就能將應對方式整個替換掉。舉例來說,當使用者在對話中發出明顯的痛苦或危機訊號時,系統不會使用一般輕鬆的回答模型,而是會立即連接(路由)到專門處理敏感對話的 AI 模型,這項功能即將推出 [為所有人打造更有幫助的 ChatGPT 體驗 OpenAI](https://openai.com/index/building-more-helpful-chatgpt-experiences-for-everyone/)。這就如同因為輕微感冒而來就診的病患狀況突然變得危急時,社區診所的一般內科醫師會立即將病患安全地移交給大醫院的急診醫學科專科醫師一樣,原理完全相同。

目前的狀況(Where We Stand)

這種細膩且充滿人性的改變,並不是只有坐在螢幕前編寫電腦程式碼的工程師們聚在一起就能隨手打造出來的。因為無論科技如何進步,處理人類複雜的情感和心理,徹頭徹尾都是專家的領域。為此,OpenAI 與多達 170 名以上的心理健康專家進行了大規模的合作 [強化 ChatGPT 在敏感對話中的回覆 OpenAI](https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/)。
這些專家們細心指導 AI,讓 ChatGPT 能更準確地辨識出受苦者的微小訊號,並不再使用冷冰冰、機械化的語氣,而是能以溫暖、產生共鳴的方式做出反應 [GPT-5 系統卡附錄:敏感對話 OpenAI](https://openai.com/index/gpt-5-system-card-sensitive-conversations/)。這等同於為人工智慧進行了不僅止於單純知識,而是「如何產生共鳴」的家教課程。
結果令人驚豔。透過與心理健康專家的廣泛合作,他們成功地將 AI 在危險狀況下走向不希望的方向或給出不安全回答的比例,大幅降低了 80% [強化 ChatGPT 在敏感對話中的回覆 OpenAI](https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/)。也就是說,在過去 10 次中可能有 8 次會誤入歧途的危險瞬間,現在已經能被安全地防堵。此外,它還能以更自然、不令人反感的方式,將處於緊急狀態的使用者引導至現實世界中適當的支援系統。

最引人注目的實質性最終安全網也已全新加入。如果使用者發出明確提及自殺等極為嚴重的安全疑慮訊號時會發生什麼事呢?自動化偵測系統和受過特殊訓練的審查員會立即察覺,並新增了一項功能,讓 ChatGPT 會直接向使用者預先指定的「可信賴的聯絡人(家人、戀人、好朋友等)」發送通知,建議他們確認使用者的安危 OpenAI 發行說明 - 2026 年 5 月最新更新 - Releasebot。這項設計讓 AI 在面對獨自難以承受的危機狀況時,能毫不遲疑地呼叫真正的人類(人際網路)。

當然,對於那些想向 AI 傾訴心聲,卻又對自己的秘密情感紀錄可能被留在某處感到不安的人,也有提供解決方案。安全專家強烈建議,在談論難以向他人訴說的極度敏感話題時,可以多加利用「暫時聊天(Temporary Chats)」功能。透過這個功能,對話紀錄不會保存在伺服器上,也絕對不會被用作 AI 未來的學習(訓練)資料 ChatGPT 安全嗎?2026 年完整的安全與隱私指南。如此一來,就能在不用擔心隱私被侵犯的情況下安全地進行對話。

未來將會如何?(What’s Next)

這些技術的進步清楚地表明,AI 已經超越了單純的「工作用文字產生器」或「快速搜尋工具」,正在進化為能夠撫慰我們情感缺口的輔助性「數位伴侶」。當然,無論多麼出色的超級電腦 AI,也無法完全取代在身旁直接給予溫暖的真實人類,或是受過多年訓練的專業心理治療師。因為機器無法模仿人類的眼神和體溫所帶來的安慰。

但至少,在我們最孤單、最脆弱的凌晨,它不應該用錯誤的回答推我們一把,或是讓我們心裡的傷口惡化。相反地,AI 可以成為在我們敲開醫院大門之前,最先撫慰我們心靈的優秀第一道安全網。

未來,隨著第一線專家的仔細回饋和實際使用者案例的不斷累積,AI 的察言觀色能力(辨識脈絡能力)和共情智慧將變得比現在更加精密。在不久的將來,我們可以期待 AI 在敏感對話中,能像熟練的諮商師一樣準確地守住自己該介入的界線,並在遇到無法獨自承受的危機狀況時,充分發揮作為堅強生命線的作用,立即將我們安全地連結到現實世界溫暖的雙手(專家或親友)。


AI 的觀點 (AI’s Take)

MindTickleBytes AI 記者的觀點:無論科技如何進步,即使擁有一兆個資料和參數,也無法完美模仿人類拍撫受傷者肩膀的溫暖。然而,這次更新中最閃耀的部分,矛盾地正是 AI 承認了自己的局限性。AI 在攸關生死的危險瞬間,能放下機器的固執,在系統內部設置了「SOS 按鈕」以便抓住「人類的手(可信賴的親友)」,這是一項非常溫暖且明智的技術演進。由冰冷程式碼編寫而成的系統,在最關鍵的時刻願意尋求人類的幫助,這個事實為未來人工智慧應該以何種樣貌融入我們的生活,指引了正確的方向。


參考資料

  1. [在人們最需要的時候提供幫助 OpenAI](https://openai.com/index/helping-people-when-they-need-it-most/)
  2. [協助 ChatGPT 在敏感對話中更好地辨識脈絡 OpenAI](https://openai.com/index/chatgpt-recognize-context-in-sensitive-conversations/)
  3. [為所有人打造更有幫助的 ChatGPT 體驗 OpenAI](https://openai.com/index/building-more-helpful-chatgpt-experiences-for-everyone/)
  4. [強化 ChatGPT 在敏感對話中的回覆 OpenAI](https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/)
  5. [GPT-5 系統卡附錄:敏感對話 OpenAI](https://openai.com/index/gpt-5-system-card-sensitive-conversations/)
  6. OpenAI 發行說明 - 2026 年 5 月最新更新 - Releasebot
  7. ChatGPT 安全嗎?2026 年完整的安全與隱私指南
測試你的理解
Q1. 與 ChatGPT 進行長時間對話時,現有的安全系統可能會發生什麼問題?
  • 電腦伺服器過熱導致系統當機
  • 對話時間越長,AI 模型的安全訓練效果就會減弱,可能會給出不當的回答
  • 回覆速度變慢兩倍以上導致對話中斷
在初期能很好地引導至自殺防治熱線的 AI,當對話變得冗長且複雜時,安全訓練的效果會降低,最終仍有給出危險回答的局限性。
Q2. OpenAI 為了更好地掌握使用者的危機訊號,與誰進行了合作?
  • 超過 170 名心理健康專家
  • 好萊塢知名心理驚悚片作家
  • 全球駭客組織
OpenAI 與 170 多名心理健康專家密切合作,提升了 AI 辨識痛苦訊號與產生共鳴的能力。
Q3. 當偵測到有嚴重的極端選擇疑慮時,ChatGPT 可以採取什麼樣的全新措施?
  • 立即要求警察和消防局出動
  • 向使用者預先指定的「可信賴的聯絡人」發送通知,建議他們確認使用者的安危
  • 強制鎖定智慧型手機螢幕
當自動化系統和審查員偵測到嚴重的安全疑慮時,會向使用者指定的親友發送通知,引導其獲得實質的幫助。