ChatGPT Health上線隱私與安全爭議大 台灣用戶需謹慎分享醫療資料

ChatGPT Health上線隱私與安全爭議大 台灣用戶需謹慎分享醫療資料

2026-01-20
OpenAI於1月7日宣布推出ChatGPT Health,宣稱提供「專屬安全體驗」,讓使用者將個人健康資料與ChatGPT智慧結合,協助更安心面對健康議題。該產品強調額外加密與隔離保護,承諾健康對話不被用於訓練基礎模型,並與醫療記錄平台b.well合作,透過FHIR標準API與嚴格身分驗證拉取資料。然而,資安專家與數位權利團體紛紛提出質疑:即使加密再嚴密,一旦資料上傳第三方企業,控制權即部分喪失;加上LLM幻覺(hallucination)與提示注入風險未解,健康建議若誤導,恐釀嚴重後果。對台灣逾千萬ChatGPT活躍用戶而言,此產品便利卻潛藏高風險,個資法與醫療法規專家呼籲民眾謹慎上傳敏感資料,企業與政府應密切監控AI健康應用合規性。
 
ChatGPT Health定位為教育輔助工具,非診斷或治療,強調「支援而非取代醫療照護」。使用者可選擇連結Apple Health或其他健康App,授權存取醫療記錄,獲客製化建議。OpenAI發言人向Dark Reading表示,所有合作App須符合其隱私與安全要求,僅收集必要資料,並經額外審核;使用者可隨時斷開連線,終止存取。資料在傳輸與靜態時加密,健康對話與一般ChatGPT隔離。
 
然而,數位權利組織Access Now政策分析師Franco Giandana Gigena批評,「一旦資料分享,幾乎不可能完全刪除,控制權即部分喪失。」他指出,健康資料屬高度敏感個資,同意未必足以保障複雜資料共享網路中的權益。電子前線基金會(EFF)法律主任Corynne McSherry更警告,「把最私密健康資訊交給私人公司換取建議,本質高風險—即使加密完美,資料外洩與法律程序(如傳票)仍難避免。」
 
產品安全細節亦引發質疑。公告提及「傳輸與靜態加密」與多因素認證(MFA),卻未明確說明是否端到端加密(E2EE)。Dark Reading詢問後,OpenAI未正面回應,僅重申一般ChatGPT加密與資料控制。Giandana Gigena憂心,「這類AI健康助理市場尚新,其對使用者健康的長期影響未經充分測試,包括依賴性與幻覺導致的潛在危害。」他特別指出,ChatGPT Health未在歐洲經濟區、瑞士與英國上線,疑因GDPR等嚴格規範,顯示保護水準可能因地區而異,「令人擔憂企業對使用者權利與人權承諾。」
 
台灣用戶高度使用ChatGPT,2025年活躍人數逾1200萬,多數人已習慣向AI詢問健康問題。資策會資安中心主任陳怡華表示,「台灣民眾對AI信任度高,常分享敏感健康資料,若幻覺建議誤導,可能延誤就醫或加重病情。」金管會與衛福部2025年已修訂指引,規範AI醫療應用須經臨床驗證,ChatGPT Health雖定位教育輔助,卻易被誤用為診斷工具,違反《醫療法》與《個資法》風險高。
 
資安風險層層疊加。OpenAI雖承諾不以健康資料訓練模型,但提示注入(prompt injection)與資料洩露仍難根除。2025年多起AI洩密事件顯示,LLM易被操縱吐露機密。台灣金融與保險業廣用類似AI客服,若員工誤將客戶健康資料輸入,恐觸法。數位權利團體呼籲,「健康資料上傳前,應三思:便利是否值得失去控制權?」
 
防範建議如下:
  1. 資料最小化:僅上傳必要資訊,避免完整醫療記錄。
  2. 斷開即時:定期檢查並斷開第三方App連線。
  3. 驗證建議:AI健康建議僅參考,務必諮詢醫師。
  4. 強化隱私:啟用MFA與隱私設定;使用本地健康App而非雲端。
  5. 政策監管:數發部與衛福部應評估ChatGPT Health對台灣用戶的隱私風險,考慮是否納入規管。
ChatGPT Health開啟AI健康新紀元,卻伴隨巨大隱憂。OpenAI的加密與隔離承諾雖正面,但資料控制喪失、幻覺危害與地區差異保護,均讓專家憂心。台灣用戶與監管單位,應視此為警訊:AI便利背後,隱私與安全不可妥協。唯有審慎使用與嚴格規範,方能讓健康AI真正造福,而非成隱形風險。
 
 
出處:本新聞參考自Alexander Culafi於2026年1月20日發表於Dark Reading的報導《ChatGPT Health Raises Big Security, Safety Concerns》。