Sonatype最新研究警告,當前最先進的「前沿」AI模型(frontier models)在處理軟體相依套件升級、版本推薦與安全修補建議時,經常產生幻覺(hallucination)或錯誤建議,導致企業累積大量技術債務(technical debt)。研究涵蓋2025年6月至8月間,針對Maven Central、npm、PyPI與NuGet四大套件庫的36,870個獨特相依升級推薦,總計分析258,000個由Anthropic、OpenAI與Google七款AI模型產生的建議。結果顯示,即使是最新的GPT-5.2、Claude Sonnet 3.7/4.5、Claude Opus 4.6與Gemini 2.5/3 Pro,仍有明顯失誤比例,對台灣高度仰賴AI輔助開發的科技與金融業構成隱形風險。
Sonatype在2026年《軟體供應鏈狀態報告》第一部分已針對OpenAI GPT-5進行測試,發現近28%的推薦升級版本根本不存在(幻覺)。第二部分研究顯示,雖然新一代模型在推理能力上已有進步,但問題核心不在模型規模,而在「生態系情報」的缺失。AI模型缺乏即時的相依套件、漏洞、相容性與企業政策脈絡,無法做出安全且正確的修補決策。
具體問題包括:
- 即使最佳模型仍有約1/16的推薦是幻覺(虛構版本)。
- 約三分之一情況下,模型建議「無需變更」(no change),看似保守,卻未標記其中隱藏的800至900個高嚴重性與關鍵漏洞,導致這些漏洞持續留在生產環境。
- 更危險的是,模型有時會主動推薦帶有已知漏洞的舊版本,甚至增加AI堆疊本身的風險。Sonatype指出:「這些推薦的函式庫正是用來訓練、微調、編排與部署大型語言模型的工具。AI建議升級AI堆疊時,卻未能避開關鍵漏洞,這種諷刺難以忽視。」
Sonatype共同創辦人兼技術長Brian Fox表示,AI的錯誤建議往往「看似合理」,卻會讓企業在不知不覺中累積技術債務。「最危險的不是明顯錯誤,而是看似可行、卻保留風險、錯過最佳升級路徑的建議。它看起來夠接近,就容易被直接上線。」
研究也顯示,當AI模型被「接地」(grounding)——即在推論時即時接入Sonatype Guide的版本推薦API、漏洞數量、開發者信任分數等真實情報——表現大幅提升。與未接地模型相比,關鍵與高風險漏洞減少近70%。「接地不僅能防止幻覺,還能讓模型在沒有完美選項時,傾向選擇漏洞較少的版本。」
Fox強調,沒有即時套件庫資料、漏洞情報與相容性脈絡,AI就無法做出正確決策。「單純加入人類審核無法根本解決問題,因為系統從一開始就缺少足夠的真實資訊。人類應負責設定政策與限制,而系統必須 grounding 在即時的軟體情報之上。」
對台灣企業的啟示極為重要。台灣科技業與金融機構正積極導入AI輔助開發與DevSecOps流程,許多團隊已習慣讓AI推薦相依套件升級與安全修補。若未導入接地機制與人工審核流程,極可能因AI幻覺導致:
- 引入不存在或帶有漏洞的版本,累積技術債務。
- 錯過關鍵漏洞修補,增加供應鏈攻擊風險。
- 浪費開發時間與AI運算成本。
Sonatype建議台灣企業採取以下具體做法:
- 不要單純依賴AI模型的版本推薦,必須結合即時套件庫與漏洞資料庫進行驗證。
- 建立AI輔助開發的「接地」機制,在推論時注入真實的相依情報與企業政策。
- 所有AI建議的升級與修補必須經過人工審核與自動化測試,特別是生產環境變更。
- 強化CI/CD管線中的相依掃描與SBOM(軟體物料清單)管理,及早發現AI推薦的錯誤版本。
- 定期評估AI模型在相依管理上的幻覺率與風險,選擇支援接地功能的企業級模型。
- 將AI推薦決策納入技術債務管理流程,避免「看似合理」的錯誤建議累積成大問題。
Sonatype報告結論:「AI模型在軟體相依決策上的失誤,正悄然成為開發常態。企業若繼續讓未接地的AI主導升級與修補,將付出高昂的技術債務與安全代價。」
在AI輔助開發快速普及的2026年,台灣企業必須認清:AI是強大助手,但絕非萬能決策者。唯有結合即時情報、人類判斷與嚴格驗證,才能讓AI真正助力而非製造新風險。
出處: 基於Dark Reading文章《AI-Powered Dependency Decisions Introduce, Ignore Security Bugs》,作者Rob Wright,發布日期2026年3月26日;並參考Sonatype 2026《軟體供應鏈狀態報告》、Brian Fox訪談,以及相關AI幻覺與技術債務研究。