AI的突出問題:API安全

作者:jiasheng · 2025-09-22 · 閱讀時間:9分鐘

人工智能正在徹底改變開發領域的各個方面,尤其是在 API 方面。開發人員正在將人工智能應用于從代碼生成到測試和 API 文檔等多個環節。更為重要的是,API 已成為人工智能的神經系統。大型語言模型(LLMs)通過 API 執行多種功能,而大多數 LLM 也可以通過 API 提供服務。然而,這也意味著人工智能系統容易受到常見 API 安全問題的威脅。

網絡安全公司 Wallarm 最近發布了 2024 年的 API ThreatStats 報告,詳細概述了 API 漏洞的現狀。根據報告,LLMs 和 LLM 驅動應用程序的激增導致了 API 威脅的大幅增加。

那么,人工智能帶來了哪些 API 安全風險呢?我們深入分析了 Wallarm 的 ThreatStats 報告,并結合人工智能與 API 安全領域的最新研究成果,幫助確保人工智能及其驅動的產品在安全性上盡可能得到保障。

人工智能的興起如何帶來 API 安全漏洞

隨著人工智能的迅猛發展,API 安全面臨前所未有的風險。人工智能依賴 API 來發送和接收數據,而與此同時,API 的數量也在急劇增加,許多新創建的 API 面向公眾,這為網絡犯罪分子提供了更多的攻擊面。

正如 Wallarm 產品副總裁 Tim Erlin 所說,“API 已成為大多數組織的盲點,而現實是生成式 AI 對 API 的依賴非常大。目前,許多組織面臨著迅速推出支持 AI 和 LLM 平臺的壓力,因此安全最佳實踐常常被忽視。生成式 AI 的快速采用正在迅速擴展 API 的攻擊面,而組織對此幾乎沒有足夠的可見性。AI API 可能會面臨所有其他 API 的常見安全威脅,同時也暴露出 LLM 特有的風險,如提示注入等問題。如今,AI API 的攻擊面正在增加,且幾乎沒有足夠的責任和保障。”

Wallarm 根據與 AI 相關的 API 安全風險,創建了一份網絡安全威脅列表,與 OWASP 前十名類似。以下是 Wallarm 的 ThreatStatsTM Top-10 威脅類型:

  1. 注入攻擊:允許攻擊者執行非預期命令或通過輸入惡意代碼暴露未經授權的數據。
  2. 身份驗證問題:允許繞過身份驗證機制,未授權的用戶可以訪問敏感資源。
  3. 跨站腳本攻擊 (XSS):允許攻擊者從受信任的站點執行惡意腳本。
  4. API 泄露:機密數據通過 API 被意外泄露。
  5. 訪問控制失效:攻擊者能夠訪問超出其權限的數據。
  6. 授權問題:攻擊者能夠修改或提升自己的授權狀態,獲得更多權限。
  7. 不安全的資源消耗:攻擊者利用系統資源消耗的缺乏限制進行攻擊。
  8. 弱加密和秘密管理:不正確或不安全的憑證允許未經授權的訪問。
  9. 會話和密碼管理問題:讓用戶保持登錄狀態,從而暴露賬戶安全。
  10. 服務器端請求偽造 (SSRF):允許攻擊者訪問其他服務的敏感信息。

脆弱的工具帶來脆弱的平臺

即便是一些全球最大的供應商,也可能使用帶來網絡安全風險的第三方工具。諸如 WordPress 插件、Nginx-ui 和 GeoServer 等工具,都已被證明存在 API 安全漏洞。Directus 和 OpenMetadata 也容易受到 API 安全風險的影響。Grafana 和 Superset 同樣存在類似問題。這表明,從大型國際供應商到小型獨立項目,幾乎所有平臺和工具都可能成為 API 安全的隱患。

例如,LLMs(大型語言模型)本身就會帶來許多安全風險。LLMs 的廣泛應用催生了全新的安全威脅,其中之一就是即時注入。OWASP 將即時注入定義為通過精心設計的輸入來操控 LLMs,這可能導致未經授權的訪問、數據泄露和決策錯誤。

正如 Erlin 所言,“即時注入是 SQL 注入在 AI/LLM 環境中的版本。LLMs 是根據特定指令進行設置的,其中一些指令是為了防止敏感數據被不當訪問或泄露。由于 AI/LLM 技術相對較新,許多模型中仍然存在一些易被利用的漏洞,攻擊者可以通過在提示中輸入惡意命令來繞過這些限制,比如輸入‘忽略所有先前的命令’。然后,攻擊者可能請求查看所有用戶的個人身份信息(PII),而 LLM 將忽略原始控制,照常返回并顯示這些數據。”

AI 開發人員并非 API 安全專家

人工智能開發人員并不總是關注他們所使用的 AI 與 API 之間的關系。這種忽視可能導致嚴重的 API 安全漏洞,因為開發人員和 IT 團隊可能無法有效防范不當數據的風險。去年,由于注入攻擊,發生了兩起重大數據泄露事件。

第一個事件涉及 Ray AI,因默認框架配置不當且未設置身份驗證,導致平臺安全出現漏洞,網絡犯罪分子能夠提交任意系統命令,從而泄露憑據。

另一起事件發生在 2024 年 1 月,NVIDIA Triton 推理服務器在 Linux 和 Windows 平臺上也出現了類似的漏洞。該漏洞使得攻擊者可以通過模型加載 API 執行惡意代碼、提升權限或發動拒絕服務攻擊。

正如埃爾林所言,“提高可見性和加強溝通對于彌合安全與開發之間的差距非常關鍵。當安全團隊能夠輕松訪問哪些 AI API 易受攻擊的相關數據,并且能根據風險提供優先級和補救建議時,這有助于簡化跨部門協作。”

“然而,合作只能起到一定作用,”埃爾林強調,“開發人員需要將安全編碼納入他們的工作職責。‘我是開發人員,不是安全人員’應該是尋求幫助的請求,而不是推脫責任的借口。”

AI API 安全風險示例

人工智能所使用的 API 并非總是安全可靠,這意味著有時攻擊者可以繞過授權過程。例如,2024 年 2 月,研究人員發現通過使用 OAuth2 客戶端作為身份驗證方法,攻擊者能夠完全繞過授權流程。其他安全問題則源自訪問控制漏洞,允許惡意行為者訪問不應授權的內容。

Wallarm 的 API ThreatStats 報告在 2024 年第一季度通過三個與人工智能相關的數據泄露案例,警示了 API 安全的嚴峻形勢。固特異和空客等跨國公司的數百萬條數據泄露事件,充分展示了 AI 環境中的 API 安全風險。

ZenML 接管事件

ZenML 接管事件是今年最嚴重的數據泄露事件之一。考慮到攻擊的簡單性及其帶來的重大后果,這一事件也格外引人關注。在此次事件中,攻擊者針對 AI/ML 操作所用的端點進行攻擊,利用現有用戶名和新密碼繞過了安全防護。這一案例清晰地展示了攻擊者如何瞄準 AI 和機器學習相關資源,揭示了由此產生的潛在風險。

NVIDIA AI 平臺漏洞

NVIDIA 是廣泛應用于分布式 AI 服務的平臺,其 AI 系統中的 API 漏洞則暴露出人工智能工具遭受攻擊時可能帶來的嚴重后果。該漏洞允許網絡犯罪分子訪問遠程文件,可能導致災難性后果。被稱為路徑遍歷的這一安全缺陷,可能引發代碼執行、拒絕服務、權限提升、信息泄露及數據篡改等問題。這個漏洞是對未來人工智能工具安全的警示,提醒我們必須加強相關防護。

OAuth2 繞過漏洞

Wallarm 還提到,2024 年的第三起人工智能數據泄露事件涉及身份驗證錯誤。這一事件發生在 Hail 這一基于 Python 的數據分析工具中,攻擊者能夠非法創建賬戶并將其與目標組織的域匹配。該漏洞可能導致創建具有管理權限的 Azure 帳戶。Hail 的 OAuth2 繞過漏洞突顯了完善驗證和授權流程的必要性,同時警示了流行工具在遭受攻擊時可能帶來的安全隱患。

如何提高 AI 的 API 安全性

容易受攻擊的 API 可能會讓組織的各個層面暴露于風險之中。為了應對這一挑戰,采用多層次的網絡安全防護方法至關重要,這能夠有效地減少相關威脅。Wallarm 建議采取持續的漏洞管理、主動防御機制,并在全公司范圍內推廣安全意識文化。

然而,需要注意的是,像 FortiSIEM 和 Grafana 等網絡安全管理工具,雖然被廣泛使用,但它們本身也可能面臨安全漏洞。例如,FortiSIEM 中存在的漏洞允許攻擊者通過其他瀏覽器進行遠程代碼執行,而 Grafana 多年來一直存在安全問題,從跨站點腳本到訪問控制不當等,這種漏洞的存在形成了所謂的“漏洞循環”。也就是說,用于 API 安全的工具本身可能成為新的安全隱患。因此,在選擇和使用這些網絡安全工具時,需要格外謹慎。

某些 API 的安全風險可能帶來嚴重后果,例如刪除整個收件箱等操作。為了確保 AI 的安全性,首先需要識別所有可能導致組織面臨風險的 API。識別之后,可以將這些 API 納入 API 安全工作流程,例如為某些高風險的 API 調用啟用雙因素身份驗證。然而,需要特別注意的是,避免過度授權,因為這可能會引起用戶的不滿并影響使用體驗。

關于人工智能和 API 安全性的最終想法

人工智能的發展勢不可擋,這意味著 API 的使用將變得更加普及。如果不加以注意,這種趨勢可能會帶來嚴重的網絡安全風險。正如 Wallarm 的 Tim Erlin 所指出的,自從發布報告以來,由于 API 安全漏洞,已經發生了更多的數據泄露事件。例如,Ticketmaster 的數據泄露事件暴露了超過 5.6 億個賬戶信息,PandaBuy 數據泄露事件暴露了 130 萬個賬戶,而戴爾的數據泄露則導致 4900 萬用戶的個人信息遭到泄露。

然而,值得慶幸的是,開發人員可以通過采用一些技術手段來減少未來的風險。正如 Erlin 所說:“發現、可見性、主動保護和快速響應能力都是至關重要的。”他還補充道,在生產環境和 CI/CD 流程中實施 API 安全測試,可以在軟件開發生命周期的早期階段推動 API 和應用程序安全的協作性方法。此外,了解與 AI API 安全相關的 OWASP Top 10 風險,也是一個很好的起點。

原文鏈接:AI’s Glaring Problem: API Security