大型語言模型(LLM)的使用在短時間內獲得了巨大的發展。生成式人工智能不僅極大地改變了用戶體驗,也改變了軟件的生產方式。LLM 與應用程序接口(API)搭配,可以輕松集成到各種應用程序中,從而獲得令人印象深刻的人工智能功能。
Akto 公司聯合創始人兼首席執行官安基塔-古普塔(Ankita Gupta)認為,API 是當前人工智能革命的支柱,有助于收集數據、完善和整合這些強大的模型。然而,使用 LLM 時也要考慮 API 的安全風險。最值得注意的是,與 LLM 相關的威脅,如提示注入和數據泄漏,應該成為在擁擠的市場中競爭的人工智能公司的首要考慮因素。
根據我們的經驗,一個組織平均使用大約十個 LLM 模型。這些 LLM 通過 API 間接獲取數據。因此,當我們談論 LLM 時,我們實際上是在談論幫助我們使用和微調這些模型的 API。
開發人員使用應用程序接口(API)將 LLM 功能添加到現有應用程序中,以實現獲取和處理數據等操作。規模是另一個重要方面。我們依靠應用程序接口來確保我們的 LLM 能夠處理越來越多的數據。我們使用 API 來更新和改進 LLM,并將其集成到我們的應用程序工作流程中。基本上,API 是使用、擴展和定制 LLM 模型的方法。
2023 年 3 月 20 日,ChatGPT 出現故障。這次故障是由一個開源庫中的漏洞造成的,該漏洞可能暴露了一些客戶的支付相關信息。2023 年 9 月,Gartner 披露,34% 的企業已經在使用或實施人工智能應用安全工具,以降低伴隨的LLM風險。超過一半(56%)的企業還在探索此類解決方案。
在過去一年中,約 77% 的組織已經接受或正在探索生成式人工智能(GenAI),推動了對簡化和自動化流程的需求。在過去 12個月中,對 GenAI 模型和 LLM(如 ChatGPT)的依賴呈指數級增長,因此這些模型的安全措施的重要性已成為企業的首要任務。
其中一個主要問題是提示注入,即惡意輸入可以操縱 LLM 的輸出。這已成為一個主要問題。其他威脅包括拒絕服務(DoS)威脅,即系統請求過多,導致服務中斷。另一種威脅是過度依賴 LLM 的輸出,而沒有適當的驗證機制,這可能導致數據不準確或者泄漏。
這確實是一項共同的責任!
LLM API 提供商必須確保 API 以安全的方式構建,并符合數據保護法。這包括強大的身份驗證、加密和訪問控制。提供商還應確保應用程序接口能夠處理大量請求,并有適當的速率限制,以避免 DoS 攻擊。
另一方面,消費者有責任根據指南和文檔正確集成 API。除其他事項外,消費者還應確保以安全的方式在 API 中輸入數據。
如果 LLM 應用程序接口沒有得到適當的保護,可能會產生一些負面結果。其中一個主要問題就是客戶數據泄露的風險。試想一下,如果你是一個 LLM 提供商,由于你的 LLM API 存在漏洞,客戶的敏感數據就會暴露。您不會希望出現這種情況。這會嚴重損害您的品牌聲譽。這事關重大,你知道嗎?
此外,如今LLM的競爭越來越激烈,這已經不僅僅是功能性的問題了。安全性正在成為一個關鍵因素,尤其是當你的消費者是企業時。因此,如果您想在這個擁擠的市場中脫穎而出,就必須優先考慮 LLM API 的安全性。這已經不再是一個 “不錯 “的條件,而是必須具備的條件。
原文鏈接:LLM Security Hinges on API Security