
使用這些基本 REST API 最佳實踐構建出色的 API
圖1 圖大模型所需特征圖示
縮放定律表明,大語言模型(LLM)的性能隨著模型大小、數據集大小和訓練計算量的增加而持續優化。這為提升模型捕捉圖數據中復雜模式和關系的能力提供了方向。圖大模型有望展現出較小模型所缺乏的新興能力,但實現這一目標面臨諸多困難,包括收集更多圖數據、解決技術難題(如解決圖神經網絡的過平滑和過壓縮問題)以及工程和系統挑戰。
圖大模型在處理跨不同領域的不同圖任務時具有更大價值,需要理解圖的內在結構和屬性。圖預訓練范式是開發圖基礎模型的有前途途徑,可以減少對標簽收集的依賴,并賦予模型生成圖形的能力,為藥物合成、代碼建模和網絡進化分析等應用提供可能性。然而,為所有圖領域開發“通用圖模型”極具挑戰性,可能需要為不同“領域集群”開發多個圖基礎模型。
有效的圖大模型可理解圖上下文,包括節點、邊、子圖和整個圖,并能處理新穎的圖數據集和任務,無需密集的模型修改。這種能力與少樣本/零樣本圖學習、多任務圖學習和圖分布外泛化能力密切相關,可促進這些能力。當訓練和測試階段的輸入圖數據和任務不同時,上下文學習能力至關重要,可使圖大模型利用預訓練知識,快速適應測試階段并獲得所需性能。
圖推理是處理圖任務的常見方法,但具體任務沒有明確共識。包括分析拓撲屬性(規模、節點度、連通性),多跳鄰域推理(靈活明確),處理全局屬性和模式(節點中心性、位置、整體屬性、動態圖演化)。
大語言模型(LLM)作為基礎模型,可以適應廣泛的下游任務,因為它們共享一個通用的表示基礎。然而,圖數據可能不總是最適合處理所有圖數據的表示基礎。人們普遍認為,存在更多高級或抽象的常見圖模式,可以在特定領域內的不同圖和任務之間共享。盡管有了這些高級共享知識,創建能夠在不同圖領域表現良好的有效大模型仍然具有挑戰性。
大模型具備與人類互動并遵循指令的能力,但人類處理圖表能力較差。為使大模型行為符合人類期望,特別是在自然語言情況下,我們總結了三種值得探索的策略以實現自然語言與圖模型的交互。第一種是通過對齊圖和文本的表征空間,但數據收集更具挑戰性。第二種是將圖轉化為自然語言,但可能會丟失圖的內部結構。第三種是通過其它表征空間作為橋梁,例如設計合適的算法來解決圖任務,并理解和控制圖學習模型的運行狀態。已有一些努力,稱為算法推理(algorithmic reasoning),具有巨大潛力。
大模型的成功依賴于大規模高質量數據集,例如GPT-3在5000億個token的語料庫上預訓練,而CLIP在4億個圖像文本對上訓練。NLP和CV的大量數據來自公開的人類生成內容,如網頁或社交媒體照片。大規模圖形數據不易訪問,通常有兩種場景:大量小規模圖和單個/幾個大規模圖。Open Graph Benchmark是最具代表性的圖機器學習公共基準之一,包含兩個大型圖數據集,但規模遠低于NLP或CV中使用的數據集。創建更專業的圖學習基準可以進一步促進圖大模型的進展。
以下為收集更多圖數據時有用的原則:
綜上,圖大模型的開發高度依賴高質量圖數據,收集難度大且成本高。因此社區的全員協作可能是推動這一進程的關鍵因素。
圖神經網絡(GNN)和Graph Transformer是兩種最主流的圖深度學習架構。GNN采用消息傳遞范式,已廣泛研究,但模型容量有限。圖Transformer擴展了Transformer,以適應圖數據,最成功的例子是Graphormer,在OGB大規模挑戰賽中排名第一。GNN和圖Transformer之間的主要區別在于結構編碼策略和自注意力機制。具體可以從以下4個方面進行對比:
GNN和圖Transformer在圖大模型中取得了顯著進展,考慮到現有圖數據集的規模,GNN仍然是一個強大的架構模型,但隨著訓練圖數據集規模的不斷增加,圖Transformer可能會通過增加參數數量變得更加強大,并逐漸成為主流方法。
圖預訓練是NLP中一種在特定任務前訓練模型的方法,目的是捕獲數據中的一般模式或知識。它包括對比方法和預測/生成方法,利用圖中結構和語義信息引入借口學習任務,訓練模型學習節點、邊緣或圖級表示,無需依賴標簽。圖預訓練被認為是圖大模型的基本范例。
可以用“四-E”原則總結圖預訓練:
LLMs需要后處理增強對下游任務的適應能力,代表性的后處理技術包括提示、高效參數微調、利用人類反饋的強化學習以及模型壓縮。
提示最初用于指導語言模型生成下游任務內容。語言提示和上下文學習模板在LLMs中表現出顯著效果,圖形提示通過有限標簽增強任務性能。GPPT和GraphPrompt將圖任務統一為邊緣預測,ProG采用元學習來學習不同任務的提示。
高效參數微調是一種僅優化部分模型參數的技術,有助于模型適應新任務而不遺忘預訓練知識,同時保留一般能力和特定任務適應性。圖高效參數微調近期受到關注,如AdapterGNN和G-Adapter,通過合并適配器調整GNN,減少可調整參數數量,保持精度。S2PGNN提出搜索架構修改以提高微調階段的適應性。
模型壓縮通過知識蒸餾、剪枝和量化等技術減少模型內存和計算需求,在資源受限環境中部署大模型時特別有價值。量化在LLMs中廣受歡迎,訓練后量化(PTQ)無需重新訓練。SGQuant探索了圖學習中的PTQ,提出了多粒度量化技術。其他方法如Degree-Quant、BiFeat、Tango、VQGraph、A2Q和AdaQP采用量化感知訓練方案,在后處理階段獨立使用。
最近的研究探索了利用LLMs解決圖形任務的潛力。其基本思想是將圖數據轉換為自然語言表示,將圖問題視為常規NLP問題。NLGraph評估了GPT-3和GPT-4等LLM在八個自然語言圖推理任務的表現,發現法學碩士在處理更復雜的圖形問題時困難,可能捕獲虛假相關性。同時,GPT4Graph評估了LLM在十個不同任務中的圖理解能力,揭示了LLM在圖推理方面的局限性,強調增強結構理解能力。LLMtoGraph測試了GPT-3.5和GPT-4對各種圖形任務的表現,并做出了一些有趣的觀察。
Graph-LLM 通過兩種策略研究了 LLM 在文本屬性圖中的利用,包括 LLM-as-Enhancers 和 LLM-as-Predictor。InstructGLM 引入了可擴展的提示,以描述 LLM 指令調整的圖結構和特征。實驗證明了采用 LLM 進行圖機器學習的巨大潛力。
表 1總結了與 LLM 相關的不同模型的圖模型(文末可獲取原論文)
推薦系統中的圖數據可以包括用戶和物品的互動,如點擊、購買、評論等。現有語言大模型主要關注語義信息,而利用圖的結構信息可以提高推薦效果。然而,推薦系統中的圖通常是多模態的,包括文本、圖像、交互等多種數據。由于多模態大模型尚未成熟,需要付出巨大努力來開發有效的圖大模型以用于推薦系統。
知識圖譜廣泛應用于存儲和利用人類知識,大型語言模型被用于各種知識圖譜任務。然而,現有方法主要關注文本信息,未充分挖掘知識圖譜的結構和關系信息。圖大模型結合大型語言模型,有望進一步推動知識圖譜的研究和應用。
構建有效的分子圖模型可以推動分子性質預測和模擬,有利于藥物發現。一些LLM變體使用SMILES將分子轉化為字符串,但圖作為更自然的表示方式具有建模優勢。針對分子開發了許多基于圖的預訓練技術,包括多模態策略。收集分子數據相對容易,因此期待基于圖或增強的分子建模大模型。
圖機器學習在金融領域具有廣泛應用,如股票走勢預測和貸款風險預測。圖大模型在金融領域具有巨大潛力,但金融數據的敏感性和私密性限制了模型的開源和民主化。需要推動開源倡議和民主化,以充分發揮圖大模型在金融領域的潛力。
大語言模型如CodeX、AlphaCode和GPT-4具備理解和生成代碼的能力,可從GitHub等平臺獲取大量代碼數據。圖提供了表示代碼結構的方式,整合圖可提高大型語言模型的表現,在編程領域產生重大影響,具有廣泛的應用價值,包括代碼補全和生成、代碼搜索、代碼審查、程序分析和測試等。
圖機器學習在城市計算和交通等領域有廣泛應用,如交通預測、城市規劃和管理、犯罪預測等。雖然已有基于大語言模型的大模型用于城市計算和交通,但主要關注自然語言相關應用。為更廣泛利用,需要開發圖大模型,其技術挑戰在于捕捉動態圖數據和復雜空間-時間模式。
圖機器學習已在多個領域廣泛應用,包括工業(故障診斷、物聯網、電力系統、時間序列分析)和科學(物理學、組合優化、材料科學、神經科學)。探索圖大模型具有巨大潛力。
《 Graph Meets LLMs:Towards Large Graph Models》
文章轉自微信公眾號@算法進階