
使用這些基本 REST API 最佳實踐構建出色的 API
Fine-tuning
什么是Prompt-tuning?
Prompt-tuning通過修改輸入文本的提示(Prompt)來引導模型生成符合特定任務或情境的輸出,而無需對模型的全量參數進行微調。
這種方法利用了預訓練語言模型(PLM)在零樣本或少樣本學習中的強大能力,通過修改輸入提示來激活模型內部的相關知識和能力。
Prompt-tuning
Prompt-tuning核心原理:PLM(預訓練模型)不變,W(模型的權重)不變,X(模型輸入)改變。
Prompt-tuning
Prompt-tuning如何進行Prompt-tuning?小模型適配下游任務設計任務相關提示模板,并微調提示嵌入以引導預訓練模型適應特定任務。僅需微調少量提示嵌入(Prompt Embeddings),而非整個模型參數。
Prompt-tuning
Prompt-tuning
什么是Prefix-tuning?
Prefix-tuning是Prompt-tuning的一種變體,它通過在輸入文本前添加一段可學習的“前綴”來指導模型完成任務。
這個前綴與輸入序列一起作為注意力機制的輸入,從而影響模型對輸入序列的理解和表示。由于前綴是可學習的,它可以在微調過程中根據特定任務進行調整,使得模型能夠更好地適應新的領域或任務。
Prefix-tuning
Prefix-tuning核心原理:PLM(預訓練模型)不變,W(模型的權重)不變,X(模型輸入)不變,增加W’(前綴嵌入的權重)。
Prefix-tuning
如何進行Prefix-tuning?
在 Transformer 中適配下游任務
在Transformer模型的輸入層或各層輸入前添加可學習的前綴嵌入,并通過訓練這些前綴嵌入來優化模型在特定任務上的表現。
Prefix-tuning
什么是LoRA?
LoRA(Low-Rank Adaptation)通過分解預訓練模型中的部分權重矩陣為低秩矩陣,并僅微調這些低秩矩陣的少量參數來適應新任務。
對于預訓練權重矩陣W0∈Rd×d??0∈????×??,LoRa限制了其更新方式,即將全參微調的增量參數矩陣ΔWΔ??表示為兩個參數量更小的矩陣A、B,即ΔW = AB。
其中,B∈Rd×r??∈????×??和A∈Rr×d??∈????×??為LoRA低秩適應的權重矩陣,秩r??遠小于d??。
LoRA
核心原理:W(模型的權重)不變,X(模型輸入)不變,分解ΔW(分解為兩個低秩矩陣A、B)。
LoRA
LoRA如何進行LoRA微調?
在凍結預訓練模型權重的基礎上,通過優化算法訓練低秩矩陣A和B以近似增量參數,最小化下游任務損失,從而實現高效的模型微調。
LoRA
LoRALLaMA-Factory通過集成LoRA微調方法,為大型語言模型提供高效、低成本的微調方案,支持多模型、多算法和實時監控,僅訓練低秩矩陣實現快速適應新任務。
LLaMA-FactoryLoRA參數主要包括秩(lora_rank,影響性能和訓練時間)、縮放系數(lora_alpha,確保訓練穩定)和Dropout系數(lora_dropout,防止過擬合),它們共同影響模型微調的效果和效率。
LLaMA-Factory
1. 秩(Rank)
lora_rank
2. 縮放系數(Alpha)
lora_alpha
3. Dropout系數
lora_dropout
LoRA
文章轉自微信公眾號@架構師帶你玩轉AI