Fine-tuning

方式一:Prompt-tuning

什么是Prompt-tuning?

Prompt-tuning通過(guò)修改輸入文本的提示(Prompt)來(lái)引導(dǎo)模型生成符合特定任務(wù)或情境的輸出,而無(wú)需對(duì)模型的全量參數(shù)進(jìn)行微調(diào)。

這種方法利用了預(yù)訓(xùn)練語(yǔ)言模型(PLM)在零樣本或少樣本學(xué)習(xí)中的強(qiáng)大能力,通過(guò)修改輸入提示來(lái)激活模型內(nèi)部的相關(guān)知識(shí)和能力。

Prompt-tuning

Prompt-tuning核心原理:PLM(預(yù)訓(xùn)練模型)不變,W(模型的權(quán)重)不變,X(模型輸入)改變。

Prompt-tuning

Prompt-tuning如何進(jìn)行Prompt-tuning?小模型適配下游任務(wù)設(shè)計(jì)任務(wù)相關(guān)提示模板,并微調(diào)提示嵌入以引導(dǎo)預(yù)訓(xùn)練模型適應(yīng)特定任務(wù)。僅需微調(diào)少量提示嵌入(Prompt Embeddings),而非整個(gè)模型參數(shù)。

Prompt-tuning

  1. 設(shè)計(jì)提示模板:
  2. 準(zhǔn)備數(shù)據(jù)集:
  3. 微調(diào)提示嵌入:

Prompt-tuning

方式二:Prefix-tuning

什么是Prefix-tuning?

Prefix-tuning是Prompt-tuning的一種變體,它通過(guò)在輸入文本前添加一段可學(xué)習(xí)的“前綴”來(lái)指導(dǎo)模型完成任務(wù)。

這個(gè)前綴與輸入序列一起作為注意力機(jī)制的輸入,從而影響模型對(duì)輸入序列的理解和表示。由于前綴是可學(xué)習(xí)的,它可以在微調(diào)過(guò)程中根據(jù)特定任務(wù)進(jìn)行調(diào)整,使得模型能夠更好地適應(yīng)新的領(lǐng)域或任務(wù)。

Prefix-tuning

Prefix-tuning核心原理:PLM(預(yù)訓(xùn)練模型)不變,W(模型的權(quán)重)不變,X(模型輸入)不變,增加W’(前綴嵌入的權(quán)重)。

Prefix-tuning

如何進(jìn)行Prefix-tuning?

在 Transformer 中適配下游任務(wù)

Transformer模型的輸入層或各層輸入前添加可學(xué)習(xí)的前綴嵌入,并通過(guò)訓(xùn)練這些前綴嵌入來(lái)優(yōu)化模型在特定任務(wù)上的表現(xiàn)。

  1. 初始化前綴嵌入
  2. 將前綴嵌入與輸入序列拼接
  3. 訓(xùn)練模型

Prefix-tuning

方式三:LoRA

什么是LoRA?

LoRA(Low-Rank Adaptation)通過(guò)分解預(yù)訓(xùn)練模型中的部分權(quán)重矩陣為低秩矩陣,并僅微調(diào)這些低秩矩陣的少量參數(shù)來(lái)適應(yīng)新任務(wù)。

對(duì)于預(yù)訓(xùn)練權(quán)重矩陣W0∈Rd×d??0∈????×??,LoRa限制了其更新方式,即將全參微調(diào)的增量參數(shù)矩陣ΔWΔ??表示為兩個(gè)參數(shù)量更小的矩陣A、B,即ΔW = AB。

其中,B∈Rd×r??∈????×??和A∈Rr×d??∈????×??為L(zhǎng)oRA低秩適應(yīng)的權(quán)重矩陣,秩r??遠(yuǎn)小于d??。

LoRA

核心原理:W(模型的權(quán)重)不變,X(模型輸入)不變,分解ΔW(分解為兩個(gè)低秩矩陣A、B)。

LoRA

LoRA如何進(jìn)行LoRA微調(diào)?

在凍結(jié)預(yù)訓(xùn)練模型權(quán)重的基礎(chǔ)上,通過(guò)優(yōu)化算法訓(xùn)練低秩矩陣A和B以近似增量參數(shù),最小化下游任務(wù)損失,從而實(shí)現(xiàn)高效的模型微調(diào)。

  1. 設(shè)置LoRA模塊
  2. 訓(xùn)練LoRA模塊

LoRA

LoRALLaMA-Factory通過(guò)集成LoRA微調(diào)方法,為大型語(yǔ)言模型提供高效、低成本的微調(diào)方案,支持多模型、多算法和實(shí)時(shí)監(jiān)控,僅訓(xùn)練低秩矩陣實(shí)現(xiàn)快速適應(yīng)新任務(wù)。

LLaMA-FactoryLoRA參數(shù)主要包括秩(lora_rank,影響性能和訓(xùn)練時(shí)間)、縮放系數(shù)(lora_alpha,確保訓(xùn)練穩(wěn)定)和Dropout系數(shù)(lora_dropout,防止過(guò)擬合),它們共同影響模型微調(diào)的效果和效率。

LLaMA-Factory

1. 秩(Rank)

2. 縮放系數(shù)(Alpha)

3. Dropout系數(shù)

LoRA

參考資料

文章轉(zhuǎn)自微信公眾號(hào)@架構(gòu)師帶你玩轉(zhuǎn)AI

上一篇:

一文徹底搞懂大模型 - RAG(檢索、增強(qiáng)、生成)

下一篇:

一文徹底搞懂大模型 - LLM四階段技術(shù)
#你可能也喜歡這些API文章!

我們有何不同?

API服務(wù)商零注冊(cè)

多API并行試用

數(shù)據(jù)驅(qū)動(dòng)選型,提升決策效率

查看全部API→
??

熱門(mén)場(chǎng)景實(shí)測(cè),選對(duì)API

#AI文本生成大模型API

對(duì)比大模型API的內(nèi)容創(chuàng)意新穎性、情感共鳴力、商業(yè)轉(zhuǎn)化潛力

25個(gè)渠道
一鍵對(duì)比試用API 限時(shí)免費(fèi)

#AI深度推理大模型API

對(duì)比大模型API的邏輯推理準(zhǔn)確性、分析深度、可視化建議合理性

10個(gè)渠道
一鍵對(duì)比試用API 限時(shí)免費(fèi)