鍵.png)
使用這些基本 REST API 最佳實(shí)踐構(gòu)建出色的 API
梯度下降
機(jī)器學(xué)習(xí)“三板斧”:選擇模型家族,定義損失函數(shù)量化預(yù)測(cè)誤差,通過優(yōu)化算法找到最小化損失的最優(yōu)模型參數(shù)。
機(jī)器學(xué)習(xí) vs?人類學(xué)習(xí)
梯度下降的本質(zhì):用于求解機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中的最優(yōu)化問題。
梯度下降的基本思想是從一個(gè)初始點(diǎn)出發(fā),沿著損失函數(shù)的負(fù)梯度方向不斷更新參數(shù),直到達(dá)到一個(gè)局部最小值或者全局最小值。
梯度下降的基本思想
在梯度下降中,利用方向?qū)?shù)的最小值(即梯度的反方向)來更新參數(shù),從而逼近函數(shù)的最小值。
方向?qū)?shù):在梯度下降算法中,方向?qū)?shù)用于確定函數(shù)值下降的最快方向。
方向?qū)?shù)
梯度(Gradient):在梯度下降算法中,梯度提供了函數(shù)下降的方向和速度信息。
梯度
批量梯度下降(BGD):在每次迭代中,批量梯度下降使用整個(gè)數(shù)據(jù)集來計(jì)算損失函數(shù)的梯度,并根據(jù)這個(gè)梯度來更新模型的所有參數(shù)。
批量梯度下降(BGD)
隨機(jī)梯度下降(SGD):與批量梯度下降不同,隨機(jī)梯度下降在每次迭代中僅隨機(jī)選擇一個(gè)樣本來計(jì)算損失函數(shù)的梯度,并根據(jù)這個(gè)梯度來更新模型的一個(gè)或多個(gè)參數(shù)。
隨機(jī)梯度下降(SGD)
優(yōu)點(diǎn):
缺點(diǎn):
本文章轉(zhuǎn)載微信公眾號(hào)@架構(gòu)師帶你玩轉(zhuǎn)AI
對(duì)比大模型API的內(nèi)容創(chuàng)意新穎性、情感共鳴力、商業(yè)轉(zhuǎn)化潛力
一鍵對(duì)比試用API 限時(shí)免費(fèi)