數(shù)字化時代讓具備大規(guī)模數(shù)據(jù)處理能力和學(xué)習(xí)能力的AI大模型成為科技領(lǐng)域的熱門話題。對于企業(yè)發(fā)展而言,AI大模型不僅能夠?qū)崿F(xiàn)邏輯理解和內(nèi)容生成等多項(xiàng)功能,還能在一定程度上替代人工完成復(fù)雜任務(wù)。然而,這也帶來了一系列挑戰(zhàn)。首先,大模型對計(jì)算機(jī)資源的需求增加,需要高性能計(jì)算機(jī)和大規(guī)模集群等平臺的支持;其次,需要更大的數(shù)據(jù)存儲空間來存儲海量數(shù)據(jù);再者,大模型需要具備持續(xù)學(xué)習(xí)的能力,并且對信息的整合加工和傳遞提出了更高的要求。
由于大模型的運(yùn)算處理變得更加復(fù)雜,企業(yè)對私有化的重視也日益增加。公用平臺的AI大模型可能存在隱私泄露等風(fēng)險,因此越來越多的企業(yè)傾向于打造專屬化的AI大模型。這種趨勢體現(xiàn)了企業(yè)對數(shù)據(jù)隱私和安全的關(guān)注,同時也能夠滿足企業(yè)對個性化需求和高度定制化服務(wù)的追求。因此,打造專屬化的AI大模型成為當(dāng)前企業(yè)發(fā)展的主要趨勢之一。
可是,AI大模型的研發(fā)難度甚高,企業(yè)不僅要做好前期數(shù)據(jù)的收集與積累,還要訓(xùn)練好整個大模型的運(yùn)行。研發(fā)期間,面臨著方方面面的挑戰(zhàn)。比如對高質(zhì)量數(shù)據(jù)的獲取,以及對算法算力的需求擴(kuò)大,以及企業(yè)如何在保證高效的基礎(chǔ)上,收集到更多高質(zhì)量的數(shù)據(jù)源等。此外,在數(shù)據(jù)運(yùn)行的過程中,大模型的訓(xùn)練數(shù)據(jù)可能受到開發(fā)者的主觀偏見,導(dǎo)致模型研發(fā)的結(jié)果不夠公平公正等。
想要解決這些問題,不妨使用云市場PaaS服務(wù)。
PaaS是一種云計(jì)算的模型,它是一種基于基礎(chǔ)服務(wù)和軟件服務(wù)之間的云端應(yīng)用平臺。按照應(yīng)用領(lǐng)域的不同,可以分成公共PaaS、私有PaaS和混合PaaS。PAAS服務(wù)有著簡化開發(fā)、快速部署和多租戶架構(gòu)等優(yōu)勢。該模型采用云服務(wù)運(yùn)行機(jī)制,云服務(wù)提供商將為開發(fā)者提供基礎(chǔ)的硬件管理、操作系統(tǒng)、數(shù)據(jù)庫等開發(fā)平臺,以便于開發(fā)者將更多時間和經(jīng)歷花費(fèi)在應(yīng)用程序開發(fā)與部署中。
目前科技市場上有多個云平臺支持的大模型創(chuàng)建服務(wù)。但是放眼全球市場,最具備完整性和統(tǒng)一性的供應(yīng)商恐怕還是谷歌云,谷歌云旗下的Google Cloud AI Platform可以幫助訓(xùn)練機(jī)器模型的血腥能力和預(yù)測能力,該平臺直接面向數(shù)據(jù)科學(xué)家、開發(fā)人員等,適用于機(jī)器的學(xué)習(xí),涵蓋了數(shù)據(jù)準(zhǔn)備到模型服務(wù)的全階段。
整個學(xué)習(xí)過程可分為模型開發(fā)、模型部署和推理兩個方面。
模型開發(fā)中,開發(fā)者可以在平臺上進(jìn)行模型訓(xùn)練,并將自主研發(fā)的任意ML框架或算法在AI平臺上運(yùn)行。其中,可自定義的容器消除了傳統(tǒng)云計(jì)算大規(guī)模培訓(xùn)模型中的束縛條件,開發(fā)人員可以按照自身需求,對培訓(xùn)計(jì)劃中使用的框架和工具打包處理容器映像。這大大簡化了開發(fā)人員的訓(xùn)練流程,同時支持?jǐn)?shù)據(jù)集群的分布式訓(xùn)練,加快訓(xùn)練速度。
模型部署和推理中,開發(fā)者可以托管一個訓(xùn)練成功的機(jī)器學(xué)習(xí)模型。期間,AI平臺可以為開發(fā)者提供預(yù)測目標(biāo)值、數(shù)據(jù)相應(yīng)記錄等功能。不過開發(fā)人員還要對數(shù)據(jù)中存在的異常值進(jìn)行分析和檢測。以便于確定數(shù)據(jù)的準(zhǔn)確性,如果準(zhǔn)確性不高,還需要進(jìn)行重新訓(xùn)練。
目前,Cloud AI Platform Prediction可以支持自適應(yīng)和手動調(diào)節(jié)兩種模式。自適應(yīng)意味著無人使用模型時,整個基礎(chǔ)框架能夠自動縮減到0,避免付費(fèi)項(xiàng)目增加;一旦使用量增加起來,那么整個模型將會自動調(diào)試資源配置,滿足開發(fā)人員的使用情況。
手動調(diào)節(jié)則意味著人工設(shè)定參數(shù),可以自由決定整個模型的節(jié)點(diǎn)數(shù)量。好處是可以降低模型的冷啟動延遲,壞處是不夠靈活,需要人工實(shí)時監(jiān)管。
與之形成強(qiáng)烈競爭關(guān)系的是亞馬遜云科技旗下的Amazon SageMaker。Amazon SageMaker是亞馬遜科技平臺研發(fā)的針對企業(yè)的 AI 模型解決方案。相對比 Cloud AI Platform,Amazon SageMaker的應(yīng)用范圍更廣,涵蓋了企業(yè)級機(jī)器、云原生機(jī)器、高性能機(jī)器等的學(xué)習(xí)與應(yīng)用,它提供了自動化的模型調(diào)試功能,可以幫助開發(fā)人員輕松部署機(jī)器學(xué)習(xí)模型。可以說,Google Cloud AI Platform有的,Amazon SageMaker全部都有,還能更上一層樓。
Amazon SageMaker額外提供數(shù)據(jù)標(biāo)注、自動建模、框架支持等功能特性。其本身是基于TensorFlow、PyTorch、MXNet 等框架的學(xué)習(xí)能力,創(chuàng)新性加入了自動化的調(diào)參、特征工程等技術(shù),可以極大程度提高機(jī)器學(xué)習(xí)能力,幫助用戶構(gòu)建與優(yōu)化機(jī)器模型。開發(fā)者僅需一個集成數(shù)據(jù)群,就能完成整個機(jī)器模型從數(shù)據(jù)準(zhǔn)備到數(shù)據(jù)部署監(jiān)控等流程,此外還加入了各種各樣預(yù)構(gòu)建的算法和框架。內(nèi)置AutoGluon-表格、CatBoost、因子分解機(jī)算法等各個算法,可以輔助開發(fā)人員進(jìn)行問題分類與回歸。
當(dāng)然,AI大模型構(gòu)建的過程中,肯定少不了API的幫助。API可以從提供訓(xùn)練所需的數(shù)據(jù),以及幫助開發(fā)者借助不同AI 大模型API組建自己的AI大模型等功能。以下推薦幾款A(yù)PI接口。
1.Falcon文本生成模型(TII)
Falcon是一個自回歸解碼器模型。自回歸解碼器模型指的是模型經(jīng)過訓(xùn)練,可以在給定前一個標(biāo)記的情況下預(yù)測下一個標(biāo)記的序列。
2.Yi-34B文本生成模型(Base Llama)
Yi 模型是由人工智能公司零一萬物(Zero One Infinity)開發(fā)的一款大型預(yù)訓(xùn)練語言模型系列。這個系列模型包含不同參數(shù)量的版本,突破性地實(shí)現(xiàn)了高達(dá) 200K 的上下文窗口長度,這使得模型在處理長文本時能夠更好地捕捉上下文依賴關(guān)系,提高連貫性和準(zhǔn)確性。
3.Fuyu-8B圖像理解模型
這一模型具有 80 億參數(shù),可理解各種圖像類型,包括照片、圖表、PDF 和界面 UI。Fuyu-8B 采用了一種純解碼器 Transformer 架構(gòu),不使用圖像編碼器,支持任意圖像分辨率,表現(xiàn)在多項(xiàng)任務(wù)中優(yōu)于其他大型模型。該模型采用圖像塊直接線性投影到Transformer的第一層,繞過了嵌入查找。這種簡化的架構(gòu)支持任意圖像分辨率,并極大地簡化了訓(xùn)練和推理。
更多AI相關(guān)API,就在API HUB