電腦沒有大顯存GPU的朋友,推薦安裝1.5b尺寸,這版尺寸普通電腦無GPU的都能流暢運行,延時幾乎在1-2秒,更為關(guān)鍵的是,DeepSeek-r1之所以爆出圈有一個重要原因,小尺寸模型回答質(zhì)量也很高,即便1.5b如此小的參數(shù)尺寸亦如此。

簡單再介紹下DeepSeek-R1。它回復(fù)問題主要包括兩部分:思考(Thinking)和 Answer(正式回答),在每次正式回答前,會有一個很長的思考鏈。之前的大模型在小尺寸參數(shù)(如1.5b)回復(fù)Token有些簡短,質(zhì)量一般,但是這次DeepSeek-r1:1.5b解決了回復(fù)Token數(shù)過短,效果不好的難題:

以上就是為什么這樣選型和搭建的原因,接下來介紹逐步詳細搭建步驟。

3 詳細搭建步驟

搭建步驟之前寫過一篇,當(dāng)時有個關(guān)鍵步驟拉下了,再加上r1又剛出來,所以我再重新梳理一遍,這次盡量做到步驟足夠細致,盡量讓完全未接觸編程的朋友也可復(fù)現(xiàn)。

第一步,安裝Pycharm社區(qū)版,完全免費,下載地址在我的公眾號后臺回復(fù):Pycharm,即可獲取。下載后基本都是下一步,在此不再贅述。

第二步,下載ollama并安裝deepseek-r1:1.5b,在我的公眾號后臺回復(fù)ollama,獲取ollama軟件,下載安裝后打開軟件,輸入ollama list可以看到我現(xiàn)在安裝了三個本地大模型,其中包括r1:1.5b,剛安裝ollama現(xiàn)在執(zhí)行這條命令應(yīng)該是空的:

接下來執(zhí)行一條命令:ollama pull deepseek-r1:1.5b,就能直接下載它到自己的電腦,如下所示,

下載完就安裝好了,比較方便。

接下來就可以愉快的接入到PyCharm 了。

第三步,DeepSeek-r1:1.5b接入到PyCharm。首先下載插件:CodeGPT,打開第一步安裝的PyCharm,找到文件(File)-設(shè)置(Settings)-插件(Plugins),輸入CodeGPT,即可點擊安裝(Install)即可:

安裝后在工具(Tools)下會出現(xiàn)CodeGPT,點擊Providers,找到Ollama(Local),對應(yīng)下圖數(shù)字2,再到3這里選擇剛剛安裝的deepseek-r1:1.5b,點擊OK就可以了:

下面就可以愉快的在PyCharm中使用DeepSeek-r1加速編程學(xué)習(xí)了,左側(cè)是代碼編輯界面,右側(cè)是r1大模型,直接對話式提問,省去了來回不同頁面折騰的麻煩:

大家再感受DeepSeek-r1:1.5b大模型的回復(fù)延時,幾乎1秒鐘響應(yīng),本人電腦是pro-m1,這響應(yīng)速度可以了。再看看回答效果,因為公眾號文章的GIF幀數(shù)有限制,我只截取了前6幀,無任何加速,全部是延時播放速度,展示下效果:

CodeGPT插件顯示了Tokens數(shù),有些朋友擔(dān)心這是不是在計費?不是的!只是一個數(shù)字統(tǒng)計,無任何費用,因為使用的是本地自己電腦的算力。

另外,CodeGPT應(yīng)該是目前大模型+編程UI做的最好的插件了,感興趣的朋友可以根據(jù)此篇文章以上三個步驟安裝試試。

最后總結(jié)一下

本地運行大模型:免費、便捷、適合個人知識管理與編程學(xué)習(xí)。

選型推薦:deepseek-r1:1.5b + PyCharm社區(qū)版 + CodeGPT插件。

在 PyCharm 右側(cè)直接對話 DeepSeek-R1,快速輔助編程。

幾乎 1-2秒響應(yīng),完全本地快速運行,無額外費用。

文章轉(zhuǎn)載自:DeepSeek接入Python,一般電腦也能飛速跑,確實可以封神了!

上一篇:

Manus替代品OpenManus:無需邀請碼

下一篇:

利用DeepSeek大模型在個人電腦上搭建個人知識庫
#你可能也喜歡這些API文章!

我們有何不同?

API服務(wù)商零注冊

多API并行試用

數(shù)據(jù)驅(qū)動選型,提升決策效率

查看全部API→
??

熱門場景實測,選對API

#AI文本生成大模型API

對比大模型API的內(nèi)容創(chuàng)意新穎性、情感共鳴力、商業(yè)轉(zhuǎn)化潛力

25個渠道
一鍵對比試用API 限時免費

#AI深度推理大模型API

對比大模型API的邏輯推理準(zhǔn)確性、分析深度、可視化建議合理性

10個渠道
一鍵對比試用API 限時免費