這兩天大家都被DeepSeek炸暈了吧,嘿嘿,其實DeepSeek也被大家炸暈了。
這是今天上午的情況↓
沒辦法,這潑天的流量一般人扛不住~
想高頻使用怎么辦呢?本地裝一個!
本地部署有兩個好處:?不聯網,全私密,不擔心隱私泄露,還可以掛載本地知識庫?完全免費,徹底告別“服務器繁忙”。
如果你是蘋果Mac本——
我們需要用到兩個神器:
一個叫做Ollama,這是一個可以在本地運行和管理大模型的軟件。
另一個叫做Page Assist,這是個瀏覽器插件,提供本地大模型的圖形化管理和對話界面。
一、下載Ollama,并拉取安裝DeepSeek
Ollama是一個可以在本地運行和管理大模型的神器,完全本地運行,而且支持多種模型,包括但不限于Llama、DeepSeek、Qwen、Gemma等等。
登錄網站,直接去下載頁:
https://ollama.com/download
直接下載macOS版本的程序,其實從上圖你可以發現,Linux和Windows也是OK(這個咱后面再講)。
下載后是一個壓縮包,二話不說,直接解壓,你會得到一個“草泥馬”頭像的程序
這個程序可以直接點擊運行,但是建議你拖到「應用程序」目錄下,便于用的時候以后好找。
好了,接下來直接運行Ollama,然后進入到終端窗口↓
接下來運行命令,拉取對應版本的模型即可。
目前DeepSeek-R1可選的模型有滿血版671B,和蒸餾版1.5B、7B、8B、14B、32B、70B:
滿血版個人電腦就別想了,其他蒸餾版大家根據電腦配置來選。
如果只是玩玩的話,建議不要選擇太大的,14B以下的嘗嘗鮮。
Mac配置高的話,比如64G以上的內存,可以嘗試32B或者70B,畢竟參數越大,模型智商越高。
我的電腦是96G內存,所以今天挑戰一下70B版本,運行命令↓
ollamarundeepseek-r1:70B
前面命令都一樣,后面輸入對應的模型參數即可
激動人心的時刻開始了,70B的模型有42G那么大,我這里的網絡需要下載大概40分鐘。
不急,泡杯咖啡慢慢等~
經過一番漫長的等待,42GB的大模型終于拉取完畢,并安裝成功(不知道為啥,最后3%的網速會非常慢,只有幾百K,據說很多人和我一樣。)
安裝成功的界面是這樣的↓
在這個命令行下,就可以直接使用DeepSeek了↓
提問就可以,在兩個之間是推理過程,也就是收到問題以后,DeepSeek的內心戲↓
完成推理后,DeepSeek就開始輸出正題:一段詼諧幽默的自我介紹↓
怎么樣,這個回答還不錯吧。
如果你覺得這個命令行界面跟玩文字mud似的,太土鱉了,沒關系,接下來我們安裝第二個神器,也就是Page Assist。
二、安裝Page Assist,開始享用DeepSeek
Page Assist是一款Chrome瀏覽器插件,所以,你只需要打開Chrome,點擊右上角“三個點”,然后“擴展程序”、“訪問Chrome應用商店”。
然后在應用商店中搜索“Page Assist”,第一個就是,點擊安裝即可。
安裝完成后,在瀏覽器右上角這個位置,點開就可以找到,可以用釘住,方便以后隨時打開使用
點擊圖標就可以打開UI界面,怎么樣,是不是界面舒服多了,可以選擇對應的模型,然后開始提問了。
用法跟在線版的沒啥區別。
點擊模型下拉框,可以查看已經安裝的模型,我之前已經安裝了14B,剛剛又裝好了70B。
點擊右上角的齒輪,可以進行基礎設置,比如更改語言、語音(默認都是英文,可以修改為簡體中文)。
還可以更改默認搜索引擎,讓大模型在推理的同時,開啟聯網搜索功能。
還可以添加本地知識庫,讓DeepSeek更具備個性化和專屬性。
至此,萬事具備,讓我們來體驗一下70B的本地DeepSeek,到底聰明不聰明?
先小試牛刀↓
接下來,我讓它給IT技術從業者提出10點建議。
你來評評,它說的怎么樣?
單單運行了這么點東西,我的本子散熱風扇已經開始嗚嗚作響了。
看來想要運行70B的模型,我這臺mac還是有點小馬拉大車了。
如果你是Windows PC——
對應下載Windows版本的Ollama即可,其實安裝過程大差不差。
只是Windows版本的安裝程序比Mac版大多了。
安裝完成后,同樣打開命令行窗口,拉取對應的模型↓
這次我們低調一點,拉取最小的1.5B模型(我是虛擬機,跑不動太大的。)
模型尺寸小還是好,瞬間搞定↓
簡單調戲一下,不得不說,參數量小的模型就是蠢,只能當玩具。
接下來,可以繼續安裝Page Assist,進行圖形化管理和對話,我就不重復了。
如果你用的是Linux——
我們在Ubantu 22下玩一玩。(其實玩Linux的人不需要看教程)
打開shell,直接運行命令↓
curl -fsSL https://ollama.com/install.sh | sh
就可以完成Ollama的下載和安裝
后面拉取和運行模型的步驟就一樣了,不再贅述。
如果你想用iPhone或安卓機——
其實,在手機上跑一個DeepSeek 1.5B也是可以的,只是這樣干完全沒有必要。
首先,1.5B模型太小太弱智,基本沒什么用;第二,運行這個模型太燒機了。
所以如果不是非常特殊的用途,我建議你完全可以去用市面上各種流行的大模型助手:豆包、通義、元寶、文小言、訊飛星火、Kimi…
讓他們賽馬,你來翻牌子,既節省資源,效率還高。
好啦,教程就分享到這里。
最后講講大家關注的電腦配置問題,其實我測試下來感覺配置要求其實不高,丐版電腦你就裝小尺寸,豪版電腦你就裝大尺寸。
當然從模型的可用性來講,我建議至少24G以上的內存,運行14B以上的模型,如果有獨立的N卡A卡更好,沒有的話CPU跑跑也沒關系。
大家也可以分別拉取不同尺寸的模型來測試(因為很簡單),達到性能和體驗的平衡。
現在趕緊行動起來,在你的電腦上裝個DeepSeek吧,從此告別“服務器繁忙,請稍后再試”!
那么,如果是企業想要在本地部署一個DeepSeek,甚至是滿血版的,應該怎么辦呢?我們下回分解
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.