DeepSeek R1最全本地部署教程 適用于Mac/Windows/Linux平臺(tái)
說(shuō)到本地部署大模型,就不得不提到 Ollama。Ollama 是一個(gè)開(kāi)源項(xiàng)目,旨在簡(jiǎn)化大語(yǔ)言模型(LLM)在本地環(huán)境中的部署和使用。它為用戶(hù)提供了一個(gè)簡(jiǎn)單易用的接口,使得即使沒(méi)有深厚技術(shù)背景的用戶(hù)也能輕松地在自己的設(shè)備上運(yùn)行和管理大模型。本篇文章將以部署國(guó)產(chǎn)最新崛起的 AI 大模型 DeepSeek R1 為例,手把手教你如何利用 Ollama 在本地環(huán)境中快速搭建和運(yùn)行這些先進(jìn)的 AI 模型。
一、DeepSeek R1 簡(jiǎn)介
DeepSeek R1 是一款開(kāi)源 AI 模型,其性能可與 OpenAI 的 GPT-4 和 Claude 3.5 Sonnet 等頂級(jí)模型媲美,尤其在數(shù)學(xué)、編程和推理等任務(wù)上表現(xiàn)出色。最重要的是,它是免費(fèi)、私密的,可以在本地硬件上離線(xiàn)運(yùn)行。
DeepSeek R1 提供多個(gè)參數(shù)規(guī)模的版本,從輕量級(jí)的 1.5B 參數(shù)模型到高性能的 70B 版本。它基于 Qwen 7B 架構(gòu)的精簡(jiǎn)優(yōu)化版本,既保持強(qiáng)大性能,又具備更高的計(jì)算效率。
其主要亮點(diǎn)包括:
- 完全開(kāi)源,可自由使用。
- 支持本地運(yùn)行,無(wú)需依賴(lài)云服務(wù)器。
- 數(shù)據(jù)完全可控,確保隱私安全。

二、為什么選擇本地部署?
本地運(yùn)行 AI 模型有以下優(yōu)勢(shì):
- 隱私保障:所有數(shù)據(jù)均存儲(chǔ)在本地,避免敏感信息泄露。
- 零額外成本:DeepSeek R1 免費(fèi)運(yùn)行,無(wú)需訂閱或額外費(fèi)用。
- 完全控制:可以進(jìn)行微調(diào)和本地優(yōu)化,無(wú)需外部依賴(lài)。
三、硬件要求

四、安裝步驟

步驟 1:安裝 Ollama
Ollama 是一款本地 AI 運(yùn)行工具,可幫助用戶(hù)輕松運(yùn)行 DeepSeek R1。
下載地址:https://ollama.com/download
安裝完成后,Ollama 提供了在終端直接運(yùn)行 AI 模型的功能。
Ollama 簡(jiǎn)介
Ollama 是一個(gè)專(zhuān)注于簡(jiǎn)化大語(yǔ)言模型(LLM)本地部署的開(kāi)源工具。它的設(shè)計(jì)目標(biāo)是讓用戶(hù)能夠以最少的配置和操作,輕松在本地設(shè)備上運(yùn)行和管理各種大模型。無(wú)論是開(kāi)發(fā)者、研究者,還是普通用戶(hù),都可以通過(guò) Ollama 快速體驗(yàn)大語(yǔ)言模型的強(qiáng)大能力,而無(wú)需依賴(lài)云端服務(wù)或復(fù)雜的部署流程。
Ollama 核心特點(diǎn)
- 開(kāi)箱即用:提供了預(yù)配置的模型包,用戶(hù)只需通過(guò)簡(jiǎn)單的命令即可下載和運(yùn)行模型,無(wú)需手動(dòng)配置環(huán)境或處理復(fù)雜的依賴(lài)關(guān)系。
- 跨平臺(tái)支持:支持 Windows、macOS 和 Linux 系統(tǒng),覆蓋了大多數(shù)主流操作系統(tǒng),滿(mǎn)足不同用戶(hù)的需求。
- 模型管理:用戶(hù)可以輕松管理多個(gè)模型版本,包括下載、更新和切換模型。它還支持自定義模型配置。
- 資源優(yōu)化:針對(duì)本地硬件進(jìn)行了優(yōu)化,能夠在有限的資源下高效運(yùn)行大模型。無(wú)論是高性能 GPU 還是普通 CPU,都能流暢的體驗(yàn)。
- 開(kāi)發(fā)者友好:提供了豐富的 API 和詳細(xì)的文檔,方便開(kāi)發(fā)者將其集成到自己的應(yīng)用中,或者進(jìn)行二次開(kāi)發(fā)。
Ollama 的適用場(chǎng)景
- 個(gè)人學(xué)習(xí)與研究:非常適合個(gè)人用戶(hù)在自己的電腦上探索大語(yǔ)言模型的能力,無(wú)需依賴(lài)云端服務(wù)。
- 本地開(kāi)發(fā)與測(cè)試:開(kāi)發(fā)者可以利用 Ollama 在本地快速測(cè)試和調(diào)試基于大模型的應(yīng)用,提升開(kāi)發(fā)效率。
- 隱私保護(hù):由于模型完全運(yùn)行在本地,Ollama 特別適合對(duì)數(shù)據(jù)隱私有較高要求的場(chǎng)景,例如醫(yī)療、金融等領(lǐng)域。
Ollama 安裝
Ollama 的安裝也特別的簡(jiǎn)單,基本上只需要鼠標(biāo)點(diǎn)點(diǎn)點(diǎn)即可,以下是具體的安裝步驟:
1、打開(kāi) Ollama 官網(wǎng):https://ollama.com/download,根據(jù)自己的操作系統(tǒng)下載不同的安裝程序包。

2、下載完成后,雙開(kāi)打開(kāi)點(diǎn)擊 “install” 即可,然后就是耐心等待幾分鐘。


3、經(jīng)過(guò)了幾分鐘,你可能發(fā)現(xiàn)安裝的界面不見(jiàn)了,不要慌這是正常的。接下來(lái)就是打開(kāi) CMD 命令窗口 (通過(guò) Win + R 鍵可打開(kāi));
當(dāng)出現(xiàn)運(yùn)行窗口時(shí),輸入 cmd 點(diǎn)擊確定即可,在命令窗口中再輸入 ollama 如果輸出結(jié)果跟我一樣,那就表示成功安裝了。


這里輸出的是 ollama 命令的用法的,具體如下:
用法: ollama [flags] ollama [命令] 可用命令: serve 啟動(dòng) ollama create 從 Modelfile 創(chuàng)建模型 show 顯示模型信息 run 運(yùn)行模型 stop 停止正在運(yùn)行的模型 pull 從注冊(cè)表拉取模型 push 將模型推送到注冊(cè)表 list 列出模型 ps 列出正在運(yùn)行的模型 cp 復(fù)制模型 rm 刪除模型 help 獲取命令幫助 標(biāo)志: -h, --help 顯示幫助信息 -v, --version 顯示版本信息 使用 "ollama [命令] --help" 獲取有關(guān)命令的更多信息。
Open - Webui 安裝
什么是 Open WebUI ?
Open WebUI 是一個(gè)開(kāi)源的、基于 Web 的用戶(hù)界面(UI)框架,專(zhuān)為與大語(yǔ)言模型(LLM)交互而設(shè)計(jì)。它提供了一個(gè)直觀、友好的圖形界面,使用戶(hù)能夠通過(guò)瀏覽器輕松地與本地或遠(yuǎn)程部署的大語(yǔ)言模型進(jìn)行交互,而無(wú)需依賴(lài)復(fù)雜的命令行工具。Open WebUI 支持多種功能,包括聊天、模型管理、歷史記錄查看等,極大地提升了用戶(hù)的使用體驗(yàn)。
為什么將 Open WebUI 與 Ollama 結(jié)合使用?
Ollama主要是通過(guò)命令進(jìn)行操作,對(duì)于不熟悉命令行的用戶(hù)來(lái)說(shuō)可能不夠友好。而 Open WebUI 正好彌補(bǔ)了這一不足,它為用戶(hù)提供了一個(gè)直觀的圖形界面,使得與 Ollama 部署的模型交互變得更加簡(jiǎn)單和高效。
Open - Webui 安裝
Open - Webui 提供了多種安裝方式,這里我用的是 Python pip。
如果你還沒(méi)有安裝 Python,可以查看下面這篇安裝教程。注意:請(qǐng)確保安裝的是 Python 3.11 版本避免兼容性問(wèn)題。
Python安裝教程:https://blog.csdn.net/Palpitate_2024/article/details/145406375?spm=1001.2014.3001.5501
通過(guò) Python pip 安裝
打開(kāi) CMD 命令窗口,執(zhí)行以下命令即可安裝。
pip install open-webui
安裝完成后,執(zhí)行以下命令即可運(yùn)行。
open-webui serve
這將啟動(dòng) Open WebUI 服務(wù)器,可以通過(guò) http://localhost:8080 進(jìn)行訪(fǎng)問(wèn);首次啟動(dòng)后,需要注冊(cè)一個(gè)管理賬號(hào);點(diǎn)擊注冊(cè)即可。

模型下載 - 兩種方式
- 您應(yīng)該至少有 8 GB 的 RAM 來(lái)運(yùn)行 7B 模型,16 GB 的 RAM 來(lái)運(yùn)行 13B 模型,32 GB 的 RAM 來(lái)運(yùn)行 33B 模型。
- 您應(yīng)該至少有 8 GB 的 RAM 來(lái)運(yùn)行 7B 模型,16 GB 的 RAM 來(lái)運(yùn)行 13B 模型,32 GB 的 RAM 來(lái)運(yùn)行 33B 模型。
- 您應(yīng)該至少有 8 GB 的 RAM 來(lái)運(yùn)行 7B 模型,16 GB 的 RAM 來(lái)運(yùn)行 13B 模型,32 GB 的 RAM 來(lái)運(yùn)行 33B 模型。
5.1 直接使用 Ollama 下載
打開(kāi) Ollama 模型列表:https://ollama.com/search

在模型列表中,找到我們要下載的 Deep Seek -r1;
當(dāng)然這里的模型都是可以下載的,比如千問(wèn),Gemma 2,Llama 3.3等,下載方法都是一樣的。

這里我要安裝的是 14B,選擇好下載的模型后復(fù)制右邊的安命令到 Cmd 中執(zhí)行即可。
這里安裝的時(shí)間取決于網(wǎng)速,耐心等待即可;安裝完成后,我們?cè)偃?open webui 刷新一下就可以愉快的玩耍了。

5.2 使用 Open Webui 下載
打開(kāi) Open Webui 后,在模型搜索處輸入需要下載的模型名稱(chēng)以及模型型號(hào)即可。
這里我的以千問(wèn)的 2.5 7 B大模型為例,在搜索框輸入需要下載的模型點(diǎn)擊 從"Ollama.com" 拉取即可。



步驟 2:下載 DeepSeek R1 模型
在終端中運(yùn)行以下命令,根據(jù)你的硬件選擇合適的模型:
# 下載 1.5B 版本(適用于 CPU 及低配 GPU) ollama run deepseek-r1:1.5b # 下載 8B 版本 ollama run deepseek-r1:8b # 下載 14B 版本 ollama run deepseek-r1:14b # 下載 32B 版本 ollama run deepseek-r1:32b # 下載 70B 版本(最高性能) ollama run deepseek-r1:70b
如果你不確定選擇哪個(gè)版本,可以運(yùn)行默認(rèn)指令:
ollama run deepseek-r1
默認(rèn)情況下,該指令會(huì)下載 7B 版本。
模型下載速度取決于網(wǎng)絡(luò)狀況,可能需要幾分鐘到幾十分鐘不等。

步驟 3:安裝 Chatbox(可選)
為了獲得更好的交互體驗(yàn),可以安裝 Chatbox 作為 GUI 界面。
下載地址:https://chatboxai.app/en#
安裝完成后,進(jìn)行以下配置:
- 在“配置 API 模型”選項(xiàng)中選擇 Ollama API。
- 設(shè)置 API 主機(jī)為:http://127.0.0.1:11434
- 選擇 DeepSeek R1 作為默認(rèn)模型。
- 保存設(shè)置。
五、功能演示
成功安裝后,你可以測(cè)試 DeepSeek R1 的能力。例如,讓它生成一個(gè)用 Python 編寫(xiě)的貪吃蛇游戲代碼。
輸入 Prompt:
幫我用python寫(xiě)個(gè)貪吃蛇的游戲
示例代碼(優(yōu)化修正版本):
import turtle
import time
import random
# 窗口設(shè)置
window = turtle.Screen()
window.title("貪吃蛇 by Python")
window.bgcolor("black")
window.setup(width=600, height=600)
window.tracer(0) # 關(guān)閉自動(dòng)刷新
# 蛇頭
snake_head = turtle.Turtle()
snake_head.speed(0)
snake_head.shape("square")
snake_head.color("white")
snake_head.penup()
snake_head.goto(0, 0)
snake_head.direction = "stop"
# 食物
food = turtle.Turtle()
food.speed(0)
food.shape("circle")
food.color("red")
food.penup()
food.goto(0, 100)
segments = [] # 蛇身體段
score = 0 # 得分
# 得分顯示
pen = turtle.Turtle()
pen.speed(0)
pen.color("white")
pen.penup()
pen.hideturtle()
pen.goto(0, 260)
pen.write("得分: 0", align="center", font=("Arial", 24, "normal"))
# 移動(dòng)函數(shù)
def move():
if snake_head.direction == "up":
y = snake_head.ycor()
snake_head.sety(y + 20)
if snake_head.direction == "down":
y = snake_head.ycor()
snake_head.sety(y - 20)
if snake_head.direction == "left":
x = snake_head.xcor()
snake_head.setx(x - 20)
if snake_head.direction == "right":
x = snake_head.xcor()
snake_head.setx(x + 20)
# 方向控制函數(shù)
def go_up():
if snake_head.direction != "down":
snake_head.direction = "up"
def go_down():
if snake_head.direction != "up":
snake_head.direction = "down"
def go_left():
if snake_head.direction != "right":
snake_head.direction = "left"
def go_right():
if snake_head.direction != "left":
snake_head.direction = "right"
# 鍵盤(pán)綁定
window.listen()
window.onkeypress(go_up, "w")
window.onkeypress(go_down, "s")
window.onkeypress(go_left, "a")
window.onkeypress(go_right, "d")
# 碰撞檢測(cè)
def check_collision():
# 邊界檢測(cè)
if snake_head.xcor() > 290 or snake_head.xcor() < -290:
return True
if snake_head.ycor() > 290 or snake_head.ycor() < -290:
return True
# 身體碰撞檢測(cè)
for segment in segments:
if snake_head.distance(segment) < 20:
return True
return False
# 主游戲循環(huán)
while True:
window.update()
# 檢查是否吃到食物
if snake_head.distance(food) < 20:
# 移動(dòng)食物到隨機(jī)位置
x = random.randint(-290, 290)
y = random.randint(-290, 290)
food.goto(x, y)
# 增加身體段
new_segment = turtle.Turtle()
new_segment.speed(0)
new_segment.shape("square")
new_segment.color("grey")
new_segment.penup()
segments.append(new_segment)
# 增加得分
score += 10
pen.clear()
pen.write(f"得分: {score}", align="center", font=("Arial", 24, "normal"))
# 移動(dòng)身體段(從后往前)
for index in range(len(segments)-1, 0, -1):
x = segments[index-1].xcor()
y = segments[index-1].ycor()
segments[index].goto(x, y)
# 移動(dòng)第一個(gè)身體段到頭部位置
if len(segments) > 0:
x = snake_head.xcor()
y = snake_head.ycor()
segments[0].goto(x, y)
move()
# 碰撞檢測(cè)
if check_collision():
time.sleep(1)
snake_head.goto(0, 0)
snake_head.direction = "stop"
# 隱藏身體段
for segment in segments:
segment.goto(1000, 1000)
segments.clear()
score = 0
pen.clear()
pen.write(f"得分: {score}", align="center", font=("Arial", 24, "normal"))
time.sleep(0.1)運(yùn)行這個(gè)程序前需要確保:
- 已安裝 Python 環(huán)境
- 需要安裝 `turtle` 模塊(通常 Python 標(biāo)準(zhǔn)庫(kù)自帶)
操作說(shuō)明:
- W鍵:向上移動(dòng)
- S鍵:向下移動(dòng)
- A鍵:向左移動(dòng)
- D鍵:向右移動(dòng)
- 吃到紅色食物會(huì)增長(zhǎng)身體并加分
- 撞到墻壁或自己身體會(huì)游戲重置
游戲特點(diǎn):
- 簡(jiǎn)單的圖形界面
- 分?jǐn)?shù)統(tǒng)計(jì)功能
- 碰撞檢測(cè)
- 蛇身自動(dòng)增長(zhǎng)機(jī)制
- 游戲失敗重置功能
你可以根據(jù)需求進(jìn)一步添加以下功能:
- 添加開(kāi)始/暫停按鈕
- 增加難度等級(jí)
- 記錄最高分
- 添加音效
- 設(shè)計(jì)更復(fù)雜的關(guān)卡
六、總結(jié)
通過(guò)本教程,你已經(jīng)成功在本地部署了 DeepSeek R1,無(wú)論你是 AI 愛(ài)好者、開(kāi)發(fā)者,還是僅僅對(duì)本地 AI 感興趣,都可以嘗試運(yùn)行并訓(xùn)練自己的專(zhuān)屬 AI 資料庫(kù)。
借助 Ollama 和 Chatbox 等工具,本地運(yùn)行 AI 變得更加簡(jiǎn)單和高效。現(xiàn)在就開(kāi)始探索吧!
相關(guān)文章

如何實(shí)現(xiàn)deepseek本地部署?詳細(xì)教學(xué)deepseek本地環(huán)境搭建及設(shè)置
本文將詳細(xì)介紹deepseek本地部署的完整步驟,包括從環(huán)境配置到軟件安裝的全程指南,我們將細(xì)節(jié)和注意點(diǎn)做了介紹,確保你能夠在短時(shí)間內(nèi)完成高效、安全的配置,快速啟動(dòng)Deep2025-02-04
本地部署DeepSeek-R1聯(lián)網(wǎng) 超簡(jiǎn)單的DeepSeek離線(xiàn)部署聯(lián)網(wǎng)搜索教程
DeepSeek是近日熱門(mén)的AI大型語(yǔ)言模型,目前可實(shí)現(xiàn)本地部署版本,那么DeepSeek本地部署后如何實(shí)現(xiàn)聯(lián)網(wǎng)?這里要給大家介紹一個(gè)插件,簡(jiǎn)單快速部署deepseek-r1本地,無(wú)需網(wǎng)絡(luò)2025-02-06
過(guò)年這幾天,DeepSeek 算是徹底破圈了,火遍大江南北,火到人盡皆知,有不少讀者私信詢(xún)問(wèn)本地部署DeepSeek-R1的電腦配置要求,下面我們就一起看看DeepSeek每個(gè)版本的配置要2025-02-07
本文將通過(guò)圖文結(jié)合的方式,詳細(xì)介紹 DeepSeek 的安裝、配置、基本使用、高級(jí)功能以及實(shí)用技巧,幫助你快速上手并掌握這一工具2025-02-08
全新DeepSeek R1 本地部署詳細(xì)圖文教程 支持Web-UI 可以斷網(wǎng)使用(附下
DeepSeek全球下載榜單登頂,因?yàn)樘^(guò)火爆了,導(dǎo)致DeepSeek這段時(shí)間用的時(shí)候幾乎天天崩潰,經(jīng)常出現(xiàn)“服務(wù)器繁忙,請(qǐng)稍后再試”的情況,這里為大家?guī)?lái)DeepSeek R1本地部署2025-02-07
DeepSeek服務(wù)器繁忙怎么解決?手把手教你本地連接DeepSeek R1告別不響
近期DeepSeek經(jīng)常出現(xiàn)服務(wù)器繁忙,請(qǐng)稍后再試的情況,那么DeepSeek服務(wù)器繁忙怎么解決呢?本文手把手教你本地連接DeepSeek R1,告別不響應(yīng),一起來(lái)看看吧2025-02-07
看到滿(mǎn)血版價(jià)格想想還是算了! 本地部署 DeepSeek 電腦硬件配置清單
針對(duì)本地部署DeepSeek大模型的配置需求,需根據(jù)模型規(guī)模(如7B/13B/70B參數(shù))和量化方案進(jìn)行區(qū)分,以下是三個(gè)層級(jí)的硬件配置建議2025-02-09
不會(huì)用DeepSeek?建議收藏這20個(gè)神級(jí)操作指令!
如果你是內(nèi)容創(chuàng)作者,或者在數(shù)字營(yíng)銷(xiāo)、數(shù)據(jù)分析等領(lǐng)域工作,提升工作效率和創(chuàng)作水平是必不可少的,而掌握一些強(qiáng)大的創(chuàng)作指令,無(wú)疑能讓你事半功倍!今天,我整理了20個(gè)Deep2025-02-09
DeepSeek R1 671B 完整版本地部署詳盡教程來(lái)了!
關(guān)于本地部署,大多數(shù)人使用的是蒸餾后的8B/32B/70B版本,本質(zhì)是微調(diào)后的Llama或Qwen模型,并不能完全發(fā)揮出DeepSeek R1的實(shí)力,下面我們就來(lái)看看DeepSeek R1 671B 完整版2025-02-09
DeepSeek-R1 與 AnythingLLM 安裝部署本地知識(shí)庫(kù)詳細(xì)教程
DeepSeek R1是目前最火的大模型,近來(lái)有很多朋友問(wèn)怎么搭建DeepSeek 本地知識(shí)庫(kù),在這里分享一種使用DeepSeek + AnythingLLM快速搭建本地知識(shí)庫(kù)的方法,完全本地化,懶人必2025-02-20








