linux安裝open webui實踐
在 Linux(Ubuntu、Debian、CentOS 等)上安裝 Open WebUI,可以選擇 Docker 部署(推薦)或 手動安裝(適用于開發(fā))。
方法 1:使用 Docker(推薦)
1. 安裝 Docker
如果你的 Linux 還沒有安裝 Docker,可以運行:
curl -fsSL https://get.docker.com | sudo bash
然后啟動 Docker 并設置開機自啟:
sudo systemctl start docker sudo systemctl enable docker
2. 運行 Open WebUI
執(zhí)行以下命令,拉取并啟動 Open WebUI:
docker run -d --name open-webui -p 3000:3000 -v open-webui-data:/app/data --pull always ghcr.io/open-webui/open-webui:main
-d:后臺運行--name open-webui:容器名稱-p 3000:3000:映射端口(瀏覽器訪問http://服務器IP:3000)-v open-webui-data:/app/data:持久化數據
3. 檢查是否成功運行
docker ps
如果 open-webui 容器正在運行,表示安裝成功。
然后在瀏覽器訪問 http://服務器IP:3000(本地的話就是 http://localhost:3000)。
方法 2:手動安裝(適用于開發(fā))
1. 安裝 Node.js 和 pnpm
curl -fsSL https://deb.nodesource.com/setup_18.x | sudo bash - sudo apt install -y nodejs npm install -g pnpm
2. 克隆 Open WebUI 代碼
git clone https://github.com/open-webui/open-webui.git cd open-webui
3. 安裝依賴
pnpm install
4. 運行 Open WebUI
pnpm dev
然后在瀏覽器訪問 http://服務器IP:3000。
連接 Open WebUI 到 Ollama
如果你想用 Open WebUI 調用 Ollama,需要先安裝 Ollama:
curl -fsSL https://ollama.com/install.sh | sh
然后啟動:
ollama serve
在 Open WebUI 設置里,添加 API 地址:
http://localhost:11434
并指定一個可用的模型,例如 llama3。
總結
- 推薦方式:使用 Docker 部署,簡單快捷
- 適用于開發(fā):手動安裝,適合修改代碼
- 連接 Ollama:確保 Ollama 在
localhost:11434運行
以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關文章
Linux關于Sudo的隱晦bug引發(fā)的一次業(yè)務問題排查
這篇文章主要介紹了Linux關于Sudo的隱晦bug引發(fā)的一次業(yè)務問題排查,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2024-04-04
CentOS6.5環(huán)境下使用rsync增量同步備份文件的方法
這篇文章主要介紹了CentOS6.5環(huán)境下使用rsync增量同步備份文件的方法,結合實例形式分析了rsync進行文件同步備份操作的相關命令與使用技巧,需要的朋友可以參考下2018-04-04
centos下root運行Elasticsearch異常問題解決
這篇文章主要介紹了centos下root運行Elasticsearch異常問題解決的相關資料,Elasticsearch異常問題解決辦法詳細介紹,需要的朋友可以參考下2016-11-11

