2025年12月25日 星期四

Open WebUI Windows 安裝(二)

Open WebUI Windows 安裝(二):

Open WebUI 提供多種安裝方式,包括通過 Python pip 安裝、Docker 安裝、Docker Compose、Kustomize 和 Helm 等。要安裝 Open WebUI,您通常需要先安裝 Ollama,然後使用 Python 的套件管理工具 pip 來安裝 Open WebUI 本身。接著啟動 Open WebUI,透過瀏覽器介面連結 Ollama,並下載您想使用的 AI 模型。

Open WebUI Windows 安裝
安裝前的核心要求:
  1. Python 3.11(必須嚴格使用此版本,更高版本可能不相容)
  2. Node.js 20.x 及以上(用於前端依賴管理)
  3. Ollama 已安裝並運行

如果在之前已經和筆者同樣安裝了 Ollama 和 Docker,這時安裝 Open-Webui 便來得簡單直接,祇需要在 CMD (Run As Adminstarter),然後運行以下 docker 命令以在本地電腦上部署 open-webui docker 容器。如果您的電腦上有 Ollama,請使用以下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

執行 CMD 命令

要連接到另一台伺服器上的 Ollama,請將 OLLAMA_BASE_URL 更改為伺服器的 URL。因此,如果 Ollama 在不同的伺服器上,請使用以下命令:

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

啟動,然後點擊 3000:8000

注意:使用 Docker 安装 Open WebUI 时,请确保在 Docker 命令中包含 -v open-webui:/app/backend/data。此步骤至关重要,因为它确保您的数据库正确安装并防止任何数据丢失。

登录打开 WebUI
安装完成后,您可以通过 http://localhost:3000 访问 Open WebUI。第一次您需要点击“注册”进行注册。

創建新用戶
創建管理員戶口

啟動 Docker,然後點擊 3000:8000,便可以進入 Open-Webui,輸入問題,AI 便會回答你的問題。

啟動,然後點擊 3000:8000
輸入問題
Ollama AI 便會回答你的問題


2025年 12月 25日(Thu)天氣報告
氣溫:41.0°F / 5.0°C @ 07:00
風速:每小時 16公里
降雨機會:0%
相對濕度:百分之 93%
天氣:多雲

2025年12月24日 星期三

Open WebUI 介紹(一)

Open WebUI 介紹(一):

Open WebUI(原名 Ollama WebUI),是一個基於 Web 的使用者介面,可擴展、功能豐富且使用者友善的自架 AI 平臺,設計上可完全離線運作。它支援多種大型語言模型(LLM)運行器,如 Ollama 和相容於 OpenAI 的 API,並內建檢索增強生成(RAG)推理引擎,為 AI 部署提供強大的解決方案
Open WebUI Logo

安裝 Ollama 用 Docker 容器跑比安裝方便,而 Open WebUI 需搭配 Ollama 運行,一次跑兩個容器當然是用 Docker Compose 做成同綁包更省事。
Windows + Ollama + Docker + Open WebU

Open WebUI 的主要功能
  • 輕鬆設定:使用 Docker 或 Kubernetes(kubectl、kustomize或 helm)無縫安裝,輕鬆體驗,並支援 :ollama和 :cuda 標記映射。
  • Ollama / OpenAI API 整合:輕鬆整合相容 OpenAI 的 API,實現與 Ollama 模型的靈活對話。自訂 OpenAI API URL,即可與 LMStudio、GroqCloud、Mistral、OpenRouter 等平臺連接。
  • 精細的權限和使用者群組:透過允許管理員建立詳細的使用者角色和權限,我們確保使用者環境的安全。這種精細的權限設定不僅增強了安全性,還能提供客製化的使用者體驗,培養使用者的主人翁意識和責任感。
  • SCIM 2.0 支援:透過 SCIM 2.0 協定進行企業級使用者和群組配置,實現與 Okta、Azure AD 和 Google Workspace 等身分識別提供者的無縫集成,從而實現自動化的使用者生命週期管理。
  • 響應式設計:在桌上型電腦、筆記型電腦和行動裝置上享受無縫體驗。
  • 行動端漸進式 Web 應用 (PWA):使用我們的 PWA,在您的行動裝置上享受原生應用程式的體驗,提供本地主機離線存取和無縫的使用者介面。
  • 全面支援 Markdown 和 LaTeX:全面的 Markdown 和 LaTeX 功能,提升您的 LLM 體驗,實現更豐富的互動體驗。
  • 免持語音/視訊通話:整合的免持語音和視訊通話功能,帶來無縫通訊體驗,打造更具活力和互動性的聊天環境。
  • 模型建構器:透過 Web 介面輕鬆建立 Ollama 模型。透過 Open WebUI 社群集成,輕鬆建立和新增自訂角色/代理程式、自訂聊天元素以及匯入模型。
  • 原生 Python 函數呼叫工具:工具工作區內建程式碼編輯器支持,增強您的 LLM。只需添加純 Python 函數即可自帶函數 (BYOF),從而實現與 LLM 的無縫整合。
  • 本地 RAG 整合:借助突破性的檢索增強生成 (RAG) 支持,探索聊天互動的未來。此功能將檔互動無縫整合到您的聊天體驗中。您可以將檔直接載入到聊天中,或將檔新增至檔庫,並在查詢前使用 # 指令輕鬆存取它們。
  • RAG 網頁搜尋:使用 SearXNG、Google PSE、Brave Search、serpstack、serper、Serply、DuckDuckGo、TavilySearch、SearchApi 和 Bing 等提供者執行網頁搜索,並將結果直接注入您的聊天體驗。
  • 網頁瀏覽功能:使用 # 指令後跟 URL,即可將網站無縫整合到您的聊天體驗中。此功能可讓您將網頁內容直接融入對話中,增強互動的豐富性和深度。
  • 影像產生整合:使用 AUTOMATIC1111 API 或 ComfyUI(本地)以及 OpenAI 的 DALL-E(外部)等選項,無縫整合影像產生功能,透過動態視覺內容豐富您的聊天體驗。
  • 多模型對話:輕鬆同時與各種模型互動,利用其獨特優勢獲得最佳反應。透過並行利用多種模型來提升您的體驗。
  • 基於角色的存取控制 (RBAC):透過限制權限確保安全存取;只有授權使用者才能存取您的 Ollama,並且只有管理員擁有獨特的模型建立/拉取權限。
  • 多語言支援:借助我們的國際化 (i18n) 支持,您可以用自己喜歡的語言體驗 Open WebUI。
  • Pipelines、Open WebUI 外掛程式支援:使用 Pipelines 外掛程式框架,將自訂邏輯和 Python 程式庫無縫整合到 Open WebUI中。啟動您的 Pipelines 實例,將 OpenAI URL 設定為 Pipelines URL,探索無限可能。例如,函數呼叫、使用者速率限制以控制存取、使用 Langfuse 等工具進行使用情況監控、使用 LibreTranslate 進行即時翻譯以實現多語言支援、惡意訊息過濾等等。
  • 持續更新:我們致力於透過定期更新、修復問題和新功能來改進 Open WebUI。

    2025年 12月 24日(Wed)天氣報告
    氣溫:43.0°F / 6.0°C @ 07:00
    風速:每小時 19公里
    降雨機會:30%
    相對濕度:百分之 90%
    天氣:小雨