2026年1月1日 星期四

踏入 2026年,新的開始

踏入 2026年,新的開始:

時間過得很快,轉眼間又過了一年!去年 2025也是筆者最少寫 Blog 的一年,主要原因是 2024年初,筆者找到一份工作,工作的性質和原來行業都是同已往是不一樣,所以今年都在忙於應付工作的需要和改變,終於經過了 1年10個月的訓練和修正,現在都算是上手了,公司也給予筆者全權負責管理薪金的工作,總算是過了關。在新的一年第一天(2026年 1月1日)回顧過去的一年和計劃今年,希望可以寫多些好博文(Blog),更希望 2026年世界和平和大家身體健康!

2026年沒有煙花倒數的一年(圖片來源:互聯網)

筆者 2025年的計劃:
  • DIY – ESP8266 繼續研究
  • DIY – FPGA 繼續研究
  • DIY – ESP32 Bluetooth / USB研究
  • DIY – IoT 研究
  • DIY – Android繼續研究
  • DIY – Excel VBA & Python
  • DIY – C++ 繼續研究

筆者回顧過去一年(2025年),在 2025年的計劃中,祇有DIY – Excel VBA & Python有所進步,主要原因是需要使用 Excel 來減輕工作負擔,所以筆者已經學習了 Power Query 來處理重複性高的工作!由於工作忙碌,所以今年的博文(Blog)數量大大減少!在 2025年祇有 17篇,比較 2024年(13篇)多了4篇!2025年網頁瀏覽量是 269,056人次(2025年平均每日人 737次,2024年平均每日 1113人次),累計總瀏覽量 2,006,833人次,希望 2026年能夠持續努力寫博文 (Blog) 和實現目標!

Blogger Bugworkshop 2025年有 269,056 瀏覽人次(總瀏覽2,006,833人次)

Blogger Bugworkshop歷年的博文(Blog)紀錄
BugWorkshop 的 Blog 紀錄:

Year

BSP

Blog

累計 Blog

瀏覽量

累計瀏覽量

2010/2/7

Yahoo

0

0

0

0

2010/12/31

Yahoo

191

191

17906

17906

2011/12/31

Yahoo

311

504

?

?

2012/4/7

Yahoo

4

508

?

161612

2012/4/8

Google

0

0

0

0

2012/12/31

Google

147

655

30932

30932

2013/12/31

Google

152

807

65469

95861

2014/12/31

Google

171

978

84627

180488

2015/1/23

Google

22

1000

5391

185879

2015/12/31

Google

186

1164

85821

266309

2016/12/31

Google

116

1280

141867

408176

2017/12/31

Google

145

1425

143380

551556

2018/12/31

Google

226

1651

133759

685315

2019/12/31

Google

196

1847

136319

821634

2020/12/31

Google

366

2213

129974

951608

2021/12/31

Google

365

2578

142260

1093868

2022/12/31

Google

147

2725

138182

1232050

2023/12/31

Google

62

2787

105318

1337368

2024/12/31

Google

13

2800

406409

1737777

2025/12/31

Google

17

2817

269056

2006833

BSP = Blog Service Provider

Blogger Bugworkshop 2025年的瀏覽人次
Blogger Bugworkshop 2025年的地區瀏覽人次
Blogger Bugworkshop2025年的發表文章瀏覽人次

筆者 2026年的計劃:
  • DIY – ESP8266 繼續研究
  • DIY – FPGA 繼續研究
  • DIY – ESP32 Bluetooth / USB研究
  • DIY – IoT 研究
  • DIY – Android繼續研究
  • DIY – Excel VBA & Python &Power Query
  • DIY – C++ 繼續研究

2026年 1月 1日(Thu)天氣報告
氣溫:35.0°F / 2.0°C @ 07:00
風速:每小時 5公里
降雨機會:02%
相對濕度:百分之 100%
天氣:多雲
※ Happy New Year 新年快樂

2025年12月25日 星期四

Open WebUI Windows 安裝(二)

Open WebUI Windows 安裝(二):

Open WebUI 提供多種安裝方式,包括通過 Python pip 安裝、Docker 安裝、Docker Compose、Kustomize 和 Helm 等。要安裝 Open WebUI,您通常需要先安裝 Ollama,然後使用 Python 的套件管理工具 pip 來安裝 Open WebUI 本身。接著啟動 Open WebUI,透過瀏覽器介面連結 Ollama,並下載您想使用的 AI 模型。

Open WebUI Windows 安裝
安裝前的核心要求:
  1. Python 3.11(必須嚴格使用此版本,更高版本可能不相容)
  2. Node.js 20.x 及以上(用於前端依賴管理)
  3. Ollama 已安裝並運行

如果在之前已經和筆者同樣安裝了 Ollama 和 Docker,這時安裝 Open-Webui 便來得簡單直接,祇需要在 CMD (Run As Adminstarter),然後運行以下 docker 命令以在本地電腦上部署 open-webui docker 容器。如果您的電腦上有 Ollama,請使用以下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

執行 CMD 命令

要連接到另一台伺服器上的 Ollama,請將 OLLAMA_BASE_URL 更改為伺服器的 URL。因此,如果 Ollama 在不同的伺服器上,請使用以下命令:

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

啟動,然後點擊 3000:8000

注意:使用 Docker 安装 Open WebUI 时,请确保在 Docker 命令中包含 -v open-webui:/app/backend/data。此步骤至关重要,因为它确保您的数据库正确安装并防止任何数据丢失。

登录打开 WebUI
安装完成后,您可以通过 http://localhost:3000 访问 Open WebUI。第一次您需要点击“注册”进行注册。

創建新用戶
創建管理員戶口

啟動 Docker,然後點擊 3000:8000,便可以進入 Open-Webui,輸入問題,AI 便會回答你的問題。

啟動,然後點擊 3000:8000
輸入問題
Ollama AI 便會回答你的問題


2025年 12月 25日(Thu)天氣報告
氣溫:41.0°F / 5.0°C @ 07:00
風速:每小時 16公里
降雨機會:0%
相對濕度:百分之 93%
天氣:多雲

2025年12月24日 星期三

Open WebUI 介紹(一)

Open WebUI 介紹(一):

Open WebUI(原名 Ollama WebUI),是一個基於 Web 的使用者介面,可擴展、功能豐富且使用者友善的自架 AI 平臺,設計上可完全離線運作。它支援多種大型語言模型(LLM)運行器,如 Ollama 和相容於 OpenAI 的 API,並內建檢索增強生成(RAG)推理引擎,為 AI 部署提供強大的解決方案
Open WebUI Logo

安裝 Ollama 用 Docker 容器跑比安裝方便,而 Open WebUI 需搭配 Ollama 運行,一次跑兩個容器當然是用 Docker Compose 做成同綁包更省事。
Windows + Ollama + Docker + Open WebU

Open WebUI 的主要功能
  • 輕鬆設定:使用 Docker 或 Kubernetes(kubectl、kustomize或 helm)無縫安裝,輕鬆體驗,並支援 :ollama和 :cuda 標記映射。
  • Ollama / OpenAI API 整合:輕鬆整合相容 OpenAI 的 API,實現與 Ollama 模型的靈活對話。自訂 OpenAI API URL,即可與 LMStudio、GroqCloud、Mistral、OpenRouter 等平臺連接。
  • 精細的權限和使用者群組:透過允許管理員建立詳細的使用者角色和權限,我們確保使用者環境的安全。這種精細的權限設定不僅增強了安全性,還能提供客製化的使用者體驗,培養使用者的主人翁意識和責任感。
  • SCIM 2.0 支援:透過 SCIM 2.0 協定進行企業級使用者和群組配置,實現與 Okta、Azure AD 和 Google Workspace 等身分識別提供者的無縫集成,從而實現自動化的使用者生命週期管理。
  • 響應式設計:在桌上型電腦、筆記型電腦和行動裝置上享受無縫體驗。
  • 行動端漸進式 Web 應用 (PWA):使用我們的 PWA,在您的行動裝置上享受原生應用程式的體驗,提供本地主機離線存取和無縫的使用者介面。
  • 全面支援 Markdown 和 LaTeX:全面的 Markdown 和 LaTeX 功能,提升您的 LLM 體驗,實現更豐富的互動體驗。
  • 免持語音/視訊通話:整合的免持語音和視訊通話功能,帶來無縫通訊體驗,打造更具活力和互動性的聊天環境。
  • 模型建構器:透過 Web 介面輕鬆建立 Ollama 模型。透過 Open WebUI 社群集成,輕鬆建立和新增自訂角色/代理程式、自訂聊天元素以及匯入模型。
  • 原生 Python 函數呼叫工具:工具工作區內建程式碼編輯器支持,增強您的 LLM。只需添加純 Python 函數即可自帶函數 (BYOF),從而實現與 LLM 的無縫整合。
  • 本地 RAG 整合:借助突破性的檢索增強生成 (RAG) 支持,探索聊天互動的未來。此功能將檔互動無縫整合到您的聊天體驗中。您可以將檔直接載入到聊天中,或將檔新增至檔庫,並在查詢前使用 # 指令輕鬆存取它們。
  • RAG 網頁搜尋:使用 SearXNG、Google PSE、Brave Search、serpstack、serper、Serply、DuckDuckGo、TavilySearch、SearchApi 和 Bing 等提供者執行網頁搜索,並將結果直接注入您的聊天體驗。
  • 網頁瀏覽功能:使用 # 指令後跟 URL,即可將網站無縫整合到您的聊天體驗中。此功能可讓您將網頁內容直接融入對話中,增強互動的豐富性和深度。
  • 影像產生整合:使用 AUTOMATIC1111 API 或 ComfyUI(本地)以及 OpenAI 的 DALL-E(外部)等選項,無縫整合影像產生功能,透過動態視覺內容豐富您的聊天體驗。
  • 多模型對話:輕鬆同時與各種模型互動,利用其獨特優勢獲得最佳反應。透過並行利用多種模型來提升您的體驗。
  • 基於角色的存取控制 (RBAC):透過限制權限確保安全存取;只有授權使用者才能存取您的 Ollama,並且只有管理員擁有獨特的模型建立/拉取權限。
  • 多語言支援:借助我們的國際化 (i18n) 支持,您可以用自己喜歡的語言體驗 Open WebUI。
  • Pipelines、Open WebUI 外掛程式支援:使用 Pipelines 外掛程式框架,將自訂邏輯和 Python 程式庫無縫整合到 Open WebUI中。啟動您的 Pipelines 實例,將 OpenAI URL 設定為 Pipelines URL,探索無限可能。例如,函數呼叫、使用者速率限制以控制存取、使用 Langfuse 等工具進行使用情況監控、使用 LibreTranslate 進行即時翻譯以實現多語言支援、惡意訊息過濾等等。
  • 持續更新:我們致力於透過定期更新、修復問題和新功能來改進 Open WebUI。

    2025年 12月 24日(Wed)天氣報告
    氣溫:43.0°F / 6.0°C @ 07:00
    風速:每小時 19公里
    降雨機會:30%
    相對濕度:百分之 90%
    天氣:小雨