2025年10月31日 星期五

Ollama Windows 安裝(二)

Ollama Windows 安裝(二):

Ollama 的安裝步驟相對簡單。 首先你需要前往 Ollama 的官方網站 下載適用於你操作系統的安裝程式。 下載完成後,執行安裝程式,並依照指示完成安裝。 安裝完成後,你可以開啟終端機或命令提示字元,輸入 ollama --version 來驗證是否安裝成功。

Ollama
1. 下載 Ollama 安裝程式:
  • 前往 Ollama 的官方網站。 https://ollama.com/download
  • 選擇與你操作系統相符的安裝程式(例如 Windows、macOS 或 Linux)並下載。
  • 對於 Windows 用戶,通常會下載 OllamaSetup.exe。

Download Ollama Windows 版本
2. 安裝 Ollama:
  •  下載完成後,雙擊安裝程式,並依照指示完成安裝。

下載完成後,雙擊安裝程式

  • Windows 系統通常會預設安裝到 C:\Users\%username%\AppData\Local\Programs\Ollama。

Ollama Windows 安裝

  • 安裝過程中,Ollama 可能會在右下角出現圖標,此時可以先右鍵點擊「Quit Ollama」退出,以便後續進行環境配置。

Ollama Windows 安裝進行中
Ollama Windows 成功安裝
3. 驗證安裝:
  • 開啟終端機或命令提示字元。
  • 輸入 ollama --version 並按下 Enter 鍵。
  • 如果顯示版本號,則表示 Ollama 安裝成功。

驗證安裝
安裝 LLM
4. (可選)更改模型存放路徑:library https://ollama.com/library
  • Ollama 預設將模型檔案存放在C 盤,如果 C 盤空間不足,可以更改模型存放路徑。
  • 在系統環境變數中,新增一個名為 OLLAMA_MODELS 的變數,並設定為你想要存放模型檔案的路徑。
  • 設定完成後,需要重新啟動 Ollama 才能生效。


5. (可選)關閉開機自啟動:
  • Ollama 預設會隨 Windows 自動啟動,如果不想每次都自動啟動,可以在檔案資源管理器的路徑中,找到 C:\Users\%username%\AppData\Roaming\Microsoft\Windows\Start Menu\Programs\Startup, 並刪除其中的 Ollama.lnk 快捷方式檔。


6. 安裝模型並使用:
  • Ollama 安裝完成後,就可以開始安裝和使用模型了。 具體步驟可以參考官方文檔或者相關教程。

使用 Ollama


Ollama CLI 基本指令:

1、使用方法
  • ollama [flags]:使用標誌(flags)運行 ollama。
  • ollama [command]:運行 ollama 的某個具體命令。

指令

功能

使用方法

serve

啟動Ollama服務,使模型可以運行和交互。

ollama serve

create

使用Modelfile創建一個新模型

ollama create <model_name> -f <Modelfile>

show

顯示特定模型的詳細資訊,如模型名稱、版本等

ollama show <model_name>

run

運行一個已安裝的模型,執行某些任務

ollama run <model_name>

stop

停止一個正在運行的模型

ollama stop <model_name>

list

列出本地所有可用的模型,可以在這裡查找模型名稱

ollama list

pull

從遠端模型倉庫拉取一個模型到本地

ollama pull <model_name>

push

將本地模型推送到遠端模型倉庫,以便他人或其他系統使用

ollama push <model_name>

ps

列出所有正在運行的模型

 

cp

複製一個模型到另一個位置或給定名稱的地方

ollama cp <source_model> <destination_model>

rm

刪除一個已安裝的模型,釋放存儲空間

ollama rm <model_name>

version

顯示當前Ollama工具的版本資訊

ollama -v

ollama --version



總結:
Ollama 的安裝過程相對簡單,只需下載安裝程式並依照指示完成安裝即可。 如果需要,可以更改模型存放路徑,並關閉開機自啟動功能。 安裝完成後,就可以開始使用Ollama 來體驗各種模型了。


2025年 10月 31日(Fri)天氣報告
氣溫:45.0°F / 7.0°C @ 07:00
風速:每小時 10公里
降雨機會:10%
相對濕度:百分之 91%
天氣:多雲

2025年10月30日 星期四

Ollama介紹(一)

Ollama 介紹(一):

Ollama 是由 Meta 公司(原 Facebook 公司)在 2023 年基于 Go 语言开发開發的一個開源、輕量級且高效的大型語言模型(LLM)運行框架,旨在簡化在本地環境中運行和管理大型語言模型的過程。它支援多種開源的大型語言模型,不但可以運行由 Meta(原 Facebook 公司)发布的一系列大型语言模型 Llama(Large Language Model Meta AI),還可以運行其它的 LLM 如 Microsoft Phi-3、Mistral、Gemma、DeepSeek 等等,並且可以支持 macOS、Linux 和 Windows 操作系统。

Ollama

Ollama 的特點與優勢:

  1. 多種預訓練語言模型支援
    •   Ollama提供了多種的預訓練模型,包括常見的 GPT、BERT 等大型語言模型。 用戶可以輕鬆載入並使用這些模型進行文本生成等任務。
  2. 易於集成和使用
    • Ollama提供了命令行工具(CLI)和 Python SDK,簡化了與其他專案和服務的整合。 開發者無需擔心複雜的依賴或配置,可以快速將 Ollama 集成到現有的應用中。
  3. 本地部署與離線使用
    • 不同於一些基於雲的 NLP 服務,Ollama 允許開發者在本地計算環境中運行模型。 這意味著可以脫離對外部伺服器的依賴,保證數據隱私,並且對於高併發的請求,離線部署能提供更低的延遲和更高的可控性。
  4. 支援模型微調與自定義
    • 用戶不僅可以使用 Ollama 提供的預訓練模型,還可以在此基礎上進行模型微調。 根據自己的特定需求,開發者可以使用自己收集的數據對模型進行再訓練,從而優化模型的性能和準確度。
  5. 性能優化
    • Ollama 關注性能,提供了高效的推理機制,支援批量處理,能夠有效管理記憶體和計算資源。 這讓它在處理大規模數據時依然保持高效。
  6. 跨平台支援
    • Ollama 支援在多個操作系統上運行,包括 Windows、macOS 和 Linux。 這樣無論是開發者在本地環境調試,還是企業在生產環境部署,都能得到一致的體驗。
  7. 開放源碼與社區支援
    • Ollama 是一個開源專案,這意味著開發者可以查看原始程式碼,進行修改和優化,也可以參與到專案的貢獻中。 此外,Ollama 有一個活躍的社區,開發者可以從中獲取説明並與其他人交流經驗。
  8. 靈活性與可定制性
    • 用戶可以根據自己的需求自定義模型行為,調整系統提示詞、模型推理溫度、上下文窗口長度等參數。

2025年 10月 30日(Thu)天氣報告
氣溫:45.0°F / 7.0°C @ 07:00
風速:每小時 11公里
降雨機會:10%
相對濕度:百分之 94%
天氣:多雲