Table of Contents
這篇只是很單純地記錄分享:
我怎麼在電腦上裝 Ollama、它大概是什麼,以及為什麼我選擇用 gemma3:4b 。
Ollama 是什麼?
Ollama 是一個讓你可以在本機跑大型語言模型的工具。
不用自己管模型格式,不用手動處理推論流程,一行指令就能跑模型
有 API,可以接到自己的 app 或工具
對我來說,它比較像是:「brew + docker 的感覺,但專門給 LLM 用」
如果你只是想在本機 跑模型、測 prompt、接到編輯器或自己的 side project,Ollama 的門檻真的很低。
Ollama 安裝步驟
到 Ollama 官網下載安裝檔,安裝完成後,打開 Terminal
確認是否安裝成功:
ollama --version接著直接拉模型:
ollama run gemma3:4b為什麼選擇 gemma3:4b
效能與資源的平衡
-
4B 參數量對一般筆電還算友善
-
不會一跑就風扇起飛
-
回應速度可接受,實際可用
中文與技術內容表現還不錯
-
寫 code、解釋概念都算穩 (但我不會用它來解決我程式上的問題就是了)
-
中文不是最強,但夠用
我目前主要拿它來:
- 翻譯居多,會搭配 Raycast、Read Frog
Raycast + Ollama
這一段我是參考網路上的教學來設定的,主要是這篇來自 Explainthis
👉 透過 Raycast + Ollama 用快捷鍵免費翻譯任何內容
平常在看獨立文件、PDF,或是一些沒辦法直接複製到翻譯網站的內容時,只要選取文字、按快捷鍵,就可以直接用本地的 Ollama 進行翻譯,不需要來回切換視窗。
這種用法對我來說的價值不在於「翻得多漂亮」,而是:
-
不用離開正在閱讀的畫面
-
不需要把內容貼到線上服務
-
本地跑模型,隱私與即時性都比較安心
最後就會變成一種很自然的使用習慣: 遇到看不懂的段落,就直接按一下快捷鍵。
Read Frog + Ollama
會使用「陪讀蛙」,主要是因為它有沉浸式翻譯功能,並且支援 YouTube 的即時翻譯。 雖然這項功能目前還在 beta 階段,但實際體驗下來,我覺得表現還算穩定,日常使用沒有太大的問題。
👉 配置教學
目前市面上其實已經有不少不錯的翻譯與輔助閱讀工具
- Trancy
- Relingo
- Immersive Translate
- DeepTranslate(Chrome extension)
功能大多都做得很完整,也各有特色,不過實際用了一圈之後,會發現多數進階功能最後還是得付費。
而我目前唯一有付費使用的是 Codex 的服務,而像 Open AI 的 API key 這類型的方案,本身又還無法使用,並不太想為了「只是翻譯或輔助閱讀」這件事,再額外多訂閱好幾個服務。
且 Codex 本身在程式碼上提供給我的幫助就足夠多了。
而 Read Frog 可以直接串接本地的 Ollama,整個問題就剛好被解掉了。