Windows 建置運行本地大模型步驟紀錄(Windows+Ollama+qwen3.5)
Windows 建置運行本地大模型步驟紀錄(Windows+Ollama+qwen3.5)
資料來源: https://www.youtube.com/watch?v=rggcjvP2i0Q
https://www.dhzyw.com/archives/7891.html
GITHUB: https://github.com/jash-git/Windows-Ollama-qwen3.5
01.安裝OllamaSetup.exe [下載位置: https://ollama.com/download/windows]
建置環境變數: 變數名稱:OLLAMA_HOST | 變數值:0.0.0.0:11434
重啟Ollama
IPCONFIG 取得本地端地址(EX:192.168.0.178)
在瀏覽器上測試 http://127.0.0.1:11434/ 和 http://192.168.0.178:11434/ 都要看到 『Ollama is running』提示文字
02.下載可用的本地模型 https://ollama.com/search
下載千問3.5: https://ollama.com/library/qwen3.5:4b
使用系統管理者開啟Powershell並用下列命令 『ollama run qwen3.5:4b』 進行安裝
顯卡記憶體4G: 可以使用4B模型
顯卡記憶體8G: 可以使用7B模型
03.然後在Ollama的GUI上選擇對應模型後 就可以進行本地詢問測試大模型
EX: 你是誰
PS.我的NB系統和Ollama系統設定截圖都在對應GITHUB中