Windows 建置運行本地大模型步驟紀錄(Windows+Ollama+qwen3.5)

Windows 建置運行本地大模型步驟紀錄(Windows+Ollama+qwen3.5)

Windows 建置運行本地大模型步驟紀錄(Windows+Ollama+qwen3.5)


資料來源: https://www.youtube.com/watch?v=rggcjvP2i0Q

https://www.dhzyw.com/archives/7891.html


GITHUB: https://github.com/jash-git/Windows-Ollama-qwen3.5


01.安裝OllamaSetup.exe [下載位置: https://ollama.com/download/windows]

    建置環境變數: 變數名稱:OLLAMA_HOST | 變數值:0.0.0.0:11434
    重啟Ollama
    IPCONFIG 取得本地端地址(EX:192.168.0.178)
    在瀏覽器上測試 http://127.0.0.1:11434/ 和 http://192.168.0.178:11434/  都要看到 『Ollama is running』提示文字


02.下載可用的本地模型 https://ollama.com/search

    下載千問3.5: https://ollama.com/library/qwen3.5:4b
        使用系統管理者開啟Powershell並用下列命令 『ollama run qwen3.5:4b』    進行安裝
            顯卡記憶體4G: 可以使用4B模型
            顯卡記憶體8G: 可以使用7B模型
            


03.然後在Ollama的GUI上選擇對應模型後 就可以進行本地詢問測試大模型

    EX: 你是誰
    


PS.我的NB系統和Ollama系統設定截圖都在對應GITHUB中

發表迴響

你的電子郵件位址並不會被公開。 必要欄位標記為 *