在 DotAI 團隊,AI 工具已是每日工作必備。我們撰寫 AI 教案、社群內容、簡報、整理會議記錄,全靠 ChatGPT、Claude、Midjourney 等工具協助生成、改寫與翻譯。這些工具雖然好用,但月費不便宜,平均每月開支接近港幣一萬元,長期而言是一筆可觀負擔
兩年前,我們試過以家用電腦嘗試本地部署 8B 模型,但效果差強人意:反應慢、錯字多、不如 ChatGPT 3.5。隨著雲端工具愈來愈貴,我們開始思考:如果有夠力的硬體,本地部署會否真正可行?

DotrAI 首次成功實測 AI 本地部署模型
直到最近,HP® 惠普香港邀請我們 DotAI 實測旗下新款 AI 電腦 HP Z2 Mini G1a 桌面工作站,終於給我們一個用高階配置試本地部署的機會。
這部 AI 電腦雖然體積小巧,卻配備工作站等級硬件:AMD Ryzen AI MAX PRO 處理器提供尖端 CPU 效能、可擴至 128GB RAM、雙 M.2 插槽、整合式 GPU 最多可分配 96GB 作 VRAM 使用,效能媲美2張高端顯示卡,足以運行大型語言模型。我們實測成功部署 DeepSeek 70B 模型,處理繁中指令、翻譯與內容生成表現穩定流暢。
這次實測,讓我們確認一件事:當硬體配合得宜,AI 本地部署確實已具備實戰可行性。

DeepSeek 本地部署攻略:將 GPT-4o級數 AI 模型免費帶回公司
在眾多開源模型中,我們之所以對 DeepSeek 情有獨鍾,並直接挑戰最高規格的 70B 版本,主要基於以下幾個關鍵考量:
📌 1. 性能接近 GPT-4o,計算資源要求卻少一截
DeepSeek R1 在 MMLU、HumanEval 等主流評測上得分媲美 GPT-4o,甚至部分任務已接近 Claude 3 的水平,但實際部署資源只需 GPT-4 的一半(同樣是 70B,但已壓縮調校過)。在我們的 Z2 Mini G1a 測試環境下,使用 GGUF 量化版本,可以順利在 64GB RAM + 32GB VRAM 環境穩定運行。
📌 2. 優化繁體中文表現,回應自然流暢
雖然不少開源模型對繁體中文仍有理解斷層,但 DeepSeek R1 因內部含有大量繁中語料與指令微調訓練,日常問答、摘要改寫、語意分析的表現都比以往試過的 Mistral、Yi 系列更自然、準確。即使是比較進階的內容整理指令,也不容易出現錯字或語病。
📌 3. 開源可控、私隱保障
團隊資料處理時最擔心的,是資料經雲端 API 外洩風險。我們過往用 Claude Pro 處理客戶文件,總會有資料外傳的顧慮。今次轉用 DeepSeek 本地部署,就完全不用擔心資料進出外部伺服器。重要內部筆記、PPT 草稿、教案原始文件,都能在電腦上直接處理,安全感完全提升。
如何在本機電腦上安裝 DeepSeek-R1 70b AI 模型(簡易教學)
近期,由中國團隊開發的大型語言模型(LLM)「DeepSeek-R1」引起了廣泛關注,它以強大的中文處理能力著稱,效能據稱可媲美 OpenAI 的 ChatGPT。雖然完整版的模型對硬件要求極高(需要超過 1300GB VRAM),但我們可以透過一個名為 LM Studio 的免費軟件,輕鬆地在本機電腦上運行其「精簡版(Distill Model)」,體驗其強大功能,同時確保個人資料的絕對私隱。

DeepSeek 8B vs 70B 模型,為何是書房與國家級圖書館的天壤之別?
你可能會問,模型大小的「B」是什麼意思?8B 和 70B 的差異真的那麼大,值得我們為此投資硬體嗎?
答案是:差異巨大,而且這正是區分「AI 玩具」與「AI 生產力工具」的關鍵。
「B」代表「Billion」(十億),指的是模型中的「參數(Parameters)」數量。你可以將參數想像成 AI 大腦中的神經元突觸,負責儲存知識和學習推理。參數越多,代表 AI 的大腦越複雜、知識庫越龐大、思考能力也越強。
8B 模型 = 你的私人書房
藏書豐富,足以應付日常工作:寫郵件、整理報告、查找基本資料。方便、快速,是個很好的日常助手。
70B 模型 = 國家圖書館
擁有幾乎無限的知識:包括所有專業期刊、深度研究報告和罕見文獻。能為你提供解決複雜商業難題的專家級見解。
要進入這座宏偉的「國家圖書館」,你需要一個超過 48GB 的超大「入口空間」(專業術語叫 VRAM)來處理龐大的資訊量。
這就是難題所在:傳統電腦依賴的單一顯示卡,其「入口空間」是固定的,根本無法達到這個標準。這意味著,即使是一部性能強勁的電腦,也無法獨力推開圖書館的大門。
HP Z2 Mini G1a 的獨特之處,就在於它不依賴單一顯示卡的固定空間。它利用革命性的**「統一記憶體架構」,能整合出一個高達 96GB** 的龐大「入口空間」。
這個容量,其效能足以媲美,甚至超越了兩張高端顯示卡加起來的總和。

第一步開始前:硬體配備,才是真正的 AI 本地部署的關鍵
在開始安裝 LM Studio 之前,第一件事不是點擊下載,而是確認你的電腦,夠唔夠力。
我們今次使用的 DeepSeek-R1 Distill Llama 70B 模型,即使經過量化處理,依然需要超過 43GB VRAM 才能順利載入並運行。這個要求已遠超大部分市售顯示卡的上限,例如 RTX 4090 也僅有 24GB VRAM。
但我們使用的 HP Z2 Mini G1a,卻突破了這個限制。它雖然冇獨立 GPU,卻透過統一記憶體架構,允許系統將高達 96GB RAM 分配為圖像記憶體使用,成功支援 DeepSeek 70B 全模型載入與穩定對話。
這代表,即使是一部外形僅兩個 NAS 大小的迷你機,配合 128GB RAM 與高速 SSD,也能勝任企業級 AI 任務,成為真正可移動的 AI 本地工作室。
如果你也想安裝 DeepSeek 70B 模型,請先確認以下硬體條件是否達標:
模型大小 | 建議 VRAM | 建議 RAM | 說明 |
8B | 8GB | 16GB | 基本測試用途 |
14B | 12GB | 32GB | 中階應用 |
32B | 16GB | 64GB | 內容生成、繁中應用 |
70B | 48GB ↑ | 128GB | 高階 AI 任務、本地 GPT-4 替代品 |
如果你用的是 HP Z2 Mini G1a,只要進 BIOS 將 VRAM 分配調至 96GB,就可以直接啟動大型模型。這也是我們實測成功的關鍵以下會公開這個小技巧!


🎁 小彩蛋|您不可不知的 BIOS 釋放硬件潛能設定
許多使用者在本地部署大型語言模型時,常會遇到運行緩慢或載入失敗的問題,並直覺地歸因於 LM Studio 軟件或模型檔案本身。然而,根據我們 DotAI 團隊的深入實測,問題的癥結點往往隱藏在一個常被忽略的環節:BIOS 中的顯示記憶體(VRAM)分配設定。
系統的預設值為了通用性,通常只會分配極小部分記憶體(例如 2GB 或 8GB)給內建的圖像處理器,這對於運行需要龐大 VRAM 資源的 AI 模型而言是遠遠不足的。
我們發現,只需在 HP Z2 Mini G1a 的 BIOS 中進行一項簡單調整,即可完全釋放其硬件潛能,為系統提供運行 70B 級別大型模型所需的充裕資源。
🔧 操作步驟如下:
重啟電腦,快速連按
ESC
進入 BIOS。在 BIOS 選單中選擇:
Advanced
→Device Configuration
。找到「Graphics Memory Allocation」或「UMA Frame Buffer Size」。
將預設值(例如 2GB / 8GB)調高至 96GB。
儲存設定後重新開機,即可成功載入 DeepSeek-R1(70B)。
第二步:下載與安裝 LM Studio
LM Studio 是一個非常適合初學者的免費工具,它提供了一個圖形化介面,讓你可以輕鬆下載、管理和運行各種開源的大型語言模型,而無需編寫任何程式碼。
前往官方網站:打開瀏覽器,前往 LM Studio 的官方網站:https://lmstudio.ai/
下載對應版本:根據你的電腦選擇適用版本:
Mac(Apple Silicon):Download LM Studio for Mac (M series)
Windows 電腦:Download LM Studio for Windows
Linux 系統:Download LM Studio for Linux
安裝軟件:下載完成後,雙擊安裝檔並依照提示完成安裝。安裝完成後,勾選「Run LM Studio」,軟件會自動啟動。

第三步:尋找並下載 DeepSeek 模型
進入模型搜尋頁面:啟動 LM Studio,點擊左側放大鏡圖示,進入模型搜尋頁面。
搜尋 DeepSeek 模型:輸入「deepseek」,系統會列出所有相關模型。
然後下載模型檔案:在右側選擇 Q4_K_M(Recommended)版本,點選「Download」。
常見版本包括:
DeepSeek-R1-Distill-Llama-8B(建議 8GB VRAM)
DeepSeek-R1-Distill-Llama-14B(建議 12GB VRAM)
DeepSeek-R1-Distill-Llama-32B(建議 16GB VRAM)
DeepSeek-R1-Distill-Llama-70B(建議 至少96GB VRAM)
數字越大,模型越強但越吃資源。建議根據硬件選擇適合版本。
請特別注意:根據我們 DotAI 團隊的最新實測,要穩定流暢地運行最強的 70B 旗艦模型,您的電腦需要配備至少 96GB VRAM。HP Z2 Mini G1a 可以!!

第四步:載入模型並展開 AI 對話
成功載入模型後,您將進入 LM Studio 的聊天介面。這就是您的本地 AI 工作站核心。
進入聊天介介面:點擊軟件左側的「對話框圖示 💬」。
確認模型已載入:畫面頂部會顯示當前運行的模型
開始對話:在下方的輸入框中,您可以開始下達指令。
初學者可能會從簡單的問答開始,例如「用中文解釋量子糾纏」或「幫我寫一段 IG caption」。然而,70B 級別模型的真正威力,在於處理複雜、具多重條件的專業任務。
接下來,我們將展示如何利用一個結構化的專業指令,讓 DeepSeek 扮演市場推廣顧問的角色,完成一篇高品質的商業文案。
實戰演練:讓 DeepSeek 成為你的專業文案助手
要讓 AI 產出高品質內容,關鍵在於給予清晰、具體的「指令(Prompt)」。以下是一個我們 DotAI 團隊內部使用的「萬用高質素內容生成指令」模板,您可以根據自身需求修改,應用在各種商業場景。

為何我們最終鎖定 HP Z2 Mini G1a?一部可以隨處移動的「AI 作戰基地」
過去我們總以為「跑不動模型」是軟體優化問題,直到這次實測才恍然大悟,其實是硬體真的不行。
這部電腦雖然外型細小,但規格卻強大得令人意外:
處理器:AMD Ryzen AI Max+ Pro 395(16 核心、32 線程)
記憶體:最高支援 128GB DDR5
儲存空間:預設 4TB,支援雙 M.2 擴充至 8TB
圖像處理:內建 Radeon 8000S,分配最高 96GB 給圖形處理
電源配置:內建 300W 電源模組,支援長時間高負載運行
機身設計:僅兩個 NAS 大小,支援直放/橫放,LOGO 可旋轉
攜帶便利:設計緊湊,適合團隊教學、協作、工作間靈活移動
HP Z2 Mini G1a 最實用的地方,不僅僅是快,而是它驚人的「細小、輕便、高機動性」。對我們 DotAI 這種需要在課室、共享辦公桌、甚至 bean bag 區之間靈活工作的團隊來說,這徹底解決了長久以來的痛點。
它真正成為了我們團隊的「AI 作戰基地」。我們每日用它寫教材、生成內容、即時開會改稿,速度與穩定性都有極大提升。在實測中,我們甚至能同時運行 DeepSeek 生成文案、Stable Diffusion 繪製圖像,再交由 Kimi 等 AI 工具輔助整理,整個過程依然順暢無比,完全沒有延遲。
團隊成員甚至開玩笑說,最擔心的就是 HP 有一天要收回這部測試機,因為裡面已滿載我們所有的模型、工作流與設定,要格式化真的會非常不捨。
如果您也想跟隨這篇教學,建立一個真正屬於自己、安全、高效且能駕馭頂級模型的私有 AI 工作室,HP Z2 Mini G1a 絕對是能讓您「一步到位」的完美選擇。

最貼地嘅 ChatGPT 實戰攻略
其他文章