最近愈來愈多人開始研究 OpenClaw。它之所以受到關注,不只是因為又多了一個 AI 工具,也不只是因為生成內容更快,而是因為它開始代表一件更重要的事:AI 正由「回答問題」走向「真正做事」。
對很多新手來說,過去接觸 AI,更多是把它當成一個對話工具:問問題、寫文案、整理資料、搵答案。但 OpenClaw 吸引人的地方,在於它開始令人看到另一種可能——AI 不只留在對話框裡,而是可以接收訊息、調用模型、讀寫檔案、使用工具、接入工作流程,甚至在設定好的邊界之下,持續替你推進工作。
但當 Agent 開始接觸你的檔案、帳號、工具與流程時,問題就不再只是「它勁不勁」,而是三個更現實的問題:安不安全?貴不貴?實際上好不好用?
所以,這篇文章不會只把 OpenClaw 當成一個新奇 AI 工具來介紹。我們更想做的,是帶你由零開始看清楚:OpenClaw 是什麼、為什麼愈來愈多人想學它、又應該怎樣在安全邊界內,把它逐步放進真實工作流程。
如果你不想慢慢消化網上碎片化攻略,DotAI 也推出了《 OpenClaw AI Agent 系統架構師專修課程:從零打造 AI Agent 生產力團隊 》 ,以 10 小時實體課形式,帶學員由安裝與環境配置,一路走到 Skills、多智能體工作流與企業部署思維,目標是幫你由「識用 AI」升級到「識設計 AI 系統」。
目錄
OpenClaw 是甚麼?為什麼不只是一個聊天 AI 工具
為什麼愈來愈多人想學 OpenClaw?又為什麼大家都在養龍蝦?
安裝前先理解三個問題:安全、成本、可用性
拆解 OpenClaw 核心架構:它為什麼能開始幫你工作
OpenClaw 可以如何放進真實工作中
為什麼大家會說是在養龍蝦
結語:從 AI 使用者走向 AI 系統設計師
一、OpenClaw 是甚麼?為什麼不只是一個聊天 AI 工具
OpenClaw 由奧地利開發者 Peter Steinberger 所打造,曾用名 ClawdBot / Moltbot。它之所以受到重視,不只是因為能聊天,而是因為它開始把 模型、記憶、工具、Skills 與工作流 接成一套真正可執行的 Agent 系統。
當使用者完成安裝與設定後,OpenClaw 就能如一名個人助理般,在後台讀取使用者授權的檔案與權限,並自行執行任務。無論是管理電子郵件、代理發送訊息,或瀏覽並摘要 PDF 文件,這些原本需由真人完成的日常工作,都能交由 OpenClaw 處理,也讓這款工具迅速走入大眾視野。
發展階段 | 專案名稱 | 時間點 | 關鍵特徵與變動原因 |
原型期 | Clawd | 2025 年 11 月 | 個人助理實驗,PSPDKit 創始人的週末項目 8 |
發布期 | Clawdbot | 2025 年 11 月 | 正式開源,以龍蝦 mascot 建立品牌認同 1 |
轉型期 | Moltbot | 2026 年 1 月 | 因商標爭議更名,引入「蛻殼成長」的生物隱喻 |
穩定級 | OpenClaw | 2026 年 1 月 | 確立最終品牌,強調「開源」生態與企業級可擴展性 |
如果要用最簡單的方法去理解,OpenClaw 可以說是目前最接近 Jarvis 式數位助理 的 AI 系統之一。它不只是一個陪你對話的工具,而是一套可以接收任務、連接工具、保存記憶,並逐步進入真實工作流程的 Agent 系統。
1.1 從「對話介面」轉向「代理作業系統」
與 ChatGPT 等傳統大型語言模型(LLM)不同,OpenClaw 並非僅僅在網頁端提供文字建議。NVIDIA 執行長黃仁勳將其定義為**「個人 AI 的作業系統」** 。它的專業價值體現在以下三個維度:
從「建議」到「執行」: 傳統 AI 告訴你「如何寫郵件」,而 OpenClaw 則直接「代你發送郵件」 。
本地優先架構(Local-first Architecture): 系統部署於用戶掌控的本地硬體(如 Mac Mini 或伺服器),這賦予了代理「系統級權限」,使其能直接操作本地檔案、執行終端指令(Shell Commands)並調用各類 API 。
全天候自主代理(24/7 Autonomous Proxy): 透過內置的調度機制,OpenClaw 能在後台持續運行,處理如郵件分揀、日程衝突檢測、甚至是在加密貨幣市場進行 24 小時的策略監控,而不需要人類保持對話框開啟 。

1.2 OpenClaw 的六個核心特徵
為了讓 OpenClaw 能夠勝任複雜的自動化任務,其底層架構在設計上完全跳脫了傳統網頁版對話方塊的限制。它以「高度自主」、「資料安全」與「極致擴充性」為核心開發理念,透過以下六大特徵,支撐起整個智能代理系統的運作:
本地優先:可部署在 Mac、PC、伺服器或其他設備上,令資料與執行環境更可控。
多平台接入:可透過 WhatsApp、Telegram、Discord、Signal、iMessage 等渠道下指令。
模型可替換:可按任務需要接入 OpenAI、Anthropic、Gemini 甚至本地模型。
持久記憶:可保存偏好、背景與工作脈絡,不需要每次由零開始。
人格與風格配置:可透過
SOUL.md等檔案令 Agent 保持較穩定的風格與行為邏輯。技能擴展能力:可透過 Skills 接入不同能力模組,令它不只會答,還能處理特定任務。

1.3 用一個例子理解 ChatGPT 與 OpenClaw 的分別
如果你對 AI 說一句:「幫我整理桌面檔案。」
一般聊天型 AI:通常只會告訴你「應該」怎樣分類、命名與整理。
OpenClaw:在權限、工具與規則都設定好的前提下,OpenClaw 可以直接讀取桌面、進行分類、重新命名、移動檔案,執行後再把結果回報給你。
這就是聊天機器人和 AI Agent 最根本的差別:前者偏向提供建議,後者開始負責執行。

二、為什麼愈來愈多人想學 OpenClaw?又為什麼大家都在養龍蝦?
2.1 因為 AI 正由「回答問題」走向「真正做事」
前面講到,OpenClaw 不只是聊天介面,而是一套可以接入模型、工具、記憶與 workflow 的 Agent 系統。也正因如此,愈來愈多人開始意識到:AI 的下一步,不會只是更識答,而是更識做。
過去幾年,大家已經很習慣用 ChatGPT、Claude、Gemini 等工具幫手寫內容、整理資料、做分析,但大部分仍然偏向「我問,你答」。OpenClaw 最令人有感的地方,在於它把 AI 再向前推一步:當一個系統可以接收訊息、調用模型、讀寫檔案、連接工具、處理 API,甚至配合 workflow 時,你學的就不再只是如何用 AI 找答案,而是開始接觸一種新的工作方式。
2.2 因為 OpenClaw 讓人第一次比較完整感受到 AI Agent 可以落地
很多 AI 產品都很強,但不少仍停留在單點功能:生成快一點、搜尋方便一點、分析好一點。OpenClaw 特別的地方,不在於某一項功能,而在於它把模型、記憶、工具、Skills 與 workflow 接成一套可部署、可管理、可延續的 Agent 系統。
所以,它吸引人的地方,不只是做到某件事,而是開始有條件成為一個可長期協作的數位代理。這也是為什麼很多人覺得,AI Agent 終於有機會由概念走向實用。
2.3 因為「養龍蝦」代表一種可培養、可優化的人機協作方式
在 OpenClaw 社群裡,「養龍蝦」這個說法愈來愈常見。原因不只是 mascot,而是這個比喻很準確地講中了 OpenClaw 的特別之處:它不是裝完即用的靜態工具,而是一個可以慢慢培養的 Agent。
你要幫它設定規則、整理記憶、挑選技能、建立 workflow;而它也會隨著你的使用習慣與工作方式,愈來愈穩、愈來愈貼身。所以大家說自己在養龍蝦,背後真正的意思,其實是:你不再只是使用 AI,而是在和 AI 一起建立一套系統。
2.4 為什麼大家會說龍蝦「越聊越聰明」?
很多人喜歡 OpenClaw,還有一個很關鍵的原因:它給人的感覺,不像一般聊天工具那樣每次都由零開始,而是好像真的會隨時間愈來愈懂你。這也是為什麼社群常會說,龍蝦是「越聊越聰明」。
當然,這並不是模型突然自己進化,而是因為 OpenClaw 可以透過記憶、規則、偏好與 learnings,慢慢建立一套可延續的工作方式。當你持續整理背景資訊、修正行為、沉澱 workflow,它就不再只是回應你當下的一句 prompt,而是開始愈來愈接近你真正想要的做法。
2.5 所以大家想學的,不只是工具,而是一種新的工作方式
如果只把 OpenClaw 當成一個熱門 AI 工具,你會低估它。因為大家真正想學的,很多時不是單一功能,而是更高層的能力:
如何設計 Agent 的角色與邏輯
如何管理記憶與上下文
如何挑選 Skills,而不是亂裝功能
如何建立可持續運作的 workflow
如何令 AI 由「幫手做一次」變成「長期幫你做」
換句話說,OpenClaw 吸引人的地方,不只是它令 AI 更方便,而是它令愈來愈多人開始由 AI 使用者走向 AI 系統設計者。
參考:《 OpenClaw AI Agent 系統架構師專修課程:從零打造 AI Agent 生產力團隊 》

三、拆解 OpenClaw 核心架構:它為什麼能開始幫你工作
要理解 OpenClaw,關鍵不是只看它用了哪個模型,而是看它整套系統如何運作。大致可以從四個部分來理解:架構、模型、記憶與主動性、Skills。
3.1 用三層架構理解 OpenClaw 的秘密
要真正掌握 OpenClaw 為何能超越傳統聊天機器人,我們必須打開它的引擎蓋,了解其底層邏輯。它並非一個無法解析的黑盒子,而是由三個層次分明、各司其職的核心模組所構成:Gateway(通訊閘道)、Models(語言模型)與 Skills(技能模組)。這套「三層架構」的精準分工,正是它能具備極高擴充性與強大執行力的秘密所在:

Gateway:把聊天介面變成控制入口
Gateway 是系統入口,負責接收來自 WhatsApp、Telegram、Discord 等渠道的訊息,並處理 session、路由與權限邏輯。它的價值不只是收訊息,而是令你可以直接在日常通訊介面中指揮整套系統。
Models:可調用任何 AI 模型:OpenClaw 是沒有「腦」的
講 OpenClaw,一定要先講清楚一件事:OpenClaw 本身唔係大型語言模型(LLM) 佢唔係 ChatGPT、Claude 或 Gemini 呢類「腦」,而更似一個總指揮、一個 orchestration layer。
真正負責理解、推理、生成內容嘅,仍然係 OpenClaw 背後接入嘅外部 AI 模型。 換句話說,OpenClaw 負責唔係「自己諗」,而係:
接收用家任務
用 AI 模型判斷應該用咩能力/skill/手法處理
將「上下文」整理好送去 AI 模型(如 Gemini)
根據 AI 模型回覆再決定下一步
調用工具執行任務
最後將結果回傳用家
所以你可以話,AI 模型才是 OpenClaw 的腦,但 OpenClaw 係負責調度大腦、記憶、工具同渠道嘅神經系統。
呢個分工好重要,因為佢解釋咗兩件事: 第一,點解 OpenClaw 可以按任務切換唔同模型;第二,點解 OpenClaw 嘅強弱唔只取決於模型本身,而係取決於整套架構點樣配合。
Skills:把做事方法變成能力模組
這是 OpenClaw 最強悍的地方。技能(Skills)是被結構化的程式碼模組 。如果現有的 13,000 個技能無法滿足需求,OpenClaw 可以自主撰寫新的 Python 腳本,自我測試並部署為新技能,實現功能的「無限繁殖」 。
Skills 可以用來處理:
固定格式內容輸出
任務拆解與流程執行
特定工具或 API 調用
網頁操作與資料整理
多角色協作與分工
近幾個月,全球不少 AI 用戶、開發者與進階玩家,都開始把自己常用的 workflow 打包成 Skills,放上不同平台與社群分享,例如 ClawHub、GitHub、X 等。這些 Skills 很多都不是抽象示範,而是作者自己日常正在使用的 use case。
但對新手來說,最重要的不是裝得多,而是裝得準。比較成熟的做法通常是:
先用現成 Skills 起步
再按自己 workflow 慢慢調整
最後沉澱成屬於自己的工作模組
而這一部分,亦正正是 《 OpenClaw AI Agent 系統架構師專修課程:從零打造 AI Agent 生產力團隊 》 會重點講解的內容:如何理解 skills 的角色、怎樣挑選可用技能、怎樣避免無效堆疊,並逐步建立真正屬於自己的 AI workflow。
3.2 OpenClaw 差異化優勢:賦予 AI 持久記憶與主動性
傳統的對話式 AI 往往受限於「無狀態 (Stateless)」的底層邏輯,呈現極度被動的「指令驅動」模式——使用者下達一句指令,AI 產出一句回覆;一旦對話視窗關閉或對話串重置,所有的專案背景、個人偏好與任務脈絡便隨之消散。這種「系統性失憶」大幅限制了傳統 AI 在長期複雜專案中的應用價值。
OpenClaw 最大的突破與獨特之處,正是徹底打破了這種被動且健忘的框架。它不依賴虛無縹緲的對話紀錄,而是透過在本地端建立一套基於工作區檔案 (Workspace Files) 的實體化記憶結構,賦予了 Agent 能夠跨越時間線持續運作的能力,甚至展現出極具突破性的「主動性」
OpenClaw 比較特別的地方,在於它透過工作區檔案逐步建立可延續的記憶結構。常見會有:
SOUL.md:定義角色、風格與行為準則MEMORY.md:保存較長期、較穩定的背景資訊HEARTBEAT.md:定義主動跟進節奏
這三者加起來,不只是設定檔,而是一個 Agent 持續工作的基礎。
3.3 學會管理記憶,先真正養得好龍蝦
如果模型是大腦,記憶就是 OpenClaw 保存背景、規則與工作狀態的地方。記憶管理其實是最容易被低估、但最影響長期表現的能力之一。
實際上,你可以把記憶簡單分成四層:
即時對話記憶:保存當前會話的上下文與工具日誌
共用背景記憶:保存品牌、規則、團隊分工與固定標準
Agent 個人長期記憶:保存角色自己的方法、偏好與工作習慣
每日摘要與工作日記:將當日重要內容濃縮成 daily summary
當記憶檔案愈來愈多,關鍵就不再只是「有沒有存到」,而是「之後找不找得到」。所以除了分層保存之外,更需要加入 Index 索引機制,幫整套記憶建立導航能力。
四、安裝前先理解三個問題:安全、成本、可用性
在開始部署 OpenClaw 之前,最應該先搞清楚的,不是「它勁不勁」,而是以下三個更現實的問題:
安不安全
貴不貴
實不實用
如果你對 token、memory、skills、gateway 這些術語還未熟,也不用急。你現在先記住一個核心觀念:OpenClaw 不是裝到就夠,而是要用對。
4.1 控制風險:先設好安全邊界
OpenClaw 有執行能力,所以安全重點不是「驚不驚」,而是有沒有先設好邊界。對新手來說,較穩陣的做法通常是:
先用虛擬機、Docker、雲端環境或後備機測試
將工作目錄與私人資料分開
涉及敏感資料與高風險步驟時加入二次確認
定期做備份,確保出錯時可回復
不要預設開放所有工具與所有指令
簡單講,安全不是靠運氣,而是靠 分隔、規則與備份。
4.2 控制成本:先做好記憶與上下文管理
講成本,先要講清楚一件事:OpenClaw 本身唔係一個 LLM。佢係借用外部大型語言模型去理解、推理同執行任務,所以成本核心其實取決於 token 消耗。 而 OpenClaw 之所以勁,正正係因為佢每次處理嘅唔只係你眼前輸入嗰一句話,仲可能連同 所有memory、skills、規則、歷史訊息、工具輸入輸出一齊送去俾模型理解。
換句話說,即使你只係打一句「hi」,系統背後都可能正在消化一大堆上下文才答作
所以,如果你冇做好記憶管理、skills 控制同 prompt 精簡,成本係可以升得好快。最極端嘅情況下,每一輪對答都可能去到十幾蚊甚至更高,並唔誇張。
所以真正問題唔係龍蝦一定貴,而係 你有冇用正確方式去養。 要控制成本,通常要做到幾件事:
精簡記憶同規則
只保留真正有用嘅 skills
避免低價值任務反覆推理
按任務選擇合適模型,而唔係每次都開最貴配置
最貴嘅,往往唔係模型,而係混亂嘅配置。 當然,成本都唔需要講到太恐怖。因為坊間而家已經有唔少 coding plan,本身已經包咗一定額度,某程度上可以幫你頂住部分 token 消耗,冇咁容易一開始就爆得太誇張。再加上好似 Codex 呢類工具,普通版喺某啲時段甚至已經俾用家免費試用一段時間,對新手嚟講,入門門檻其實比想像中低。

不過,識用免費額度 同 識控制整體成本 係兩回事。 點樣控制上下文、點樣管理記憶、點樣揀模型、點樣避免無效消耗,呢啲先係真正影響長期成本嘅關鍵。呢部分我哋後面會再講,而亦正正係 《 OpenClaw AI Agent 系統架構師專修課程:從零打造 AI Agent 生產力團隊 》 會重點處理嘅內容。

4.3 提高可用性:先配合自己工作流程,再慢慢養大
很多新手一開始用 OpenClaw,第一步就是下載別人寫好的 Skills,見到哪個勁就裝哪個。但問題是,大部分 Skills 只適合原作者自己的 workflow,未必直接適合你。
所以 OpenClaw 真正的玩法,不是瘋狂下載,而是:
先用現成 Skills 起步
再按自己實際 workflow 慢慢調整
最後沉澱成屬於自己的工作模組
OpenClaw 特別適合以下場景:
每日定時定候要處理的工作
經常重複出現的流程
涉及多步驟、多工具的任務
突發出現、但需要快速處理的操作需求
換句話說,OpenClaw 是給 有 workflow 的人 用來放大效率的。

五、OpenClaw 應用案例: 如何放進真實工作中?
OpenClaw 的真正價值,不在於它只會完成一個單點任務,而在於它可以把 訊息入口、記憶、工具、排程與執行能力 串成完整 workflow,讓 AI 不只是回答,而是持續參與工作。
5.1 OpenClaw 應用案例:辦公、銷售與商業決策
場景: 見完客後,拍下食飯單據、客戶卡片,再補一段語音或錄音。
AI 做咩: 自動在 Google Drive 建資料夾、抽取單據資料、整理 CRM 紀錄、生成 action items 與圖文匯報。
你得到咩: 日後只需自然語言提問,就能快速追溯客戶背景、會面重點與跟進進度。
5.2 OpenClaw 應用案例:自媒體與內容創作
場景: 想持續追蹤熱門題材、產出社交內容與配圖。
AI 做咩: 自動搜尋 X / YouTube / IG 等平台情報,過濾重複內容,整理摘要,再生成文案與宣傳圖。
你得到咩: 把「找題材、分析趨勢、生成內容、製作素材」接成一條龍 workflow。
5.3 日常生活管理與照顧場景
場景: 想用 WhatsApp 管理日程,或替長者建立食藥提醒系統。
AI 做咩: 幫你安排 Google Calendar、加入 Google Meet、推送提醒;亦可將藥物照片與口頭說明整理成教學短片與定時提醒。
你得到咩: 把原本分散在多個 App 與多個步驟之間的操作,濃縮成自然語言工作流。
結語:從 AI 使用者走向 AI 系統設計師
如果把 OpenClaw 只看成一個聊天機器人,你會低估它。 如果把它只看成一套自動化工具,你同樣會低估它。 因為 OpenClaw 真正代表的,不只是某個新產品,而是一種新的工作方式:把 AI 從即時回應,推進到可持續協作。 在這套系統裡,模型不再只是回答問題;
記憶不再只是暫存上下文; skills 不再只是技巧包; 而 Agent 也不再只是你開口它才動的聊天介面。 當這些部分被連接起來,AI 就開始具備主體性、延續性與執行力,慢慢成為你工作流的一部分。
安裝龍蝦只是開始,持續優化才是關鍵
真正開始用 OpenClaw 之後,你會慢慢發現: 建立系統,只是開始;持續優化,才是真正拉開差距的地方。 因為 Agent 並不是裝好之後就會永遠完美運作。 它的記憶怎樣整理、skills 怎樣組合、heartbeat 怎樣設定、回應風格是否合適,全部都需要持續檢視與調整。 某程度上,Agent 就像一面鏡子: 你想得越清楚,它做得越到位。 你設計得越完整,它就越能成為真正貼合你的數位代理。
所以,與其等它做錯再被動修正,不如主動建立一套自我優化機制。
例如可以讓 AI 每週主動反問自己:
這週我在哪些地方做得好?哪些可以改進?
有沒有什麼我本來應該主動做,但沒有做的事?
我的回應風格,現在仍然適合嗎?
每週檢視 Token 用量找出哪些 Skill 流程過重、哪些上下文可以精簡
每晚自動生成重點回顧,透過 Cron 或排程,讓系統主動整理 今日learnings,並反問自己下一步可以如何做得更好。
從使用 「AI 工具」,到設計「 AI 系統」
這種感覺最深刻的地方在於,你會慢慢發現,自己做的已經不只是「使用別人的工具」。 你不是單純在用別人做好的功能,而是在一步一步創作一套更適合自己、更貼合自己 workflow 的工具系統。
當你開始整理記憶、定義 soul、調整 skills、設計工作流,你做的其實已經不是一般使用者的工作, 而是在參與一個 Agent 的設計與成長。 而這種思維轉變,正正是一般 AI 工具最難給你的。 因為大部分 AI 工具的邏輯,仍然是讓你做一個「使用者」;
但 OpenClaw 會令你慢慢走向另一個角色——AI 系統設計師。
呢一種感覺,其實先係 OpenClaw 最迷人的地方。
因為你會知道,自己唔再只係一個 AI 使用者, 而係一個正在親手設計未來工作方式的人。
這也是這個 OpenClaw 課程真正想帶你做到的事
《 OpenClaw AI Agent 系統架構師專修課程:從零打造 AI Agent 生產力團隊 》 想帶大家踏出的第一步。 這門課不只是教你安裝 OpenClaw、試幾個功能,或者跟幾個示範做一次流程。 更重要的是,帶你由「會用 AI」走到「會設計 AI 系統」,真正理解:
如何定義一個 Agent 的角色與 soul
如何建立清晰的記憶結構與工作邊界
如何挑選、調整與優化 skills
如何設計可持續運作的 workflow
如何控制權限、成本與風險
如何透過 weekly review 與 learnings 持續優化系統
如何令 AI 由好玩,變成真正可落地的生產力系統
所以,如果你希望得到的不只是一堆零散技巧, 而是想真正建立一套屬於自己的 AI 工作系統, 那麼這門課的價值,就不只是「教你用 OpenClaw」, 而是帶你正式由 AI 使用者,走向 AI 系統設計師。

DotAI Spot
AI 實戰成長社群
DotAI 全新學習體驗,陪伴您跨越 AI 學習迷惘



其他文章









