🔥 你的舊電腦不是垃圾!用它跑 OpenClaw,差異只是「快」或「超快」
是告訴你——現在手上這台,真的可以跑。
你有多少時間?
三秒鐘?往下滑。
三分鐘?讀完全文。
三天?建議直接照著本文硬體表買齊,然後回來按讚。
🚨 一個讓你安心的事實
OpenClaw 的最低門檻,低到你有點不敢相信。
如果你只是串接雲端 AI(ChatGPT / Claude / Gemini),對硬體要求是這個:
| 項目 | 最低需求 | 爽用推薦 |
|---|---|---|
| CPU | 雙核心 | 四核心以上 |
| 記憶體 | 2 GB | 4 GB |
| 儲存 | 10 GB | 20 GB |
| 系統 | Linux / Docker | Ubuntu 22.04 + |
翻譯成人話:
📦 五年前的舊筆電 → 能跑
🍋 樹莓派 4 → 能跑
💻 公司報廢的文書機 → 能跑
沒有在誇張。雲端 AI 的 heavy lifting,全部在雲端處理,你的機器只是當一個「高檔遙控器」📱
⚡ 但如果你想跑「本地模型」——這才是真正的硬體考驗
本地模型是吃效能的大魔王,原因很簡單:
💀 模型全部載入你的記憶體,沒有雲端幫你扛。
硬體鐵三角:RAM、VRAM、儲存
🧠 RAM(系統記憶體)
模型要在記憶體裡才能思考。20B 參數模型約需 14GB RAM,70B Q4 量化約需 40GB。
🎮 VRAM(顯示卡記憶體)
有 GPU 加速 → 快 10-20 倍 ⚡
沒有 GPU → 也能跑,只是慢到懷疑人生。
💾 儲存空間
每個模型 4-20GB,不建議只留剛好,建議預留 100GB 以上是標配。
💪 各規模模型硬體對照表(Q4_K_M 量化基準)
| 模型規模 | 最低 RAM | 最低顯示卡 | 最低 VRAM | 純模型檔 | 含系統總容量 | 適合用途 |
|---|---|---|---|---|---|---|
| 7B 小型 | 10-12 GB | 可選 | 4-5 GB | 4 GB | 20 GB | 文書、客服、聊天 |
| 13B 中型 | 24 GB | 6 GB | 8 GB | 8 GB | 30 GB | 一般任務、內容生成 |
| 34B 中大型 | 72-80 GB | 12 GB | 16 GB | 20 GB | 50 GB | 複雜推理、寫程式 |
| 70B 大型 | 128 GB | 24 GB | 48-50 GB | 40 GB | 100 GB | 研究等級、深度分析 |
🤔 閒置機器能不能用?直接對答案
✅ 這些現在就能開工
- 🎮 遊戲電腦(有獨立顯示卡) → 7B-13B 模型跑起來很順,爽
- 💻 16GB+ RAM 的老電腦 → 小型模型無壓力
- 🍎 Mac M 系列 → 蘋果晶片效率變態,8GB 記憶體就能跑 7B
⚠️ 這些可以跑,但要調整預期
- 8GB RAM 無顯卡 → 只能跑 4-7B,慢是慢,但不是不能跑 🐢
- 傳統 HDD 硬碟 → SSD 讓模型載入速度快 10-50 倍 🚀(強烈建議至少換個 SSD)
❌ 這些勸退
- 4GB RAM 以下 → 系統自己都吃不飽,別為難自己 😵
- 還在用 HDD 等開機轉三分鐘 → 建議先升級 SSD 再來玩 💥
🏠 我的實際配置(真實數據,給你參考)
🖥️ 桌機:Ultra 7 265k / 96GB RAM / RTX 6000 Ada 96GB
→ 70B 模型隨便跑,深度研究、日常任務完全流暢 💪
💻 筆電:2017 MacBook Pro 16GB(Intel 版本)
→ 7B 模型勉強能跑,但體驗一般 🍎
→ 真心建議用 M 系列 Mac,M1/M2/M3 都遠勝這台
🛒 預算 NT$10,000 以內,CP值最高的方案
懶人包:二手文書機 + 雲端模型,不到一萬全搞定。
| 硬體 | 推薦 | 參考價格 |
|---|---|---|
| 機器 | 二手商用文書機 / 舊筆電 | NT$3,000-8,000 |
| 網路 | 現有網路即可 | NT$0 |
為什麼這樣夠用?
OpenClaw 串接的是雲端 AI,所有運算在雲端,你的機器只負責:
– 發指令 📱
– 收回應 ✅
只要能跑瀏覽器、網路穩定,Pentium 等級都沒有問題。
想偶爾玩本地模型?
| 情境 | 硬體組合 | 預算參考 |
|---|---|---|
| 純雲端(7B / GPT-4o) | 二手文書機 | NT$5,000 搞定 ✅ |
| 輕量本地(7B Q4) | RTX 3060 12GB | NT$8,000-12,000 ✅ |
| 主流本地(13B Q4) | 建議看第三節硬體表 | 💪 |
🎯 對號入座,你該怎麼做
| 你的情況 | 行動建議 |
|---|---|
| 只有文書機,沒顯示卡 | 直接用雲端 AI,OpenClaw 安裝就對了 ✅ |
| 遊戲電腦 / 有閒置顯示卡 | 安裝 Ollama,跑本地 7B 模型 ✅ |
| 有 32GB+ RAM | 挑戰跑 13B 本地模型 ✅ |
| 想跑 70B 大模型 | 上工作站或高階電腦,一步到位 💪 |
🚀 結語:硬體永遠不是藉口
看完這篇,你沒有理由說「我的電腦跑不動」。
從今天能跑的設定開始。
從最低預算的方案開始。
從手邊這台機器開始。
OpenClaw 的目標不是只有高階用戶——而是每一個想試的人。
現在,輪到你了。👉 開始安裝 OpenClaw
📖 專業名詞解釋
| 名詞 | 解釋 |
|---|---|
| Q4_K_M 量化 | 一種模型壓縮技術,讓大模型占用更少記憶體,卻幾乎不損失精準度。是目前性價比最高的方案。 |
| RAM(系統記憶體) | 電腦主機板的記憶體,負責暫時存放正在執行的資料。模型全部載入 RAM 才能運算。 |
| VRAM(顯示卡記憶體) | 顯示卡專用的記憶體,用 GPU 跑模型會比純 CPU 快上 10-20 倍。 |
| OOM(Out Of Memory) | 記憶體不足,系統崩潰。8GB RAM 跑 7B 模型容易發生。 |
| Ollama | 一鍵啟動本地模型的工具,支援 Llama、Gemma、Qwen 等多種模型。 |
| KV Cache | 模型推理時的暫存資料,會佔用額外記憶體,大上下文時特別吃 VRAM。 |
| Unified Memory(統一記憶體) | 蘋果 M 系列晶片的共享記憶體架構,CPU/GPU 共用同一塊記憶體。 |
*本文硬體建議基於 Q4_K_M 量化基準。實際需求可能因模型版本、使用情境而異。*