ByteDance DeerFlow 完整教學:安裝、設定 DeepSeek、實戰研究,以及你一定在意的隱私問題
DeerFlow 上個月在 GitHub 拿了 45k 顆星,登上 Trending 第一名。Twitter 和 Threads 上到處有人轉貼,但繁體中文的完整教學?一篇都沒有。
這篇補上這個缺。從「DeerFlow 跟 ChatGPT 到底差在哪」開始,帶你走完安裝、設定低成本的 DeepSeek API、跟 Perplexity 和 OpenAI Deep Research 做比較,最後正面處理那個大家心裡都有但很少人認真討論的問題:ByteDance 的東西,我的資料安全嗎?
TL;DR
- DeerFlow 不是更聰明的 ChatGPT,它是「讓 AI 能執行研究任務」的自架框架,有 Docker 沙盒、能跑程式、能讀寫檔案
- 安裝需要 Docker + Python 3.12 + Node.js 22,用
make docker-start啟動,連到localhost:2026 - 最省錢搭配:DeepSeek v3 API,比 GPT-4o 便宜數倍,效果接近
- ByteDance 隱私疑慮是真的:用 Ollama 本地模型可以讓資料完全不離開你的電腦
- 適合需要重複做深度研究的人(競品分析、市場報告),偶爾查個東西用 Perplexity 就夠了
DeerFlow 到底是什麼?跟 ChatGPT 的本質差別
先搞清楚一件事:DeerFlow 不是另一個聊天機器人。
你用 ChatGPT 問「幫我分析 A 公司和 B 公司的競爭策略」,它會給你一篇看起來很有道理的文字。但那些資訊是從訓練資料裡拼出來的,它沒有真的去查 A 公司最新的財報,也沒有打開 B 公司的網站看他們上週改了什麼。
DeerFlow 做的事情本質上不同。它給 AI 一台「專屬電腦」:一個隔離的 Docker 沙盒環境,裡面有真實的檔案系統和 bash 終端機。AI 不只是「說」要怎麼做,它能真正去執行:上網搜資料、跑 Python 腳本分析數據、把結果寫成報告存檔。
Twitter 上 @lxfater 的描述意外地精準:「字節搞了個 openclaw + claude code + 沙箱。」
架構上,DeerFlow 是一個 SuperAgent 編排框架。主代理(Orchestrator)接到你的任務後,會拆成子任務分配給不同的子代理並行執行,最後由 Reporter 合成輸出。整個過程你只需要下一個指令,然後等結果。
但老實說,「等結果」也是它的侷限。多步驟 agent 系統天生有 hallucination 疊加的問題,第一步的小錯可能在第三步被放大。DeerFlow 沒有內建的 grounding 或交叉驗證機制,輸出結果你還是得自己 review。把它當成一個能力很強的研究助理,不是一個你可以完全信任的分析師。
判斷你是否需要 DeerFlow 的核心問題:你的研究任務需要 AI 去「執行動作」嗎?(搜集網頁、跑分析、整理資料)如果是,DeerFlow 值得花時間設定。如果你只是需要快速問答,Perplexity 更實際。
DeerFlow 2.0 核心功能:不只是做研究
DeerFlow 2.0 跟初版完全不同。官方說法是「因為社群的使用方式超出預期,跟 v1 零共用程式碼,完全重寫」。重寫後的四大核心能力:
Docker 沙盒執行環境:每個任務在隔離容器中運行,AI 可以安裝套件、跑腳本、讀寫檔案,不會弄亂你的系統。這是 DeerFlow 和純聊天工具的根本分界線。不過要注意:沙盒裡的 Coder Agent 可以執行任意 bash 命令,這代表如果有 prompt injection 攻擊(讓 AI 執行惡意指令),沙盒雖然隔離了你的主系統,但沙盒內部的資料仍然暴露。不要在沙盒中處理敏感檔案。
階層式多代理系統:主代理拆解任務,子代理並行處理。做一份競品分析,可能同時有三個子代理分別在搜集不同公司的資料,最後合成一份報告。
Markdown Skills 系統:工作流程用 Markdown 檔案定義,不用寫程式碼。你可以自訂研究流程(例如「先搜集 → 再分析 → 最後生成簡報」),系統會按步驟執行。
持久化記憶:跨 session 記住你的偏好和上下文。你上週做過的競品分析,這週追蹤更新時它還記得之前的結論。
輸出不只有文字報告。根據官方展示,DeerFlow 可以生成研究報告(含圖表和引用)、PPT 簡報、甚至完整網頁。主要輸出格式是 Markdown 和 HTML,你可以直接複製到 Notion 或其他工具中。不過 PPT 和網頁生成的品質我沒有看到獨立評測,官方 demo 看起來不錯,實際效果你得自己試。
Telegram、Slack、飛書的整合支援也是亮點。你可以在 Telegram 群組裡直接下指令給 DeerFlow,它會在背景執行完把結果傳回來。對團隊協作來說,這比開一個網頁介面方便不少。
最後提一個現實面:DeerFlow 2.0 在 2026 年 2 月底才發布,目前仍在快速迭代。安裝需求已經從 Python 3.11 升到 3.12,未來幾個月指令和設定都可能改變。建議固定在某個 release tag 使用,而不是直接追 main branch。
環境需求與安裝教學(Mac / Windows)
安裝 DeerFlow 不算難,但有幾個地方第一次一定會卡。我先列環境需求,再走一遍流程。
你需要準備的東西
- Python 3.12+(注意,3.11 以下不行)
- Node.js 22+
- Docker Desktop(必備,沙盒環境靠它)
- pnpm(Node 套件管理器)
- uv 0.7.20+(Python 套件管理器)
Mac 使用者如果有 Homebrew,大部分都能 brew install 解決。Windows 使用者建議先裝好 Docker Desktop 和 WSL2。
安裝步驟
# 1. 把專案抓下來
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
# 2. 產生設定檔模板
make config
# 3. 編輯 .env 設定你的 API Key(下一節會詳細說明)
# 先用你習慣的編輯器打開 .env 檔案
# 4. 用 Docker 啟動(推薦方式)
make docker-start
啟動後打開瀏覽器,連到 http://localhost:2026,看到介面就代表成功了。
第一次一定要知道的事
最多人卡在的地方:跳過 make config 直接執行。這個指令會產生 config.yaml 和 .env 模板,沒跑的話後面全部會報錯。
另外,DeerFlow 會佔用四個 port:2026(nginx 統一入口)、8001(gateway API)、2024(LangGraph server)、3000(前端介面)。如果你電腦上有其他服務佔了這些 port,啟動會失敗。
想確認環境是否正確,可以跑:
make check
它會自動檢查所有依賴是否就緒。
API 設定與模型選擇:DeepSeek、Gemini、Ollama 怎麼選?
DeerFlow 最棒的設計之一是完全 model-agnostic,任何相容 OpenAI API 格式的模型都能接。這代表你不一定要花大錢用 GPT-4o。
三條路徑,看你的需求
路徑一:DeepSeek API(推薦大部分人)
費用低、效果好、設定簡單。打開 .env 檔案,填入:
DEEPSEEK_API_KEY=your-key-here
然後打開 config.yaml,在 model 相關設定中把模型名稱改成 DeepSeek v3(具體欄位名稱依版本而異,跑 make config 後產生的模板會有註解說明)。DeepSeek API 的費用比 GPT-4o 便宜不少,對預算有限的使用者來說是務實的起點。
路徑二:OpenAI API(你已經有 key 的話)
最直接的方式。在 .env 中設定:
OPENAI_API_KEY=your-key-here
品質最穩定,但費用也最高。如果你已經在付 API 費用做其他專案,直接沿用即可。
路徑三:Ollama 本地模型(零費用 + 最高隱私)
資料完全不離開你的電腦。先安裝 Ollama,拉一個模型(建議 Qwen 或 DeepSeek local),然後把 DeerFlow 的 API endpoint 指向 localhost:11434。
代價是你需要有一張還行的 GPU(至少 8GB VRAM),而且推論速度會比雲端 API 慢不少。但如果你在意隱私,這是唯一讓資料零外傳的方案。
怎麼選?
| 考量 | DeepSeek API | OpenAI API | Ollama 本地 |
|---|---|---|---|
| 費用 | 低 | 高 | 零(但需要 GPU) |
| 品質 | 接近 GPT-4o | 最穩定 | 取決於模型和硬體 |
| 隱私 | 資料送至 DeepSeek 伺服器 | 資料送至 OpenAI | 完全本地 |
| 設定難度 | 低 | 低 | 中 |
如果你沒有特殊隱私需求,DeepSeek API 是我會推薦的起點。等你確定 DeerFlow 適合你的工作流程,再考慮要不要投資 Ollama 方案。
DeerFlow vs OpenAI Deep Research vs Perplexity:不是同一個賽道
這三個工具常被放在一起比,但它們解決的問題其實不太一樣。
Perplexity:最快、最簡單。問一個問題,幾秒內拿到帶引用的答案。適合日常查詢、快速 fact-check。不需要任何設定,打開就用。
OpenAI Deep Research:需要 ChatGPT Plus 訂閱。給它一個研究主題,它會花幾分鐘生成一份深度報告。品質很好,但你沒辦法客製化研究流程,輸出就是一份報告。
DeerFlow:開源自架,根據 LiveResearchBench 評測,研究品質與 Deep Research 接近(兩者整體均分差距不到 1 分),但多了「執行能力」和「客製化」。你可以定義自己的研究流程、讓它跑 Python 分析、甚至部署成 Telegram bot 讓團隊共用。代價是你要花時間安裝和設定。
| Perplexity | OpenAI Deep Research | DeerFlow | |
|---|---|---|---|
| 適合場景 | 快速查詢、引用 | 單次深度報告 | 複雜長線任務、客製化流程 |
| 費用 | Pro $20/月 | ChatGPT Plus $20/月 | 模型 API 費用(可零費用) |
| 設定門檻 | 零 | 零 | 中高 |
| 可客製化 | 不行 | 不行 | 完全開放 |
| 執行能力 | 無 | 有限 | 完整(Docker 沙盒) |
我的建議:如果你每週只查幾次東西,用 Perplexity。如果你偶爾需要一份深度報告,Deep Research 夠用。但如果你每週都在做類似的研究任務(競品追蹤、市場報告、技術文件整理),DeerFlow 一次設定、長期省時間。
ByteDance 隱私風險:你的資料到底去哪裡?
這是寫這篇文章時我最不想迴避的部分。DeerFlow 是 ByteDance 出品的開源專案,而 ByteDance 是一家中國公司。這個事實不會因為它開源就消失。
技術層面(可以解決)
好消息是,DeerFlow 本身不直接收集你的資料。你的研究內容會送到哪裡,完全取決於你選的 LLM backend:
- 用 OpenAI API → 資料送到 OpenAI
- 用 DeepSeek API → 資料送到 DeepSeek 伺服器
- 用 Ollama 本地模型 → 資料完全不離開你的電腦
所以從技術上來說,選 Ollama 就能確保資料零外傳。官方 README 中文版也明確寫了「僅供本機可信環境部署」的警告。
法律層面(無法透過技術解決)
壞消息是,ByteDance 受中國法律管轄。VentureBeat 的企業分析報導特別指出,金融、醫療、政府等受管制產業在採用 DeerFlow 前需要做合規審查。
更讓人在意的是前例。ByteDance 另一個開發者工具 Trae IDE 曾被 TechRadar 報導有收集用戶數據的行為。雖然 DeerFlow 是不同的產品,但同一家公司的信任紀錄會影響判斷。
還有一點:目前沒有任何公開的獨立安全審計報告。45k stars 的專案,很多人在用,但我沒有找到任何第三方對 source code 做過系統性的安全檢查。Twitter 上 @NFTCPS 的質疑:「收藏從未停止,使用從未開始」,某種程度上也反映了社群對實際使用深度的疑慮。
我自己怎麼選
分三種情況:
- 個人研究、不敏感的資料:直接用 DeepSeek API,省事又便宜。反正你用 Google 搜尋也在送資料出去。
- 企業非敏感資料:可以用,但建議不對外暴露 DeerFlow 的 port,只在內網跑。
- 企業敏感資料(財務、客戶、醫療):要嘛用 Ollama 完全離線,要嘛就不要用 DeerFlow。法律風險不是技術方案能消除的。
這不是恐嚇,是讓你做 informed decision。工具是好工具,但信任要給對地方。
安裝失敗怎麼辦?5 個最常見錯誤
根據 GitHub Issues 和社群回報,新手碰到的問題幾乎都是這五個:
1. API Key 未設定
症狀:啟動後任何任務都報 API key not configured 錯誤。
解法:確認你有先跑 make config 產生 .env 檔案,然後在裡面填入至少一組 API key。最常見的原因就是忘記跑 config。
2. Pydantic 驗證錯誤 / JSON 解析失敗
症狀:任務執行到一半噴出 ValidationError 或 JSON parse 相關錯誤。
解法:通常是模型能力不足,無法穩定輸出結構化 JSON。換一個更強的模型(例如從 DeepSeek v2 升到 v3),或確認你的 DeerFlow 版本是最新的。
3. Port 衝突
症狀:make docker-start 失敗,log 顯示 port already in use。
解法:
# 查看哪個程式佔了 port
lsof -i :2026
# 關掉佔用的程式,或改 DeerFlow 的 port 設定
DeerFlow 預設用 2026、8001、2024、3000 四個 port,任何一個被佔都會啟動失敗。
4. Python 版本不對
症狀:安裝過程中出現語法錯誤或套件不相容。
解法:
# 確認 Python 版本
python3 --version
# 如果不是 3.12+,用 uv 固定版本
uv python pin 3.12
5. Docker sandbox 映像未拉取
症狀:任務執行時沙盒環境啟動失敗。
解法:
make setup-sandbox
這個指令會拉取 DeerFlow 需要的 Docker 映像。第一次執行可能要等幾分鐘,取決於你的網速。
通用診斷工具
不確定問題在哪的時候,試這三個:
make check # 檢查所有依賴
curl localhost:2026/api/health # 檢查 API 是否正常
make docker-logs-gateway # 看 gateway 的 log
結論:好工具,但不是每個人都需要
DeerFlow 不是完美的。它有安裝門檻、有隱私疑慮、輸出品質還是需要人工 review。但對於需要「定期做深度研究」的人(每週追蹤競品、整理產業報告、系統性收集技術文件),它目前是開源市場上最完整的選擇。
用 DeepSeek 壓低成本,用 Ollama 解決隱私問題,花一個小時設定好之後就是長期受益的事。
如果你決定要試,建議的順序是:先確認電腦有 Docker 和 Python 3.12 → git clone → make config → 填好 DeepSeek API key → make docker-start → 給它一個你平常會花 30 分鐘手動做的研究任務,看結果是否值得你繼續投入。
FAQ
DeerFlow 是免費的嗎?實際使用費用怎麼算?
DeerFlow 框架本身完全免費開源。實際費用取決於你選的 LLM:用 Ollama 本地模型零費用(但需要有 GPU 的電腦),用 DeepSeek API 費用比 OpenAI 便宜數倍,用 GPT-4o 則是目前最貴的選項。具體金額隨模型定價變動,建議直接查各家 API 的最新費率。框架不收費,模型才收費。
DeerFlow 支援中文研究和繁體中文輸出嗎?
支援,但品質取決於你選的模型。GPT-4o 和 DeepSeek v3 的中文能力都不錯,在 prompt 中指定「請用繁體中文撰寫」就能得到繁中輸出。Ollama 本地模型建議選 Qwen 系列,中文表現較穩定。



