ByteDance DeerFlow 完全ガイド:インストール、DeepSeek設定、実践的な使い方、そしてプライバシー問題の真相
DeerFlow は先月GitHubで45k以上のスターを獲得し、Trending 1位に輝きました。TwitterやSNSで話題になっていますが、日本語の完全なセットアップガイドはまだ非常に少ないのが現状です。
この記事がその空白を埋めます。「DeerFlowとChatGPTの本質的な違い」から始まり、インストール手順、低コストなDeepSeek APIの設定、PerplexityやOpenAI Deep Researchとの比較、そして多くの人が気になっているがなかなか真正面から語られない問題——ByteDanceのツールを使うのはプライバシー的に安全なのか——まで、すべてカバーします。
TL;DR
- DeerFlowはより賢いチャットボットではなく、AIが実際にリサーチタスクを「実行」できる自己ホスト型フレームワーク(Dockerサンドボックス、コード実行、ファイルシステムアクセス付き)
- インストールにはDocker + Python 3.12 + Node.js 22が必要、
make docker-startで起動後、localhost:2026にアクセス - コスト最優先なら:DeepSeek v3 API(GPT-4oより大幅に安くて品質も近い)
- ByteDanceのプライバシー問題は実在します:Ollamaのローカルモデルを使えばデータが外部に送信されない
- 定期的に深い調査が必要な人向け(競合分析、市場調査)——たまに調べる程度ならPerplexityで十分
DeerFlowとは何か?ChatGPTとの本質的な違い
まず明確にしておきたいのは、DeerFlowは別のチャットインターフェースではないということです。
ChatGPTに「A社とB社の競合戦略を分析して」と聞けば、それなりに筋の通った文章が返ってきます。しかしその情報はトレーニングデータから組み立てられたもので、A社の最新の決算書を実際に確認したわけでも、B社のウェブサイトを先週見に行ったわけでもありません。
DeerFlowはまったく異なるアプローチを取ります。AIに「専用コンピュータ」を与えるのです。具体的には、Dockerで隔離されたサンドボックス環境で、本物のファイルシステムとbashターミナルを持っています。AIはやり方を「説明」するだけでなく、実際に実行できます——ウェブを巡回してデータを収集し、Pythonスクリプトで分析し、結果をファイルに書き出す、といった一連の作業を。
Twitterユーザー @lxfater の表現が見事にクリーンヒットしていました:「ByteDanceはopenclaw + claude code + サンドボックスを組み合わせたようなものを作った。」
アーキテクチャ的には、DeerFlowはSuperAgentオーケストレーションフレームワークです。メインのOrchestratorエージェントがタスクを受け取り、サブタスクに分割して並列で動く専門エージェントに割り振り、最後にReporterが結果を統合して出力します。あなたはひとつの指示を出して、結果を待つだけです。
ただし、この「待つ」こと自体も制限のひとつです。マルチステップのエージェントシステムは性質上、ハルシネーションのエラーが積み重なりやすく、第一ステップの小さなミスが第三ステップで増幅される可能性があります。DeerFlowにはグラウンディングや交差検証のメカニズムが組み込まれていないため、出力結果は自分でレビューする必要があります。能力の高いリサーチアシスタントとして扱い、盲目的に信頼できる分析ツールとは考えないようにしましょう。
DeerFlowが必要か判断するための核心的な問い:あなたのリサーチタスクにはAIが「アクションを実行する」ことが必要ですか?(ウェブ巡回、分析実行、データ整理)もしそうなら、セットアップに時間をかける価値があります。素早い回答が欲しいだけなら、Perplexityの方が実用的です。
DeerFlow 2.0のコア機能
DeerFlow 2.0はv1とまったく別物です。公式の説明では、コミュニティの使い方が当初の想定を大きく超えたため、コードを一切共有せず完全に書き直したとのことです。書き直しによって生まれた4つのコア機能:
Dockerサンドボックス実行環境:各タスクは隔離コンテナ内で実行されます。AIはパッケージをインストールしたり、スクリプトを実行したり、ファイルを読み書きしたりできます——メインシステムには影響しません。これがDeerFlowと純粋なチャットツールを分ける根本的な境界線です。注意点:サンドボックス内のCoder Agentは任意のbashコマンドを実行できます。プロンプトインジェクション攻撃でAIが悪意ある命令を実行させられた場合、メインシステムは保護されていますが、サンドボックス内のデータは露出します。サンドボックス内に機密ファイルを置かないようにしましょう。
階層型マルチエージェントシステム:メインエージェントがタスクをサブタスクに分解し、並列で動くエージェントに分配します。競合分析を行う場合、3つのサブエージェントがそれぞれ異なる会社のデータを同時に収集し、最後にReporterがまとめた報告書を作成する、といった流れです。
Markdown Skillsシステム:ワークフローをMarkdownファイルで定義できます。コーディング不要。「検索→分析→スライド生成」といった独自の調査フローを設定し、システムがその手順通りに実行します。
永続的メモリ:セッションをまたいで設定やコンテキストを記憶します。先週行った競合分析を、今週の追跡調査でも前回の結論を引き継いで進められます。
テキストレポートだけでなく、DeerFlowはPPTスライド、完全なウェブページ、データダッシュボードも生成できます。主な出力フォーマットはMarkdownとHTMLで、NotionやConfluenceなどのツールに直接コピーできます。ただし、スライドやウェブページ生成の品質については独立した評価を見ていないため、公式デモは好感触でしたが実際の品質は自分で試してみる必要があります。
Telegram、Slack、飛書(Feishu)との連携もポイントです。Telegramグループから直接DeerFlowに指示を送り、バックグラウンドでタスクが完了したら結果が返ってきます。チームでの利用には、ブラウザタブを常に開いておくより便利です。
現実的な一点を付け加えると、DeerFlow 2.0は2026年2月末にリリースされたばかりで、現在も急速に進化しています。PythonのバージョN要件はすでに3.11から3.12に変更されました。今後数ヶ月でコマンドや設定も変わる可能性があります。mainブランチを追うのではなく、特定のリリースタグに固定して使うことをお勧めします。
動作環境とインストール手順(Mac / Windows)
インストール自体はそれほど難しくありませんが、初回には必ずどこかで詰まります。動作環境要件と手順を順に説明します。
必要なもの
- Python 3.12+(3.11以下は動作しません)
- Node.js 22+
- Docker Desktop(必須——サンドボックスはDockerで動きます)
- pnpm(Nodeパッケージマネージャー)
- uv 0.7.20+(Pythonパッケージマネージャー)
MacユーザーでHomebrewが入っていれば、大半はbrew installで対応できます。Windowsユーザーは先にDocker DesktopとWSL2を準備することをお勧めします。
インストール手順
# 1. リポジトリをクローン
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
# 2. 設定ファイルのテンプレートを生成
make config
# 3. .env にAPIキーを設定(次のセクションで詳しく説明)
# お好みのエディタで .env を開いてください
# 4. Dockerで起動(推奨方法)
make docker-start
ブラウザでhttp://localhost:2026を開き、インターフェースが表示されれば成功です。
初回で必ず知っておくべきこと
最も多い失敗ポイント:make configをスキップして直接起動しようとすること。このコマンドがconfig.yamlと.envのテンプレートを生成します。実行しないと、以降のステップがすべてエラーになります。
また、DeerFlowは4つのポートを使用します:2026(nginx統合エントリ)、8001(gateway API)、2024(LangGraphサーバー)、3000(フロントエンド)。これらのポートを他のサービスが使用していると起動に失敗します。
起動前に環境を確認するには:
make check
すべての依存関係が正しくインストールされているか検証できます。
API設定とモデル選択:DeepSeek、Gemini、それともOllama?
DeerFlowの優れた設計のひとつが、完全なモデル非依存性です。OpenAI互換APIを持つモデルであれば何でも使えます。GPT-4oに縛られる必要はありません。
3つの選択肢
選択肢1:DeepSeek API(多くの人に推奨)
コストが低く、品質が良く、設定が簡単です。.envに追記:
DEEPSEEK_API_KEY=your-key-here
次にconfig.yamlを開き、モデル設定をDeepSeek v3に変更します(具体的なフィールド名はバージョンによって異なりますが、make configで生成されるテンプレートにコメントで説明があります)。DeepSeek APIはGPT-4oよりもかなり安く、予算を抑えたいユーザーにとって現実的な出発点です。
選択肢2:OpenAI API(すでにキーを持っている場合)
最もシンプルな選択肢です。.envに設定:
OPENAI_API_KEY=your-key-here
品質は最も安定していますが、コストも最高です。他のプロジェクトですでにAPIを使っているなら、そのまま流用できます。
選択肢3:Ollamaローカルモデル(無料+最高プライバシー)
データが完全に手元のマシンに留まります。Ollamaをインストールし、モデルをダウンロード(QwenやDeepSeekローカル版を推奨)、DeerFlowのAPIエンドポイントをlocalhost:11434に向けます。
トレードオフとして、それなりのGPU(最低8GB VRAM)が必要で、推論速度はクラウドAPIより遅くなります。ただし、プライバシーを最優先にするなら、データが外部送信されない唯一の選択肢です。
選び方
| 観点 | DeepSeek API | OpenAI API | Ollamaローカル |
|---|---|---|---|
| コスト | 低い | 高い | 無料(GPUが必要) |
| 品質 | GPT-4oに近い | 最も安定 | モデルとハードウェア次第 |
| プライバシー | DeepSeekサーバーへ送信 | OpenAIへ送信 | 完全ローカル |
| 設定難易度 | 低い | 低い | 中程度 |
特別なプライバシー要件がなければ、DeepSeek APIから始めることをお勧めします。DeerFlowが自分のワークフローに合うと確認してから、Ollamaへの移行を検討しましょう。
DeerFlow vs OpenAI Deep Research vs Perplexity:それぞれの得意領域
この3つはよく比較されますが、実際には解決する問題が異なります。
Perplexity:最速・最シンプル。質問すれば数秒で引用付きの回答が得られます。日常的な調べ物やファクトチェックに最適。設定不要、開いてすぐ使えます。
OpenAI Deep Research:ChatGPT Plusのサブスクリプションが必要。調査テーマを与えると数分で高品質な深堀りレポートを生成します。ワークフローのカスタマイズはできず、出力はレポートのみです。
DeerFlow:オープンソース・自己ホスト型。LiveResearchBenchの評価によると、調査品質はDeep Researchと同等(全体の平均スコア差は1ポイント未満)です。追加価値は実行能力とカスタマイズ性——独自の調査パイプラインを定義し、Pythonで分析を実行し、Telegramボットとしてチームに展開することもできます。代わりにインストールと設定の手間がかかります。
| Perplexity | OpenAI Deep Research | DeerFlow | |
|---|---|---|---|
| 得意な用途 | クイック検索・引用 | 単発の深堀り調査 | 繰り返す複雑なタスク・カスタムパイプライン |
| 費用 | Pro $20/月 | ChatGPT Plus $20/月 | モデルAPIコスト(無料も可) |
| 設定の手間 | なし | なし | 中〜高 |
| カスタマイズ | 不可 | 不可 | 完全オープン |
| コード実行 | 不可 | 限定的 | 完全なDockerサンドボックス |
私の見方:週に数回調べ物をする程度ならPerplexity。たまに深い調査が必要ならDeep Researchで十分。しかし競合追跡・市場調査・技術ドキュメントの整理など、毎週同じような調査をしているなら、DeerFlowの初期設定コストは長期的に元が取れます。
ByteDanceのプライバシーリスク:データはどこへ行く?
これはあえて避けない節です。DeerFlowはByteDanceのオープンソースプロジェクトで、ByteDanceは中国企業です。オープンソースだからといって、その事実は変わりません。
技術層(解決可能)
良いニュース:DeerFlow自体はデータを直接収集しません。あなたのリサーチコンテンツがどこに送られるかは、選択したLLMバックエンドで完全に決まります:
- OpenAI API → データはOpenAIへ
- DeepSeek API → データはDeepSeekサーバーへ
- Ollamaローカルモデル → データは完全にローカルに留まる
つまり技術的には、Ollamaを使えばデータの外部送信をゼロにできます。公式の中国語READMEにも「信頼できるローカル環境でのみデプロイすること」という警告が明記されています。
法律層(技術では解決不可)
悪いニュース:ByteDanceは中国法の管轄下にあります。VentureBeatの企業向け分析では、金融・医療・政府などの規制産業がDeerFlowを採用する前にコンプライアンス審査が必要と指摘しています。
さらに気になるのは前例です。ByteDanceの別の開発ツール、Trae IDEは以前TechRadarでユーザーデータを収集していると報告されました。DeerFlowは別製品ですが、同じ会社の信頼実績は判断に影響します。
また、公開されている独立したセキュリティ監査レポートが現時点では存在しません。45kのスターがついて多くの人が使っているにもかかわらず、ソースコードに対する第三者による系統的な検証を見つけることができませんでした。この透明性の欠如自体がリスクのシグナルです。
自分ならどう選ぶか
3つのシナリオで考えます:
- 個人的な調査・機密性のないデータ:DeepSeek APIで問題ありません。Googleで検索するときもデータを送信しているわけですから。
- 企業の非機密データ:使えますが、DeerFlowのポートを外部に公開せず、内部ネットワーク内に限定することをお勧めします。
- 企業の機密データ(財務・顧客・医療):Ollamaで完全オフラインにするか、DeerFlowを使わないかのどちらかです。法的リスクは技術的手段では解消できません。
脅かすつもりはありません——これは情報に基づいた判断をするためのコンテキストです。良いツールですが、信頼は正しい対象に向けてください。
インストール失敗の対処法:よくあるエラー5選
GitHub Issuesとコミュニティの報告を見ると、問題はほぼ同じ5つに集約されます:
1. APIキーが設定されていない
症状:起動後、すべてのタスクでAPI key not configuredエラーが出る。
対処法:最初にmake configを実行して.envファイルを生成し、そこに少なくとも1つのAPIキーを入力しているか確認してください。configを実行し忘れているのが最も多い原因です。
2. Pydanticバリデーションエラー / JSONパース失敗
症状:タスク実行中にValidationErrorまたはJSONパース関連のエラーが発生する。
対処法:通常、モデルの能力が不足していて構造化JSONを安定して出力できない状態です。より強力なモデルにアップグレード(例:DeepSeek v2 → v3)するか、最新版のDeerFlowを使用していることを確認してください。
3. ポートの競合
症状:make docker-startが失敗し、ログに"port already in use"と表示される。
対処法:
# ポートを使用しているプロセスを確認
lsof -i :2026
# プロセスを終了するか、DeerFlowのポート設定を変更
DeerFlowはデフォルトで4つのポートを使用します:2026、8001、2024、3000。いずれか1つでも使用中だと起動できません。
4. Pythonのバージョンが違う
症状:インストール中に構文エラーやパッケージの非互換性エラーが出る。
対処法:
# Pythonバージョンを確認
python3 --version
# 3.12+でない場合、uvでバージョンを固定
uv python pin 3.12
5. Dockerサンドボックスのイメージが未ダウンロード
症状:タスク実行時にサンドボックス環境の起動に失敗する。
対処法:
make setup-sandbox
このコマンドで必要なDockerイメージをプリダウンロードします。初回実行は回線速度によって数分かかる場合があります。
汎用診断コマンド
問題の場所がわからない場合は、以下の3つを試してください:
make check # 全依存関係を検証
curl localhost:2026/api/health # APIの応答確認
make docker-logs-gateway # ゲートウェイログを確認
まとめ:良いツールだが、全員に必要なわけではない
DeerFlowにはインストールの手間があり、プライバシーに関する現実的な考慮事項があり、出力結果は人間のレビューが必要です。しかし定期的に深い調査をする人——毎週の競合追跡、市場調査レポート、技術ドキュメントの系統的なまとめ——にとっては、現時点でオープンソースとして最も完成度の高い選択肢です。
DeepSeekでコストを抑え、プライバシーが優先ならOllamaを使う。初期セットアップに数時間かければ、長期的に複利効果で恩恵を受け続けられます。
試してみたいなら、おすすめの順番はこうです:DockerとPython 3.12があることを確認 → git clone → make config → DeepSeek APIキーを設定 → make docker-start → 普通なら30分かかるようなリサーチタスクを投げてみる。その結果が、DeerFlowに投資し続ける価値があるかを教えてくれます。
FAQ
DeerFlowは無料ですか?利用料金はどうなりますか?
DeerFlowフレームワーク自体は完全無料のオープンソースです。実際のコストは選択するLLMによって異なります。Ollamaのローカルモデルは無料(ただしGPUが必要)、DeepSeek APIはOpenAIより大幅に安く、GPT-4oは最も高額です。モデルの料金は変動するため、各プロバイダーの最新価格を確認してください。フレームワークは無料、費用はモデル使用料のみです。
DeerFlowは日本語での調査や出力に対応していますか?
対応しています。ただし品質は選択するモデルによって異なります。GPT-4oとDeepSeek v3はどちらも日本語能力が高く、プロンプトで「日本語で出力してください」と指定すれば日本語の結果が得られます。Ollamaのローカルモデルを使う場合は、Qwenシリーズが日本語出力において安定した結果を示しています。



