メインコンテンツへスキップ

Documentation Index

Fetch the complete documentation index at: https://firecrawl-mog-monitoring-docs.mintlify.app/llms.txt

Use this file to discover all available pages before exploring further.

AIを活用して開発しているなら、Firecrawlは開発体験を向上させるためのさまざまなリソースを提供します。Firecrawlにはスキルが用意されています。これは、AIコーディングエージェントが自動的に見つけて使う自己完結型のナレッジパックです。インストールコマンドを1つ実行するだけで、エージェントはリアルタイムのWeb作業向けCLIツールと、Firecrawlをアプリケーションコードに統合するためのBuild スキルを利用できるようになります。Claude Code、Cursor、Antigravity、OpenCodeのようなエージェントは、APIキーさえあれば1つのコマンドでセルフオンボーディングできます。APIキー作成後は人間による設定は不要です。

前提条件:APIキーを作成する

現在、Firecrawlアカウントの作成は人間の手で行う必要があります。アカウントを作成したら、APIキーを作成してください。APIキーがあれば、その後の作業 — スキルのインストール、CLIの認証、MCPの設定、ユーザーに代わっての呼び出し — はエージェントが処理できます。

APIキーを取得

Firecrawlを使い始めるには、登録してAPIキーを取得してください。

スキル + CLI

Firecrawl CLI を使うと、エージェントはターミナルから検索、スクレイピング、操作、クロール、マッピング、抽出、エージェントジョブの実行を行えます。人間、AI エージェント、CI/CD パイプライン向けに設計されています。 Firecrawl スキル は、Claude Code、Antigravity、OpenCode のような AI コーディングエージェントが自動的に見つけて利用できる、自己完結型のナレッジパックです。1 つのインストールコマンドで必要なものがすべてセットアップされます — 実際の Web 作業向けの CLI ツールと、Firecrawl をアプリケーションコードに統合するためのBuild スキルです:
npx -y firecrawl-cli@latest init --all --browser
  • --all は、このマシンで検出されたすべての AI コーディングエージェントに Firecrawl スキルをインストールします
  • --browser は Firecrawl の認証のためにブラウザを自動的に開きます
インストール後、すべてが正しく動作していることを確認します:
firecrawl --status
firecrawl scrape "https://firecrawl.dev"

インストールで利用できるもの

このインストールでは、エージェントが Firecrawl を使うあらゆる方法をカバーする 2 種類のスキルがセットアップされます。 CLI スキル — エージェントのセッション中にライブのウェブ作業を行うためのもの:
SkillPurpose
firecrawl/cliCLI コマンド全体のワークフロー
firecrawl-searchウェブを検索してページを見つける
firecrawl-scrape既知の URL からクリーンなコンテンツを抽出する
firecrawl-interactプロンプトまたはコードを使ってスクレイピングしたページを操作する
firecrawl-crawlサイト全体からコンテンツを一括抽出する
firecrawl-mapドメイン上のすべての URL を見つける
firecrawl-agentジョブを使って自律的にウェブデータを収集する
Build スキル — Firecrawl をアプリケーションコードに統合するためのもの:
SkillPurpose
firecrawl-buildプロダクトに適した Firecrawl エンドポイントを選ぶ
firecrawl-build-onboarding認証とプロジェクト設定
firecrawl-build-scrapeアプリコードにスクレイピングを実装する
firecrawl-build-searchアプリコードに検索を実装する
firecrawl-build-interactアプリコードにページ操作を実装する
firecrawl-build-crawlアプリコードにクロールを実装する
firecrawl-build-mapアプリコードに URL 発見を実装する

進む先を選ぶ

どちらのスキルカテゴリでも、インストール方法は同じです。違うのは、その次に何をするかです。
1

ライブWebツール(CLIスキル)

現在のセッション中にWebデータが必要な場合に使います。たとえば、Web検索、既知のURLのスクレイピング、スクレイピング済みページの操作、ドキュメントのクロール、サイトのマッピング、エージェントジョブの実行などです。デフォルトの流れ:
  1. 探索が必要なら search から始める
  2. URL があるなら スクレイピング に進む
  3. スクレイピング済みページで追加のアクションが必要な場合は interact を使う
  4. 多数のURLやページが必要な場合は map または クロール を使う
  5. タスクがオープンエンドで自律的な探索が必要な場合は agent を使う
# Web を検索
firecrawl search "best open-source web crawlers"

# ページをクリーンなMarkdownにスクレイピング
firecrawl scrape https://docs.firecrawl.dev

# サイト全体をクロール
firecrawl crawl https://docs.firecrawl.dev
2

アプリ連携(Buildスキル)

コードから Firecrawl API を呼び出すアプリケーション、エージェント、またはワークフローを構築している場合に使います。Buildスキルは、適切なエンドポイントの選定、SDK の組み込み、スモークテストの実行を支援します。エージェントは 1 つの重要な問い、プロダクト内で Firecrawl に何をさせるべきか?、に答え、Buildスキルはそれに応じて /search/scrape/interact/crawl/map/agent に振り分けます。
3

REST API(インストール不要)

何もインストールしたくない場合は、エージェントから Firecrawl REST API を直接呼び出せます。API キーを設定し、各エンドポイントを呼び出します。
  • POST https://api.firecrawl.dev/v2/search — クエリでページを見つける
  • POST https://api.firecrawl.dev/v2/scrape — URL からクリーンなMarkdownを抽出する
  • POST https://api.firecrawl.dev/v2/interact — スクレイピング済みページを操作する
  • POST https://api.firecrawl.dev/v2/crawl — サイト全体を一括抽出する
  • POST https://api.firecrawl.dev/v2/map — ドメイン上のURLを見つける
  • POST https://api.firecrawl.dev/v2/agent — 自律的なWebデータ収集を実行する
認証ヘッダー: Authorization: Bearer fc-YOUR_API_KEY
完全なオンボーディング定義は firecrawl.dev/agent-onboarding/SKILL.md で確認できます。エージェントはセルフオンボーディングのためにこれを直接取得できます。

スキル + CLI

CLI とスキルをインストールし、認証を行って、ターミナルから スクレイピング、search、クロール、 interact、map、extract、agent コマンドを実行します。

Firecrawlをツールとして使う

Firecrawlは、エージェントがウェブを扱うための5つの主要なツールを提供します。各ツールはAPIエンドポイントとCLIコマンドに対応しており、必要に応じて適切なものを選べます。
すでにURLがあり、クリーンでLLM向けのコンテンツが必要な場合に使います。スクレイピングはあらゆるウェブページをMarkdown、HTML、または構造化データに変換し、JavaScriptレンダリング、bot対策、乱雑なHTMLも自動で処理します。
# CLI
firecrawl scrape https://docs.stripe.com/api/charges
# REST API
curl -X POST https://api.firecrawl.dev/v2/scrape \
  -H "Authorization: Bearer fc-YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"url": "https://docs.stripe.com/api/charges"}'
使用する場面: ドキュメントの読み取り、記事コンテンツの抽出、既知のページからのデータ取得、LLM用コンテキストへのウェブページ変換。
クロールは開始URLからリンクを再帰的にたどり、見つかったすべてのページをスクレイピングします。単一ページではなく、サイト全体やドキュメント一式のコンテンツが必要な場合に使います。
# CLI
firecrawl crawl https://docs.firecrawl.dev --limit 50
# REST API
curl -X POST https://api.firecrawl.dev/v2/crawl \
  -H "Authorization: Bearer fc-YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"url": "https://docs.firecrawl.dev", "limit": 50}'
使用する場面: ドキュメントサイト全体の取り込み、ナレッジベースの構築、コンテンツ移行、学習データの収集。
Mapは、コンテンツをスクレイピングせずに、ドメイン上のインデックス済みURLをすばやく見つけます。サイト構造を把握したい場合や、スクレイピング前に特定のページを探したい場合に使います。
# CLI
firecrawl map https://docs.firecrawl.dev
# REST API
curl -X POST https://api.firecrawl.dev/v2/map \
  -H "Authorization: Bearer fc-YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"url": "https://docs.firecrawl.dev"}'
使用する場面: サイト監査、大規模サイト内での特定ページの発見、対象を絞ったクロール前のサイト構造の把握。
Interactを使うと、エージェントはプロンプトやコードを使ってスクレイピングの続きから処理できます。スクレイピング済みのページで、クリック、フォーム入力、画面遷移、または追加の抽出が必要な場合に使います。
# CLI
firecrawl scrape https://example.com
firecrawl interact "Click the pricing tab and extract the plan names"
# REST API
curl -X POST https://api.firecrawl.dev/v2/interact \
  -H "Authorization: Bearer fc-YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"scrapeId": "scrape-id-from-scrape", "prompt": "Click the pricing tab and extract the plan names"}'
使用する場面: スクレイピングからの継続、動的ページの操作、フォーム入力、ページ操作後のデータ抽出。

エージェントがツールを連携して使う方法

ほとんどのエージェントのワークフローでは、複数のツールを組み合わせます。一般的なパターンは次のとおりです。
  1. Search で関連するページを見つける → URL の一覧を取得
  2. 関連性の高い URL を スクレイピング する → 整理されたコンテンツを取得
  3. スクレイピングしたページで後続のアクションが必要な場合は Interact する
  4. 自律的な探索や、複数ページにまたがる構造化データの抽出が必要なタスクでは Agent を使う
大量に処理する場合、エージェントはまず Map で URL を見つけ、その後、必要なページを クロール または選択的に スクレイピング します。

Firecrawl MCP Server

MCP は、アプリケーションが LLM にコンテキストを提供する方法を標準化するオープンプロトコルです。その利点の1つとして、LLM がユーザーに代わって処理を実行するためのツールを提供します。私たちの MCP server はオープンソースで、検索、スクレイピング、Interact、クロール、マップ、抽出、エージェントなど、API の全機能をカバーしています。 リモートホストのURLを使用してください:
https://mcp.firecrawl.dev/{FIRECRAWL_API_KEY}/v2/mcp
または、ローカルサーバーを任意のMCPクライアントに追加します:
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": ["-y", "firecrawl-mcp"],
      "env": {
        "FIRECRAWL_API_KEY": "fc-YOUR-API-KEY"
      }
    }
  }
}

MCP Server

Cursor、Claude Desktop、Windsurf、VS Code などのインストール手順を確認

エージェント向け Firecrawl ドキュメント

Firecrawl の最新ドキュメントを、コンテキストを保ったままエージェントに渡せます。エージェントはこれらのリソースを直接取得して自力で使い始められるため、人間が手作業で設定する必要はありません。
1

Markdown ドキュメント

すべてのページには Markdown 版があります。任意のドキュメント URL の末尾に .md を付けるか、ページのアクションメニューから Markdown としてコピーしてください。
Docs for this page: https://docs.firecrawl.dev/ai-onboarding.md
2

完全版 llms.txt

すべてのドキュメントを 1 つのファイルとしてエージェントに渡せます。
Here are the Firecrawl docs: https://docs.firecrawl.dev/llms-full.txt
より短いインデックスは https://docs.firecrawl.dev/llms.txt でも利用できます。
3

MCP ドキュメントサーバー

MCP ツールを使って構造化された形で利用する場合は、任意の MCP クライアント (Cursor、Claude Code、Claude Desktop、Windsurf) で Firecrawl MCP Server に接続してください。インストールコマンドについては MCP Server ページを参照してください。
4

ChatGPT / Claude にコピー

すべてのページにはコンテキスト対応のアクションメニュー (コピー、Markdown として表示、ChatGPT で開く、Claude で開く) があり、エージェントも人間もワンクリックでツール間をまたいでページを移動できます。

クイックスタートガイド

エージェントでよく使われるスタック向けの、そのまま使えるクイックスタートです。これらのいずれかをエージェントに渡せば、動作する Firecrawl インテグレーションのひな形をエンドツーエンドで生成できます。 Cursor に任せるなら、Firecrawl MCP server をワンクリックでインストールして、Cursor でプロンプトを始めましょう: Cursor で開く — Firecrawl MCP server を追加

Node.js

Firecrawl Node SDK を使ったサーバーサイド JavaScript / TypeScript。

Next.js

Next.js のルートハンドラーとサーバーアクションからスクレイピング、検索、クロールを実行します。

Python

スクリプト、ノートブック、バックエンドサービスから Firecrawl を使用します。

FastAPI

検索、スクレイピング、抽出を行う非同期 Python API を構築します。

Cloudflare Workers

Workers を使ってエッジで Firecrawl を実行します。

Vercel Functions

Vercel Functions から Firecrawl を呼び出します。

AWS Lambda

Lambda ハンドラーから Firecrawl を呼び出します。

Supabase Edge Functions

Supabase の Deno ランタイム内で Firecrawl を使用します。

Go

検索、スクレイピング、クロールに対応した、Go らしい Go SDK。

Rust

Firecrawl 向けの型安全な Rust SDK。

Laravel

PHP SDK 経由で Laravel アプリに Firecrawl を追加します。

Rails

Ruby on Rails に Firecrawl を簡単に組み込めます。
左側のサイドバーで、クイックスタートの完全な一覧 (Express、NestJS、Fastify、Hono、Bun、Remix、Nuxt、SvelteKit、Astro、Mastra、Django、Flask、Elixir、Java、Spring Boot、.NET、ASP.NET Core など) を確認できます。

エージェントハーネス

Firecrawl は、コーディングエージェント、エージェント SDK、モデルアグリゲーターなど、エージェントが実際に動くランタイムやフレームワークに対応しています。ほとんどのコーディング用ハーネスでは、npx -y firecrawl-cli@latest init --all --browser で Firecrawl スキルを自動検出できます。それ以外では、MCP または REST API 経由でツールとして Firecrawl を呼び出します。

Claude Code

Anthropic の CLI — Claude Code で Firecrawl MCP をセットアップします。

Cursor

IDE エージェント — Cursor で Firecrawl MCP をワンクリックでインストールします。

OpenCode

Firecrawl MCP を OpenCode に組み込みます。

Codex CLI

Firecrawl MCP を OpenAI Codex CLI に組み込みます。

OpenRouter

OpenRouter の任意のモデルを Firecrawl の web ツールと組み合わせます。

Amp

Firecrawl MCP を Sourcegraph Amp に組み込みます。

Windsurf

エージェント型 IDE — Windsurf で Firecrawl MCP をセットアップします。

Antigravity

Google のエージェント型 IDE に Firecrawl MCP を追加します。

Gemini CLI

Firecrawl MCP を Google Gemini CLI に組み込みます。

Nous Research

Hermes モデルで Firecrawl をツールとして使います。

AutoGen

Microsoft AutoGen のマルチエージェントチーム内で Firecrawl ツールを使います。

SDKs

Firecrawl API の全機能をカバーする、公式の型付き SDK です。利用しているスタックに合った言語の SDK をエージェントから利用できます。

Python

Node

Go

Java

Ruby

Rust

.NET

PHP

Elixir

CLI

Firecrawl は、主要な LLM SDK やエージェントフレームワーク向けに、ネイティブ対応の SDK バインディングも提供しています。OpenAI、Anthropic、Gemini、Google ADK、Vercel AI SDK、LangChain、LangGraph、LlamaIndex、Mastra、ElevenAgents については、LLM SDKs and Frameworks を参照してください。