robots.txt生成 - クロール設定ファイル生成
SEOに必要なrobots.txtを生成。User-agentやAllow/Disallowを入力するだけで完成です。
Input
プレビュー
User-agent: *
使い方
- User-agentを入力(デフォルトは * で全クローラー対象)
- Disallowにクロールを禁止するパスを1行ずつ入力
- Allowに許可するパスを1行ずつ入力(任意)
- ダウンロードボタンでrobots.txtを取得
よくある質問
- robots.txtとは何ですか?
- 検索エンジンのクローラーにサイト内のアクセスルールを伝えるためのテキストファイルです。
- Disallowに / を指定すると?
- サイト全体のクロールを禁止します。検索エンジンにインデックスさせたくない場合に使います。
- データはサーバーに送信されますか?
- いいえ。すべての処理はブラウザ内で完結します。
- User-agentに複数のクローラーを指定できますか?
- はい。複数のUser-agentディレクティブを追加することで、クローラーごとに異なるルールを設定できます。すべてのクローラーに適用する場合は*(アスタリスク)を使用します。
- Sitemapのディレクティブも追加できますか?
- はい。サイトマップのURLをSitemapディレクティブとしてrobots.txtに含めることで、クローラーにサイトマップの場所を伝えられます。
関連ツール
更新情報
最終更新日: 2026-02-21
- 2026-02-21 初回リリース